Hc - Apuntes Segundo Cuatrimestre 2009-2010

109
Historia General de la Ciencia – Javier Jurado González 1 Historia General de la Ciencia Resumen Segundo Cuatrimestre Javier Jurado Historia de la Ciencia Carlos Solís y Manuel Sellés Universidad Nacional de Educación a Distancia

description

apuntes historia ciencia

Transcript of Hc - Apuntes Segundo Cuatrimestre 2009-2010

Page 1: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 1

Historia General de la Ciencia

Resumen Segundo Cuatrimestre

Javier Jurado

Historia de la Ciencia

Carlos Solís y Manuel Sellés

Universidad Nacional de Educación a Distancia

Page 2: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 2

ÍNDICE 17.  TEMA XVII: CIENCIA, ILUSTRACIÓN Y REVOLUCIÓN INDUSTRIAL 4 

17.1.  Ciencia e Ilustración ........................................................................................................................................ 4 

17.2.  La organización del saber ............................................................................................................................... 4 

17.3.  El desarrollo de la técnica y la Revolución Industrial ................................................................................ 5 

18.  TEMA XVIII: LA FILOSOFÍA NATURAL Y EL EXPERIMENTO 7 

18.1.  Cartesianos y newtonianos ............................................................................................................................. 7 

18.2.  El desarrollo de la física experimental .......................................................................................................... 8 

18.3.  La exploración del mundo físico ................................................................................................................... 9 

19.  TEMA XIX: LA FÍSICA EXACTA 15 

19.1.  El desarrollo de la electricidad ..................................................................................................................... 15 

19.2.  El magnetismo ............................................................................................................................................... 18 

19.3.  El calor y el nacimiento de la calorimetría ................................................................................................. 18 

19.4.  La física experimental y las matemáticas .................................................................................................... 21 

20.  TEMA XX: LAS MATEMÁTICAS MIXTAS: MECÁNICA Y ASTRONOMÍA 23 

20.1.  La mecánica después de Newton ................................................................................................................ 23 

20.2.  La astronomía................................................................................................................................................. 29 

21.  TEMA XXI: LA REVOLUCIÓN QUÍMICA 36 

21.1.  Desarrollos pre-revolucionarios .................................................................................................................. 36 

21.2.  La química de los gases ................................................................................................................................. 38 

21.3.  La revolución química .................................................................................................................................. 39 

22.  TEMA XXII: LA HISTORIA NATURAL Y EL ESTUDIO DE LA VIDA 43 

22.1.  De la historia natural a la historia de la naturaleza ................................................................................... 43 

22.2.  Neptunistas y vulcanistas ............................................................................................................................. 46 

22.3.  El estudio de la vida ...................................................................................................................................... 47 

23.  TEMA XXIII: EL SIGLO DE LA CIENCIA 52 

23.1.  El período romántico .................................................................................................................................... 52 

23.2.  Los años centrales ......................................................................................................................................... 53 

23.3.  La fábrica y el laboratorio ............................................................................................................................ 55 

23.4.  Ciencia y sociedad ......................................................................................................................................... 56 

24.  TEMA XXIV: LA ÓPTICA, EL ELECTROMAGNETISMO Y LA RELATIVIDAD 59 

24.1.  La teoría ondulatoria de la luz ..................................................................................................................... 59 

24.2.  Primeras investigaciones en electrodinámica ............................................................................................ 60 

24.3.  La teoría de Maxwell ..................................................................................................................................... 64 

Page 3: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 3

24.4.  Los problemas de la electrodinámica ......................................................................................................... 66 

25.  TEMA XXV: LA TERMODINÁMICA Y LA FÍSICA ESTADÍSTICA 71 

25.1.  El predominio del calórico ........................................................................................................................... 71 

25.2.  El nacimiento de la termodinámica ............................................................................................................ 74 

25.3.  La teoría cinética y la física estadística ....................................................................................................... 77 

25.4.  La radiación del cuerpo negro y el nacimiento de la teoría cuántica ..................................................... 81 

26.  TEMA XXVI: EL DESARROLLO DE LA QUÍMICA: ÁTOMOS Y MOLÉCULAS 84 

26.1.  La teoría atómica y las leyes de la combinación química ........................................................................ 84 

26.2.  La química orgánica y la evolución de la materia ..................................................................................... 86 

26.3.  La fisicoquímica ............................................................................................................................................. 88 

26.4.  La estructura y el enlace atómicos .............................................................................................................. 89 

27.  TEMA XXVII: MORFOLOGÍA Y EVOLUCIÓN 93 

27.1.  La formulación del transformismo: Lamarck ........................................................................................... 93 

27.2.  El desarrollo de la morfología ..................................................................................................................... 94 

27.3.  El desarrollo de la geología .......................................................................................................................... 96 

27.4.  La evolución por selección natural: Darwin .............................................................................................. 98 

28.  TEMA XXVIII: EL ESTUDIO DEL SER VIVO: GENERACIÓN, DESARROLLO, FUNCIÓN 101 

28.1.  La teoría celular ............................................................................................................................................ 101 

28.2.  La generación y el desarrollo ..................................................................................................................... 102 

28.3.  El estudio de la función animal ................................................................................................................. 105 

28.4.  La microbiología y la generación espontánea ......................................................................................... 108 

28.5.  La fisiología vegetal: fotosíntesis y respiración ....................................................................................... 109 

Page 4: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 4

17. TEMA XVII: CIENCIA, ILUSTRACIÓN Y REVOLUCIÓN INDUSTRIAL

Una lectura será suficiente para captar el contexto de la ciencia de la Ilustración. Conviene tener idea de cómo funcionaba la máquina de vapor.

17.1. Ciencia e Ilustración

La idea de progreso

o Antiguos vs. Modernos (Bacon, Descartes)

o Creencia en Orden divino + Libertad humana (No determinismo natural amoral).

o Mito buen salvaje (Rousseau) – No retorno: Promoción humana.

Ciencias humanas

o Política: Montesquieu

o Economía: Adam Smith

o Ciencias de cámara: “Aritmética política” (W. Petty)

Dios y la Creación:

o Mecanicismo francés: Providencia ordinaria - Providencia particular. Descartes, Malebranche.

o Voluntarismo británico: Filosofía natural. Newton. Deísmo y ateísmo materialista.

o Optimismo de las mónadas: Leibniz. Terremoto de Lisboa 1755.

Límites de la razón

o Filosofía experimental newtoniana, sistematización cartesiana de las ideas claras y distintas.

o Empirismo de Locke. (No ideas innatas, asociación de ideas).

o Escepticismo de Hume. (No causalidad, costumbre).

o Giro antropológico de la Filosofía Crítica: Kant.

17.2. La organización del saber

La Enciclopedia (Diderot y D’Alembert)

o (Memoria, razón, imaginación) x (Dios, hombre, naturaleza) =

Historia sagrada, civil, natural

Filosofía-ciencia de Dios, del hombre, de la naturaleza

Poesía, arte,…

o Ciencia vs. Arte. (Medicina – Ciencia&Arte)

o Física – Filosofía de la naturaleza (metafísica, particular, química).

o Matemáticas: puras y mixtas (mecánica – no racional – astronomía, óptica, acústica,…).

Universidades, academias, sociedades

Page 5: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 5

o Universidades (Poco abrigo institucional a las nuevas ciencias, función docente).

o Academias:

Royal Society, Académie de Sciences de París, Berlín, San Petesburgo, Bolonia, Estocolmo, Gotinga, Edimburgo,…

Jerarquización con medios (Monarquías absolutas) vs. Sociedad abierta y democrática.

Funciones de control de patentes, asesoramiento y colaboración.

Acreditación científica (escasa profesionalización).

Cosmopolitanismo vs. Tantos patrióticos.

La enseñanza y difusión de la ciencia

o Academias o Escuelas oficiales: Cuerpos facultativos para fuerzas armadas: cirujanos, artilleros, ingenieros, marinos.

o Iniciativa privada: disidencia religiosa y política afín a las nuevas clases comerciales e industriales.

o Ciencia como espectáculo. (Conferenciantes, Desaguliers).

o Libros de divulgación, diccionarios, la Enciclopedia (Diderot y D’Alembert), manuales y prensa científica.

17.3. El desarrollo de la técnica y la Revolución Industrial

Inglaterra, sede del dinamismo comercial.

o Colonias de ultramar (esclavismo, materias primas [algodón-industrial textil])

o Crecimiento demográfico (técnicas agrícolas, higiene, alimentación)

o La ciencia y su papel debatido (inventores sin formación científica vs. interés científico en las técnicas).

Países Bajos: capital mercantil a capital financiero

Francia: fuerte demanda interna, tensión que conduciría a la Revolución francesa.

Primeros pasos:

o Inventos para la manufactura textil: lanzadera volante, hiladora hidráulica, telar mecánico,… (madera->hierro; Manufactura-Fábrica).

o Demanda del blanqueado para el nuevo volumen: lanzamiento de la industria química (también para jabón, vidrio, pólvora,…; proceso Leblanc para la obtención de sosa; aportación de la ciencia).

o Industria metalúrgica Metalurgia: carbón vegetal -> coque y otros carbones. Sin ciencia, ensayo y error.

La máquina de vapor:

o Máquina de fuego de Savery para elevar agua en las minas por presión neumática.

o T. Newcomen aportó un cilindro que mecánicamente movía una bomba de agua. Smeaton, padre de la ingeniería civil británica mejoró su rendimiento, aunque tenía pérdidas importantes.

Page 6: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 6

o James Watt empleó dos cilindros, uno siempre caliente y otro siempre frío, ahorrando combustible.

Mecánica de precisión e instrumentación científica

o El péndulo y el volante con resorte espiral del XVII revolucionaron la relojería.

o Construcción de cronómetros para medir la variación de la longitud marítima.

o A la creciente precisión cronométrica se sumó la óptica.

o La división de limbos fue exigiendo el empleo de máquinas de precisión cada vez mayor (máquina de Ramsden).

o Con sus instrumentos, Inglaterra despuntó prácticamente durante todo el siglo XVIII en calidad y precio, materias primas, técnicas, cualificación de operarios, etc.

o La mejora se dio también en los instrumentos filosóficos de diverso propósito.

o Las técnicas en la industria mejoraron la precisión de medida hasta la diezmilésima de centímetro, que a mediados del XIX alcanzaría la millonésima de centímetro, facilitando el abaratamiento de piezas, gracias a la división del trabajo sobre piezas cuyas dimensiones estaban así aseguradas.

Page 7: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 7

18. TEMA XVIII: LA FILOSOFÍA NATURAL Y EL EXPERIMENTO

Una lectura del primer apartado para darse una idea. Prestar más atención a las teorías sobre el calor y la electricidad. A los detalles experimentales, un vistazo.

18.1. Cartesianos y newtonianos

Las ciencias baconianas contaban con un campo difícilmente matematizable.

o A esto se sumaba la dificultad de repetir con precisión los experimentos.

o La aproximación de cartesianos y newtonianos resultó insuficiente: Descartes tuvo que hacer física matemática sin matemáticas, y Newton fue incapaz de extraer resultados tan buenos en óptica.

o La práctica de la física experimental fue bastante similar, primando el experimento que fue poco a poco mejorándose.

o Su interpretación fue la de un mecanicismo, o bien pleno con presión o contacto, o un vacío o éter que canalizaba fuerzas ejercidas a distancia.

o No había noticias de los átomos, a pesar del microscopio y se seguían sosteniendo como hipótesis por analogía con la regular naturaleza macroscópica, basada en Dios.

o Pero sin hipótesis no había medida, ni sentido para interpretarla (termómetro, botella de Leiden,…).

La tradición cartesiana en seguida empezó a desarrollarse dejando en un segundo plano al fundamento metafísico, y sosteniendo sus principios de forma hipotética, reforzándose la verificación experimental.

o Regius, Régis o Rohault se centraban más en la observación.

o Huygens (choques elásticos, transmisión ondulatoria de la luz) o Malebranche (teoría de la materia elástica, movimiento vibratorio, fenómenos caloríficos y químicos) centraron su atención en las matemáticas.

o Los seguidores de éste introdujeron el cálculo infinitesimal de Leibniz en Francia, y sus ideas penetraron antes en la Academia de las Ciencias de París.

La filosofía natural newtoniana se contrapuso a la especulativa y sin matemáticas cartesiana.

o La gravedad, dado el relativamente sencillo esquema astronómico, e incluso el caso de la presión y el volumen fueron matematizables (con fuerzas de acción y repulsión), pero otros fenómenos como el magnetismo, la electricidad o la química resultaron mucho más arduos partiendo de los fenómenos.

o La teoría de la materia de Newton conoció dos fases: la mecanicista, de átomos y vacío – cáscara de nuez – y la materialista, con un éter sutilísimo y elástico capaz de dar cuenta de la gravitación y otros fenómenos, configurando un legado confuso.

La línea mecanicista coherente con los Principia se dio hasta 1740, y en ella, destacarían Hales, Desaguliers, Bentley, Derham, Gregory, Keill y Clarke. Worster, Desaguliers y Rowning propusieron la existencia de una alternancia de fuerzas atractivas y repulsivas en función de la distancia que culminó en Italia con la obra del

Page 8: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 8

jesuita Boscovich basada en puntos materiales cediendo el protagonismo a las fuerzas, pero la complejidad de los cálculos necesarios resultó frustrante.

La línea materialista fue reavivada con el baconianismo, el fracaso de la otra línea, y la filosofía continental, en especial, la teoría del fuego de Boerhaave. Dividió el éter imponderable en diferentes modificaciones o tipos para los distintos fenómenos luminosos, eléctricos, magnéticos y caloríficos.

o No hubo radical oposición entre ambas líneas: el éter no contenía apenas materia, sino que servía de principio activo, causa, para las fuerzas, facilitando las teorías basadas en fluidos de tradición newtoniana como el fuego (H. Boerhaave) o la electricidad (B. Franklin)

o El voluntarismo divino en Newton fue evolucionando, pasando por la concepción de Derham con la que Dios la habría impreso en la Creación, hasta la concepción de que la actividad era intrínseca a la materia, haciendo de la naturaleza un ente autorregulado.

La filosofía de Newton en el continente se recibió con cierto recelo.

o Con el cartesianismo compartía con diferente énfasis su aprecio por los datos empíricos, la formulación de hipótesis (con diferente significado) y la formulación matemática (aunque algunos sólo la predicaban como objetivo).

o Pero las fuerzas a distancia newtonianas parecían un regreso hacia el naturalismo mágico, reconociendo en Newton al geómetra pero no al físico (Malebranche, Huygens).

o También se cuestionó su calidad como experimentador, al no poder reproducir su crucial experimento de refracción por la menor calidad de los prismas y el laconismo de Newton en la descripción del experimento. Desaguliers resolvió la confusión en 1705.

o Las ideas de Malebranche acabaron flexibilizando el cartesianismo hasta posibilitar que la gravitación newtoniana fuera aceptada en Francia por diversos autores, como Voltaire, que a partir de su visita a Inglaterra criticaría duramente el cartesianismo defendiendo a Newton, como también haría Maupertuis, con el broche de la traducción francesa de los Principia por la marquesa de Châtelet.

o La disputa por la figura de la Tierra, que los cartesianos tomaban como alargada por los polos y Newton la había razonado como achatada por los mismos, concluyó con una expedición organizada por la Academia de las Ciencias francesa confirmando a Newton y dando un triunfo definitivo a sus ideas.

18.2. El desarrollo de la física experimental

Por física se entendía un campo mucho más amplio que el actual que se avenía mal con los sistemas demasiado racionalistas como los de Descartes, Leibniz y Newton, aunque éste tuvo mejor acogida por su defensa del método inductivo y su experimentalismo óptico.

o La física experimental tenía el objetivo de suministrar las observaciones que apoyaban como conjeturas a los razonamientos, con generalizaciones limitadas pero en expansión.

o La filosofía experimental tuvo dos facetas no independientes: investigadora y pedagógica.

o Tras el hito de la obra Newton en la filosofía experimental británica, Keill en Oxford y Desaguliers en la Royal Society hicieron proliferar los experimentos demostrativos, haciendo que el baconianismo perdiera fuerza.

Page 9: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 9

o En Holanda se dio una suerte de baconianismo newtoniano especialmente en medicina. Las doctrinas de Descartes se asociaron fuertemente con los procedimientos experimentales bajo inspiración que llevaban a cabo Boyle, Hooke, en Inglaterra, y Mariotte y Rohault en Francia.

o Boerhaave, Gravesande y Musschenbroek introdujeron el newtonismo, rechazando la precipitada especulación sobre las causas para la construcción de sistemas a partir de hipótesis (propia del cartesianismo), y priorizando el maridaje entre razón matemática y experiencia.

o Rohault y Polinière – que no se acogió a ningún sistema prefiriendo la experimentación sistemática – dieron cursos experimentales para el público, en general sin formación matemática como para comprender los Principia, reveladores de la realidad manifestada a los sentidos.

o El abate J. A. Nollet sustituyó a éste y con él se creó la primera cátedra francesa de física experimental: aunque la inspiración matemática de la física la consideraba más en los razonamientos que en los imprecisos experimentos y sus ecuaciones, su pedagogía mostró regularidades que se irían cuantificando y en el XIX ya matematizando.

18.3. La exploración del mundo físico

La experimentación se centró en los fenómenos relativos a la física particular (comportamiento del agua, luz, aire, fuego, electricidad y magnetismo).

En lo relativo a la naturaleza del calor, se vinculaba a éste con el movimiento (agitación, ebullición, rozamiento)

o Había quienes lo consideraban como un fenómeno puramente mecánico (físicos) y otros lo atribuían a un agente material específico (químicos).

Galileo consideró el calor como una sustancia material de partículas mínimas (ignicoli).

Gassendi, en clave epicúrea, creyó en átomos caloríficos y frigoríficos, aunque en general la tendencia fue considerar el frío como ausencia de calor.

Mariotte consideraba que era el movimiento de unos cuerpos que podía transferirse a otros.

o En Gran Bretaña triunfó la tesis del movimiento:

Bacon consideró que el calor era movimiento en expansión, retenido e impedido.

Boyle estimaba que era movimiento de partes de la materia finamente dividida y agitada, aunque también sostuvo tesis sustancialistas con partículas de fuego que explicaban el aumento de masa de los metales tras su calcinación.

Newton lo consideró una vibración transmisible por la luz que despiden los cuerpos calientes, incluso en el vacío, merced a un éter universal.

o Entre los químicos triunfó la concepción sustancialista, como en el caso de Lémery, Hartsoeker o Homberg.

Hartsoeker hablaría de un fluido universal como primer elemento que sería materia del fuego, y Homberg llamaría al principio sulfuroso materia de la luz, identificada con el principio activo del fuego.

El sutil peso de esta materia se hallaba en controversia: era inapreciable en el calentamiento (físico) pero no en la calcinación (químico) en la que los metales

Page 10: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 10

aumentaban de peso, lo que interpretado a través de la teoría del flogisto le exigiría un sospechoso peso negativo.

o Boerhaave publicó sus Elementa Chemiae con gran aceptación:

Consideraba el fuego como una sustancia sutil, sin fuerzas de cohesión como el resto de cuerpos, extendida por todo el universo y ajena a la gravitación, que tendería a ocupar espacios homogéneos (flujo calorífico).

Las partículas de fuego en movimiento vibratorio constituyen el calor, que se diferencia en el calentamiento y en la combustión: en ésta el material sirve como “alimento del fuego” que va agotándose pero no se combina con sus partículas, sino que éstas lo van desmenuzando gracias a su estrecho contacto.

Este estrecho contacto lo facilita la presión atmosférica que concentra la vibración del fuego, en cuya ausencia, en el vacío, es imposible la combustión.

o El termómetro comenzó con el termoscopio inspirado en Herón que se graduaba entre dos puntos conocidos, como el de la congelación del agua, bajo el supuesto de una dependencia lineal entre el volumen de una sustancia y el “grado de calor”, sin saber muy bien qué se medía.

Al experimentar que los cambios de presión atmosférica alteraban la lectura de los termómetros, se sellaron y emplearon sustancias termométricas, como el “espíritu del vino” teñido (alcohol y agua) y el mercurio que acabó imponiéndose con la mejora de la finura de los tubos de vidrio.

Fahrenheit tomó como referencia la temperatura del hielo fundente (32º) y la del cuerpo masculino saludable (96º) – el femenino le resultaba inestable – estimando el punto de ebullición del agua en 212º, que fue el que se tomaría finalmente como referencia, difundiéndose este sistema en Inglaterra y los Países Bajos.

Römer ya había empleado el punto de fusión y ebullición del agua, pero lo difundió Ferchault de Réaumur otorgándole valores de 0º y 80º.

La escala centígrada la introdujo Celsius de forma invertida a la actual (0º para la ebullición) mientras Fahrenheit comenzaba a comprobar la dependencia de dicho punto con la presión atmosférica.

En lo referente a la electricidad, los experimentos de Hauksbee, bajo la presidencia de Newton en la Royal Society, sobre electrización por frotamiento aportaron datos para la especulación.

o Comenzó estudiando el fenómeno del fósforo mercurial descubierto el abate Picard con los destellos provocados primero en un barómetro de mercurio en agitación, y después en una bomba de vacío debidamente frotada dando lugar al prototipo de generador electrostático basado en un globo de vidrio vacío que lograba una luz intensa.

o Este fenómeno se explica por la aplicación de una alta tensión en un aire a baja presión, como en los fluorescentes, y Hauksbee constató que al entrar aire disminuía el efecto lumínico pero aumentaba el eléctrico, por lo que se interesó por este último.

o La electrización se interpretaba como emisión de efluvios gracias al frotamiento que atraían a otros cuerpos, impedidos por cuerpos interpuestos o por la humedad atmosférica que taparía sus poros: eran razonables dada la experiencia del viento eléctrico, el ruido y los destellos visibles.

Page 11: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 11

o Hauksbee estudió su propagación radial introduciendo hilos dentro de la esfera, y demostró la permeabilidad del vidrio a estos efluvios al introducir una esfera al vacío dentro de otra, y comprobar que aquella brillaba al excitar ésta.

También constató la repulsión entre cuerpos electrizados, aunque pensaba que la acción eléctrica era sólo atractiva.

Su interpretación final acabó involucrando al aire: con el frotamiento, el calor rarificaba el aire próximo al vidrio haciendo que los efluvios, partes del vidrio liberadas por la fricción, se lanzaran hacia el exterior.

En el caso del vacío se moverían hacia el interior, iluminando la esfera pero no atrayendo.

o S. Gray advirtió que la atracción eléctrica no se producía por el vidrio sino por el interior del tubo (canalizada a través de un corcho, que lo tapaba, hacia el exterior).

Con ayuda de Wheler consiguió transportar los efluvios eléctricos a través de hilos, detectando materiales “eléctricos” (seda, resina, cabello, vidrio – aislantes) y “no eléctricos” (metales o vegetales – conductores).

Estos resultados parecían contradecir a Hauksbee: los cuerpos electrizables eran impermeables a los efluvios y los que conducían los efluvios no lo eran.

Logró mostrar la atracción eléctrica en el vacío, así como su independencia de la cantidad de materia.

o Dufay se hizo diferentes planteamientos de forma más sistemática hallando:

Que todos los cuerpos pueden ser electrizados (salvo metales – de momento – y otros demasiado blandos), que todos exhiben electricidad en diversa medida, y que las fuerzas de atracción y repulsión se suceden tras el contacto.

Así descubrió dos tipos de electricidad, la vítrea y la resinosa, atrayéndose en caso de ser diferentes y repeliéndose en caso de ser similares, pero no recurrió a fluidos diferentes, sino que interpretó el fenómeno a partir de una sola materia eléctrica presente en los cuerpos y alterada de forma mecánica, al estilo de los vórtices cartesianos.

Comprobó que existía cierto vínculo entre la iluminación y la electricidad, experimentando los chasquidos de las descargas que hicieron las delicias de la burguesía dieciochesca.

o Se estableció así una relación entre electricidad, luz y calor como alteraciones mecánicas, aunque con las ideas de Boerhaave sobre el fuego como fluido, comenzó a proliferar la idea de que la electricidad era un fuego eléctrico o incluso fuego elemental como estimaría el influyente abate Nollet y que sistematizaría en su teoría de efluvios.

La electricidad se tomaba así como una materia sutil combinación de fuego y materia oleosa o sulfurosa, presente en todos los cuerpos y fluyente por excitación, lo que explicaba los fenómenos lineales de atracción y repulsión.

Los flujos son afluentes y efluentes entre los cuerpos electrizados y su entorno, haciendo que no existan dos tipos de electricidades sino una sola.

o La botella de Leiden inventada de forma independiente por Kleist y Musschenbroek constituyó el primer condensador capaz de almacenar electricidad.

Page 12: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 12

El dispositivo era una botella de vidrio con agua electrizada, conectada al exterior por una varilla metálica que, en contacto con cuerpos no electrizados generaba chispas muy violentas, incrementadas cuando se ponían en paralelo, facilitando experimentos espectaculares como el que Nollet llevó a cabo electrizando a 180 gendarmes de la mano y a 200 cartujos en presencia del Rey.

La botella dio lugar a múltiples experimentos, aunque constituyó un dispositivo difícil de explicar: el vidrio parecía retener y transmitir la electricidad en contra de lo hallado por Dufay, y la botella se cargaba por un metal, cuerpo no eléctrico, en lugar de un eléctrico (aislante).

o W. Watson descubrió que la electricidad de una máquina de fricción disminuía al aislar el experimento:

Propuso así la existencia de un éter eléctrico transferido en la carga y descarga e identificado con el fuego elemental de Boerhaave.

Este fuego permearía los cuerpos, tendería a equilibrarse entre ellos, siendo responsable de las fuerzas de atracción y repulsión, y explicaría que las máquinas eléctricas funcionasen como bombas extractoras de la electricidad procedente no del objeto frotado, el globo de vidrio, sino de todo el cuerpo que lo frota y el suelo en contacto.

o Benjamin Franklin formuló una teoría muy simular a ésta que con acentos newtonianos fue muy influyente:

Sostenía la existencia de un único fluido eléctrico, explicando que los dos tipos de electricidad fueran una positiva o más y otra negativa o menos de este fluido.

El fluido permeaba la materia, compuesto de partículas muy sutiles que se repelían entre sí y eran atraídas por la materia ordinaria, al estilo newtoniano.

Un cuerpo neutro estaría saturado de fluido eléctrico, y si tuviera más formaría al estar cargado positivamente una atmósfera eléctrica que al entrar en contacto con otra similar sería repelida; sin embargo, quedaban sin explicar por qué los cuerpos cargados negativamente también se repelían.

La explicación de la botella de Leiden pasaba por considerar la carga de fluido eléctrico en el interior de la botella, la perfecta impermeabilidad del vidrio, y la carga negativa en el exterior en cuya restitución se producirían las chispas.

Su invención del pararrayos contribuyó a que ganase fama su tesis, en la que habitualmente se sitúa la formulación del principio de conservación de la carga eléctrica, paso previo a su cuantificación, aunque esta conservación es inherente a toda teoría que otorga a la electricidad una naturaleza material específica.

La meteorología se adaptaba bien al proyecto baconiano, y su recogida de experimentos a la espera de regularidades naturales estaba fuertemente vinculada con el calor, la electricidad o la pneumática.

o Se empleaban instrumentos disponibles como el barómetro, el termómetro, un anemómetro y un higroscopio (para observar la humedad), pero la disparidad de instrumentos hizo difícil compartir resultados.

o Hubo intentos efímeros de uniformidad como el de la Accademia del Cimento, o la Societas Meteorologica Palatina.

Page 13: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 13

o Los fenómenos se observaban de forma local, no existiendo consciencia de que el tiempo fuera un todo interconectado, aunque en 1775 ya se planteó el desplazamiento de una zona de bajas presiones.

o E. Halley publicó en 1686 el primer mapa de vientos global atribuyendo su causa física a la convección térmica: el aire más caliente en la faja ecuatorial por el Sol daría paso a los vientos del Norte septentrionales y del Sur meridionales así como los alisios, con la adicional explicación insuficiente de su desplazamiento de Este a Oeste siguiendo al Sol.

o G. Hadley así como I. Kant reformaron el esquema de circulación introduciendo los efectos de la rotación terrestre aunque tuvieron poca influencia.

o Se hicieron otras propuestas a nivel local que relacionaban la presión, el volumen y la temperatura:

Halley propuso una fórmula hipsométrica – variación de la presión en función de la altitud – ajustada a la ley de Boyle que era correcta salvo por la dependencia con la temperatura que no consideró.

Hauksbee estableció la ley de proporcionalidad entre temperatura y volumen a presión constante.

G. Amontons que inventó un termómetro de aire estableció la relación entre presión y temperatura.

o En lo referente al aire, había dos modelos:

Newton presentó uno que atribuía una fuerza repulsiva entre las partículas de aire inversamente proporcional a la distancia.

Bernoulli presentó otro, de inspiración cartesiana, basado en impactos, importante precedente de la cinética de gases del XIX aunque pasó inadvertido.

o La experiencia meteorológica de una atmósfera mucho más dinámica que los gases en laboratorio impidió determinar con mayor precisión la dependencia entre la presión atmosférica y el buen tiempo o los vientos.

En cualquier caso las variaciones de la presión se explicaron como variación del peso del aire (aumentada por vientos o exhalaciones de la Tierra, disminuida por desplazamientos laterales o lluvias), tal y como propondría Borelli y aprobaría Leibniz.

Desaguliers refutaría esta idea aduciendo que al caer en un medio resistente las gotas alcanzarían una velocidad límite restableciendo el efecto de su peso.

Las investigaciones de Amontons hicieron que la temperatura entrase en juego dilatando las columnas de aire o aumentando su presión.

o El problema de la evaporación y condensación no podía abordarse debidamente a falta del conocimiento del estado vaporoso, por lo que tendía a explicarse que el agua, más pesada que el aire, se elevaba por un mecanismo: El fuego parecía un buen candidato, dado su protagonista papel en la ebullición.

Halley propuso que el fuego aligeraba el agua, que en forma de burbujas rellenas de fuego ascendía hasta que su peso específico era como el del aire.

Charles Le Roy formuló la teoría de la solución, que consideraba al agua disuelta en el aire, como la sal en el agua, cuyo límite de saturación vendría definido por la temperatura

Page 14: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 14

(punto de rocío): al enfriar el aire se podría determinar el agua que contiene. Pero esta tesis tenía en contra la evidencia de que en el vacío también se producía la evaporación.

Desaguliers propuso una teoría eléctrica de la evaporación, según la cual el aire más electrizado cuanto más caliente estuviera atraía consigo partículas de agua, que se electrizarían, explicando el curioso fenómeno de que según el barómetro, el aire húmedo pesase menos que el seco.

o Estos mecanismos serán claves cuando la química pneumática evidenciase la existencia de distintos gases y la química del calórico de Lavoisier los culminase.

o En cualquier caso, la meteorología es un claro ejemplo de aproximación multidisciplinar que desdibuja las fronteras del historiador, aunando esfuerzos matemáticos en la hidrostática, dinámicos en la teoría del calor, y experimentales tanto cualitativos como cuantitativos.

Page 15: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 15

19. TEMA XIX: LA FÍSICA EXACTA

Conviene verlo bien, prestando atención a los problemas y a los conceptos. Algo menos a los detalles de los experimentos.

19.1. El desarrollo de la electricidad

Con la teoría de Franklin y el logro de cargar significativamente los cuerpos, se introdujo el concepto de carga eléctrica como cantidad del fluido eléctrico que se podía cuantificar en función de sus efectos.

o Esta tesis acomodaba diferentes fenómenos (botella de Leiden, modos de electrización de Dufay,…) pero presentaba dos dificultades:

La impermeabilidad atribuida al vidrio, y que las experiencias de Hauksbee habían desmentido.

Las explicaciones sobre la atracción (entre las partículas de la materia ordinaria y las del fluido al estilo gravitatorio) y la repulsión (entre las partículas del fluido que explicaba su elasticidad) que a nivel macroscópico resultaban deficientes.

o Sus seguidores afrontaron estas dificultades transformando la interpretación estática de Franklin en otra más dinámica emparentada con la mecánica de fluidos.

Jean-Baptiste Le Roy se opuso a la teoría de Nollet y distinguió entre la electricidad rarificada cualitativamente distinta de la comprimida.

Giambattista Beccaria expuso el principio erróneo de que los signos de electricidad se debían exclusivamente al tránsito del fluido eléctrico, con lo que todas las fuerzas eran atractivas y se suponía que la repulsión sólo se daba entre cuerpos con electricidad del mismo signo e igualmente cargados. Beccaria optaría por estimar que el cuerpo electrizado permanecería cargado hasta que se le acercase un conductor.

John Canton, sin embargo, estimó que el cuerpo comenzaba a descargarse nada más ser electrizado, interpretando la atmósfera de Franklin como el propio flujo eléctrico. Descubrió de forma independiente que las nubes podían cargarse positiva y negativamente, como el vidrio al ser frotado distintamente por franela o seda, y realizó diversos experimentos sobre inducción electrostática sin contacto.

o Franklin repitió los experimentos de Canton pero explicándolos en términos de atmósferas, asentándolos en tres principios sin explicación:

Las atmósferas de cuerpos cargados positivamente se repelen sin mezclarse

Una atmósfera positiva repele la materia eléctrica del interior de un cuerpo que se acerque (lo que servía para explicar la botella de Leiden, considerando que la cara interior de la botella ejercía influencia repulsiva sobre el fluido de la otra cara, pero esta explicación era débil pues, ¿por qué no iba a poder atravesar por completo el vidrio?).

Los cuerpos electrizados negativamente se repelen entre sí.

Los franklinistas J. C. Wilcke y F. U. T. Aepinus contribuyeron decisivamente con sus aportaciones:

o Lehmann llamó la atención a Aepinus sobre la turmalina, un nuevo cristal traído de Ceilán que era capaz de cargarse por frotamiento presentando dos polos de signo contrario, al estilo de una pequeña botella de Leiden.

Page 16: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 16

o Wilcke andaba interpretando los experimentos de Canton, haciendo un experimento que emulaba el condensador de la botella de Leiden: el aire esta vez ejercía de aislante intermedio entre las armaduras, lo que Aepinus retomó para comprobar que toda sustancia aislante es capaz de ejercer este almacenamiento, supliendo al vidrio de la botella sin propiedad particular alguna.

o Así, las atmósferas eléctricas resultaban incapaces de explicar simultáneamente las transferencias de carga y descarga y las atracciones y repulsiones, pues la inducción se producía sin transferencia de fluido alguna.

o De esta forma, Aepinus rechazó las atmósferas eléctricas de Franklin considerando que las fuerzas eléctricas estaban originadas por la presencia de fluido eléctrico que las ejercía a distancia; aunque no llegó a matematizarlas al estilo newtoniano, incorporó una novedad radical en su teoría: que existían fuerzas repulsivas entre las partículas de la materia ordinaria, lo que explicaba la repulsión entre los cuerpos cargados negativamente.

o Aepinus introdujo el álgebra en una disciplina tradicionalmente empírica y cualitativa, aunque lo hizo de forma parcial sin introducir números, resultándole desconocida la ley de atenuación de la fuerza eléctrica sobre la que especuló cualitativamente.

o Henry Cavendish continuó la obra de Aepinus en Gran Bretaña, esta vez introduciendo el carácter cuantitativo, hallando la variación de las fuerzas con el cuadrado de la distancia y formulando el concepto de potencial electrostático.

Franklin había observado que una bola dentro de un recipiente metálico cargado no se electrizaba, ni siquiera al tocar su base, lo que condujo a Priestley a especular con que, a semejanza de la gravedad, la fuerza eléctrica disminuyera con el cuadrado de la distancia.

Cavendish demostró este comportamiento, pero no publicó su trabajo, haciendo que el mérito se lo llevase C. Coulomb, hasta que Maxwell editase sus investigaciones en 1879.

También contribuyó con su concepto de “grado de electrización” asemejado a la presión del fluido eléctrico, probando con dos esferas de diferente tamaño conectadas que el reparto de carga era proporcional a los radios, con lo que la esfera menor aun teniendo menos carga tendría mayor densidad de carga, lo que era coherente con puntas como las de los pararrayos.

o Las ideas de Aepinus tuvieron poca influencia y las de Cavendish poco más, con un programa matemático ajeno a la metodología experimental aceptada.

Se sucedieron las experiencias con condensadores que ayudaron a adoptar sus ideas, como la famosa de A. Volta con una tarta aislante de resina que una vez electrizada parecía suministrar electricidad sin agotarse, lo que sólo podía explicarse por inducción: las atmósferas pasaron a considerarse zonas de influencia.

Una idea de Aepinus más difícil de aceptar fue la de la repulsión entre las partículas de la materia ordinaria, lo que condujo a que algunos como Symmer supusieran la existencia de dos fluidos, uno “más” y otro “menos”: las electricidades contrarías no se aniquilarían como había dicho Franklin sino se habrían anulado temporalmente, haciendo que esta teoría fuera indiscernible de la de Aepinus y una cuestión de elección.

A partir de 1740 la electricidad comenzó a medirse con electrómetros basados en la repulsión electrostática.

Page 17: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 17

o Se dieron así electrómetros como el de Nollet de dos hilos, el de Henley de un solo hilo, o el de Bennet de dos láminas, así como otro tipo de medidas como la de la mayor chispa o el número de vueltas para electrificar un cuerpo hasta un cierto grado.

o Los resultados de las diferentes medidas no eran comparables pero ayudaron a definir nuevas magnitudes:

El electrómetro medía la densidad o intensidad del fluido eléctrico, el grado de electrización en palabras de Cavendish, o la tensión en palabras de Volta como esfuerzo que cada punto de un cuerpo electrizado realiza para evacuar su propia electricidad.

La capacidad era la cantidad de fluido eléctrico que podía contener un cuerpo, relacionada con la cantidad de carga a través de la tensión (Q=CT).

o Para medir la fuerza eléctrica a distancia, por simplicidad y analogía, se tomó inicialmente como el producto de las masas eléctricas y el inverso del cuadrado de la distancia, empleando para ello balanzas sin obtener resultados concluyentes.

Aunque J. Robinson, al igual que hiciera Cavendish, manifestara haberla hallado, fue el ingeniero y académico francés C. Coulomb el que la dio a conocer en 1785.

o Coulomb empleó la balanza de torsión como instrumento de gran sensibilidad que había diseñado para mejorar la aguja magnética.

El momento de la fuerza de torsión sobre el hilo era μBD4/l (cte, ángulo de giro, diámetro y longitud) lo que le sirvió para emplear la balanza en el estudio del movimiento de cuerpos en el seno de un fluido, las propiedades elásticas de diversos materiales, así como la determinación de la fuerza magnética y eléctrica.

La fuerza de repulsión entre dos esferas quedó detectada como inversa al cuadrado de la distancia, y la de atracción, con más dificultades experimentales, la publicaría en 1787: ambas fuerzas eran, por analogía con la ley de gravitación, proporcionales a las densidades de fluido eléctrico

Demostró con un experimento similar al de Cavendish que la carga se distribuía en la superficie y aunó con él en el experimento cuantitativo refrendado por los datos, aunque fue prudente con la especulación: tomó la opción de los dos fluidos, por parecerle contradictorio que la materia tuviese fuerzas atractivas y repulsivas, pero reconoció que ambas teorías eran válidas e hipotéticas.

o Un último descubrimiento del XVIII que quedaría sin explicación fue el de la electricidad por contacto de L. Galvani:

Se había experimentado que una descarga directa sobre el cuerpo de un animal muerto, provocaba en éste convulsiones, como una rana y sus ancas.

Pero Galvani descubrió que estas convulsiones se producían también en ausencia de descarga: al poner en contacto la médula espinal con una plancha sobre la que estuviera recostada una rana, las convulsiones le hicieron pensar en la existencia de una electricidad animal regida por el cerebro a través del sistema nervioso y en la contracción entre músculo y nervio como la producida por dos armaduras de un condensador cargados con electricidades contrarias.

Volta halló que la fuente no estaba en la electricidad del animal sino en el contacto entre dos conductores diferentes: probando con diferentes materiales, entre los que comprobó

Page 18: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 18

que era necesario intercalar materiales húmedos, construyó su pila en 1800, como una botella de Leiden débil pero sin necesidad de ser cargada desde fuera.

19.2. El magnetismo

A pesar de contar con una trayectoria mayor, el magnetismo no gozó de especial atención en la primera mitad del XVIII

o Prevaleció la explicación cartesiana de la circulación vorticial de una materia sutil entre el norte y el sur: experimentos sencillos con limaduras de hierro entorno al imán confirmaban este flujo.

o Por otro lado los newtonianos que se limitaron a mencionar la existencia de un efluvio o virtud magnéticos eludiendo explicar su mecanismo.

Musschenbroek fue el primero en negar la teoría de la circulación, aunque no encontró alternativa:

o La interposición de materiales, salvo el hierro, parecía no afectar a este flujo.

o Erróneamente creyó medir que la fuerza de atracción y repulsión no eran las mismas, llegando al absurdo de que el fluido entrante por un polo fuera diferente del saliente por el otro.

Aepinus formuló una alternativa magnética, y de manera colateral acabó aludiendo a la electricidad:

o Su teoría es pareja a la de la electricidad: separando polos como separando cargas, el comportamiento magnético era un fluido sutil cuyas partes se repelen entre sí y atraídas por los materiales férreos lo dejan pasar dificultosamente a diferencia de otros fluidos.

o Cuando se imantan los hierros, el fluido se separa en su interior.

o Sin embargo había dificultades como el hecho de que la división de un imán no diera como cabría esperar dos monopolos sino dos imanes, lo que Aepinus trató de justificar en términos de balance de fuerzas y tendencia del fluido magnético a disiparse, sin entrar en la precisión cuantitativa necesaria sobre la fuerza magnética.

o La existencia de dos polos dificultaba la medición de sus efectos, aunque por analogía, se supuso que ambas fuerzas eran iguales y decrecientes con el cuadrado de la distancia, como propuso J. Michell aunque no llegó a publicarlo.

Coulomb fue quien gracias a su balanza de torsión logró medir la fuerza magnética

o Refutó tanto la teoría de la circulación como la teoría de Aepinus, negando las fuerzas repulsivas en la materia ordinaria así como evidenciando que la parte central de un imán no dejaba de comportarse como tal.

o Concluyó en que el fluido magnético actuaba por atracción o repulsión con una fuerza en proporción directa con la densidad de fluido e inversa con el cuadrado de la distancia, suponiendo indirectamente aquella proporción directa sin llegar a demostrarla.

o En su último trabajo expuso su teoría del magnetismo que consideraba a cada partícula del material contenía el fluido magnético, aunque podía trasladarse de uno a otro de sus extremos, de forma que al polarizarse, las partículas se alinearían resultando los efectos macroscópicos conocidos. Esta concepción prevalecería durante la primera parte del siglo XIX.

19.3. El calor y el nacimiento de la calorimetría

Las teorías de Boerhaave prevalecieron durante la mitad del XVIII aunque permanecieron ajenas al desarrollo experimental:

Page 19: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 19

o El principio de conservación del calor así como la distinción entre cantidad de calor y grado de ese calor (temperatura) eran esenciales para su desarrollo.

o Sin embargo, la teoría de Boerhaave contemplaba un fuego elemental metafísico cuyo efecto no era directo sino a través de la fuerza que constituía el calor, por lo que la conservación del fuego no implicaba la del calor, ni la proporcionalidad de éste con la intensidad medida por el termómetro.

o Desaguliers o Taylor partidarios de la concepción cinética de Newton emplearon el principio de conservación del movimiento.

Taylor descubrió experimentalmente la proporcionalidad entre la medida del termómetro y el aumento de calor (inherente a partes de agua caliente añadidas a agua fría).

G. W. Richmann propuso que el calor total de una masa dada sería como el producto de dicha masa por su temperatura.

o La proporcionalidad en las mezclas de una misma sustancia desaparecían al mezclar sustancias diferentes como el mercurio y el agua.

Aun sin tener resultados que con precisión le avalaran, Boerhaave consideró que el fuego se distribuía en los cuerpos según su volumen y no según su densidad como se creía.

G. Martine desmintió esta creencia observando que volúmenes iguales de agua y mercurio observaban tasas de calentamiento y enfriamiento diferentes (el mercurio era más sensible).

La escuela escocesa contribuyó decisiva aunque no únicamente al desarrollo del estudio sobre el calor.

o W. Cullen influido por Boerhaave otorgó al fuego un papel importante en las reacciones químicas (endo y exotérmicas)

Su teoría consideraba que cuando al combinar un sólido y un líquido se liberaba calor, se producía una condensación, mientras que la rarefacción lo requería.

La evaporación del alcohol enfriaba, aunque pensando en que se disolvía en el aire no era capaz de explicar por qué se evaporaba también en el vacío.

Tampoco era capaz de explicar por qué la mezcla de hielo y agua no situaba la temperatura de la mezcla en un valor intermedio.

o J. Black fue discípulo de Cullen y con sus experimentos llegó a importantes resultados:

El calor puede hallarse en cierto estado fijo asociado con los cambios de estado, lo que denominó calor latente.

Tanto la congelación como la fusión creían realizarse con un pequeño decremento o incremento del calor, aunque la experiencia mostraba otra cosa.

Este calor latente era el necesario para pasar de un estado a otro, liberándolo o consumiéndolo según el sentido del cambio de estado: el alcohol se evaporaba enfriando, la temperatura de la mezcla de hielo y agua no variaba hasta que aquel se derretía, y la temperatura del agua no se incrementaba a pesar de suministrar más calor mientras ésta estuviera en ebullición.

Page 20: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 20

Para medir el calor latente, experimentó con un horno del que comprobó su capacidad para suministrar uniformemente calor al agua, y calculó la cantidad de calor que el agua debería haber alcanzado en el horno en el tiempo en el que tardó en evaporarse, valor que confirmó que era constante aun en el vacío, entorno en el que experimentó con ayuda de su discípulo J. Robinson.

También introdujo otro concepto: el de la capacidad para el calor de las diferentes sustancias como una propiedad específica independiente de la densidad y el volumen, y que mide tanto la cantidad de calor que contienen a una temperatura dada como la cantidad de calor necesaria para alcanzar una temperatura.

Este concepto explicaría que el agua con mayor capacidad para el calor que el mercurio requiriese más calor que éste para aumentar su temperatura, y sería precedente del concepto actual de calor específico que en realidad sí es dependiente de la temperatura.

J. C. Wilcke descubrió el calor latente de fusión del agua de forma independiente a Black, dando también el nombre de calor específico a la capacidad para el calor de Black en analogía con el peso específico.

Black no defendió ninguna doctrina sobre la naturaleza del calor, aunque parece que se decantaba por la sustancialista más que por la cinética.

o W. Irvine, su sucesor tras Robinson, vinculó el calor latente y la capacidad para el calor suponiendo que ésta se alteraba en los cambios de estado.

Con esto pensaba que todos los cuerpos poseían una cantidad absoluta de calor, determinada por el producto su capacidad para el calor y la temperatura en grados absolutos, lo que proporcionaba un método para determinar el cero absoluto.

Sus ideas sin embargo se desecharon al no poder determinar unívocamente el cero absoluto por vía experimental y al comprobar que la capacidad para el calor depende de la temperatura.

o W. Cleghorn también encajó sus teorías con las de Black suponiendo que las partículas de fuego se repelían mutuamente y eran atraídas de diferente forma por la materia ordinaria, dando cuenta del flujo de calor de los cuerpos más calientes a los más fríos y de la diferente cantidad de fuego de dos cuerpos a la misma temperatura.

La gran elasticidad del aire experimentada por el barómetro y la máquina neumática, hizo que los filósofos naturales especularan sobre su constitución.

o Newton extendió este comportamiento elástico a toda la materia, dependiente del grado de cohesión entre partículas diferente en cada sustancia, y en el caso del aire, deduciendo la ley de Boyle a partir de la hipótesis de que las partículas del aire, además de a la gravitación, se hallaban sometidas a una fuerza de repulsión inversamente proporcional a su distancia.

o S. Hales estudió, basado en las fuerzas repulsivas newtonianas, el aire liberado tras haber estado fijo en las sustancias, y Desaguliers aplicó estas ideas al agua y su vapor, en el que se habrían incrementado estas fuerzas aumentando su elasticidad por calor, proceso que sería reversible. Ambos en cualquier caso mantuvieron el vínculo entre cambios de estado y calor desde posiciones cinéticas.

o Las posiciones sustancialistas y eclécticas también los vincularon, como la de A. R. J. Turgot que propuso que cualquier sustancia, en función de la temperatura, pudiera pasar por los tres estados de sólido, líquido y gas.

Page 21: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 21

Se apoyó en su concepto de expansibilidad como propiedad elástica de expandirse sin límites de las sustancias aeriformes.

Al no poder explicarla, separó la ebullición de la evaporación, explicando ésta en términos de disolución del agua en el aire, aunque esta explicación no pudiera cubrir la evaporación en el vacío.

o A. L. de Lavoisier se vio influido por estos en sus estudios sobre la combustión que provocaran la revolución química.

Su postura era sustancialista del fuego como fluido sutil capaz de permear de diferente forma los cuerpos, al estilo de Cleghorn.

Así, el estado de una sustancia dependía de la cantidad de fuego combinada con ella.

P. S. Laplace realizó con él varios experimentos con los que comprobaron que el peso de la atmósfera se oponía a la vaporización, realizándose ésta por absorción de fuego de los cuerpos circundantes.

Junto con Crawford, Magellan – que acuñaría independientemente de Wilcke el término calor específico – les dio a conocer los avances de la escuela escocesa lo que abrió una nueva etapa en las investigaciones de Laplace y Lavoisier.

En su obra culmen, no compartiendo ya su teoría sobre el calor, expusieron sus resultados sobre la conservación del calor, válido en la teoría cinética y la sustancialista, advirtiendo de las limitaciones habituales (pérdidas, mezclas entre sustancias de calor específico muy diferente, mezclas que provocan reacciones químicas,…) y mejoraron los procedimientos para determinar los calores específicos, como con el invento del calorímetro de hielo.

En 1787 se presentó públicamente el concepto propio de la corriente de Lavoisier del calórico de corte sustancialista, dentro de la nueva nomenclatura química que éste y sus colegas habían elaborado. El debate se extendería hasta la segunda década del XIX enfrentando las posiciones de Black y Lavoisier, que concebían un calórico fijo o latente en combinación química con los cuerpos, o las Irvine y Crawford que interpretaban el fenómeno como un cambio en su capacidad para el calor.

19.4. La física experimental y las matemáticas

La física experimental partía de la filosofía mecanicista guiada por la razón e inspirada en las matemáticas.

o Pero para aplicar las matemáticas, era preciso concebir y determinar primero las magnitudes implicadas, lo que podía ser más fácil en el caso de la presión y el volumen, heredados de la tradición hidrostática ya matematizada, pero no en el de la electricidad, el magnetismo o el calor.

o El termómetro, surgido mucho antes que el electrómetro, anduvo midiendo la temperatura sin saber muy bien qué significaba esta.

o En la electricidad y el magnetismo, las teorías de fluidos favorecieron encontrar sendos principios de conservación imprescindibles para su matematización.

o En el caso del calor, la introducción del calórico favoreció decisivamente el avance de la química, al concebirse como sustancia combinable con la materia ordinaria.

Page 22: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 22

Determinar magnitudes medibles implicaba desdeñar las demás circunstancias consideradas como factores perturbadores lo que para algunos como Nollet, Diderot o el conde de Buffon iba en detrimento del objetivo de la disciplina.

o La filosofía experimental se opone a la racional, como enfatiza Diderot, haciendo que ésta se detenga tras ponderar probabilidades, establecer analogías y pronunciarse, mientras que aquella prosigue incansable acumulando experiencias hasta que evidencia sus hallazgos.

Progresivamente se fue así dando un abandono de las causas, consolidándose una postura positivista término medio entre el hecho mismo y la explicación causal.

o Para este compromiso sirvió la teoría de los distintos fluidos sutiles que, con excepciones, se consolidó a partir del modelo de fluido elástico o éter newtoniano, sobre fuerzas repulsivas en una microfísica sobre la que se renunciaba a especular.

o Con el cambio de siglo los fluidos comenzaron a verse de forma instrumental, aunque antes hubo diferentes posturas que como las de Boscovich, Priestley o Cavendish tomaban por superfluos los éteres y se decantaban por las fuerzas.

o E incluso dentro de la tesis de los fluidos, los había como Volta que, procedentes de la tradición de la filosofía experimental, adoptaban un modelo microfísico cualitativo, con conexiones no matematizables, y los había como Coulomb que, procedentes de la tradición mecánica, acotaron la parcela al modelo matemático de los Principia proponiendo la búsqueda de relaciones matemáticas a nivel microfísico cuya integración explicase las relaciones matemáticas macroscópicas.

Page 23: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 23

20. TEMA XX: LAS MATEMÁTICAS MIXTAS: MECÁNICA Y ASTRONOMÍA

Conviene ver bien el tema, pero sin prestar demasiada atención a las expresiones matemáticas. En el caso de la mecánica, se trata de entender los conceptos. En el de la astronomía, de entender las líneas de trabajo.

20.1. La mecánica después de Newton

El siglo XVIII no fue el del simple desarrollo de la mecánica newtoniana:

o Leibniz había ejercido su influencia propugnando la divisibilidad al infinito de la materia y la continuidad de todos los cambios.

o Newton también había dejado algunos fundamentos sin aclarar (conceptos como los de inercia, masa o fuerza) y diversas lagunas sobre las que ampliar nuevas investigaciones (como el comportamiento de los cuerpos rígidos, los flexibles, los elásticos y los fluidos así como la mecánica celeste).

o Además, con el cambio de siglo, la mecánica pasó de ser geométrica a convertirse en analítica (algebraica) replanteando conceptos tan básicos como los de velocidad o aceleración.

Desde la concepción holista de Galileo, la velocidad había sido replanteada por Newton en términos geométricos de línea y superficie (espacio), y por Leibniz, que con su cálculo infinitesimal la había tomado como el factor proporcional entre los diferenciales de espacio y tiempo (dx = v · dt).

P. Varignon fue quien dio la verdadera trasposición entre geometría y análisis: rompió la vieja limitación de las razones entre magnitudes homogéneas, sustituyó las razones por cocientes, y concibió la variación infinitesimal de segundo orden (a diferencia de hoy, d/dt no se concebía como un operador, sino como un verdadero cociente descomponible como para definir la aceleración como d2x= a · dt2).

o Así, a mediados de siglo, la segunda ley de Newton adoptó la forma de dv = a · dt atribuyéndose, como hiciera el propio Newton, a Galileo, y sin que tuviera la relevancia ni la formulación actuales (sería Euler quien la expresaría de forma matemática), conviviendo con otros principios como los de cantidad de movimiento, conservación de la vis viva, la mínima acción, las velocidades virtuales, etc.

o También surgieron en este tránsito la aparición de constantes y unidades físicas, que no se determinaron hasta el XIX:

Las razones entre magnitudes no homogéneas (espacio y tiempo) en realidad se interpretaban así como razones de razones entre la magnitud y su propia unidad, haciéndolas posibles.

Las razones se sustituyeron así por cocientes y las proporciones por igualdades surgiendo las constantes de proporcionalidad como propiedades características de los cuerpos.

Además de la determinación de estas constantes, subsistió el problema de las unidades de medida, que sí afectaban ahora al álgebra, repercutiendo en sus fórmulas, y haciendo que resulten fórmulas sorprendentes como la de Euler sobre la velocidad, al tomar en su sistema de unidades g=1/2, siguiendo la fórmula de Galileo: v = (2gh)1/2

Page 24: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 24

Carnot consideraba que había dos formas de contemplar la dinámica, una como teoría de fuerzas (simple pero anclada en una noción metafísica oscura) y otra como teoría de los movimientos mismos (siguiendo así el hilo de Malebranche, Berkeley, D’Alembert y Hume, críticos con la causalidad material y las nociones físicas no observables).

o El debate sobre la medida de las fuerzas fue conocido como la polémica de las fuerzas vivas.

Descartes había entendido la cantidad de movimiento como el producto de su masa por la velocidad de carácter escalar, llevándole a formular leyes de intercambio deficientes.

Los estudios de Huygens, Wren y Wallis, mostraron que esa cantidad de movimiento sólo se conservaba si se atendía a la dirección y sentido de las velocidades (vectores).

Leibniz hizo notar esta circunstancia proponiendo medir la fuerza como mv2, interpretándola como la medida de la altura a la que podría elevarse un cuerpo (a partir de la ley galileana de caída) y advirtiendo que esta vis viva era la que se conservaba siempre.

o Su propuesta abrió una polémica que duró más de medio siglo, y que podría parecer como escribió D’Alembert cuestión de palabras, pero los contendientes enfrentaban dos concepciones distintas de la naturaleza de la materia complicadas por los problemas de fundamentos del nuevo análisis, el cálculo infinitesimal.

Descartes había estimado que los cuerpos eran perfectamente duros, sin sufrir deformaciones, y los atomistas añadían que sus átomos eran además irrompible.

Frente a ellos, Mariotte y Wallis criticaron la idea de que los cuerpos duros reboten, para lo que es preciso que sean elásticos, y así la polémica enfrentó las condiciones de dureza perfecta y perfecta elasticidad.

El choque de cuerpos duros implicaba contacto instantáneo, lo que no era problema para Descartes, que creía que Dios recreaba el mundo en cada instante, pero sí para Leibniz al vulnerarse el principio básico de continuidad que propugnaba, tomando la materia como perfectamente elástica e indefinidamente divisible, conservando siempre la vis viva, incluso cuando en los cuerpos blandos ésta se convertía en movimiento interno.

Los newtonianos, salvo ‘sGravesande, tomaron partido contra Leibniz, asegurando que no existía la “fuerza de un cuerpo” sino la acción que desaparecía en el cuerpo una vez finalizaba.

Otro punto culminante de la polémica se dio en el concurso de la Academia de Ciencias de París en torno al choque de cuerpos duros y elásticos que enfrentó al newtoniano McLaurin y al leibniziano Bernoulli, sin llegar a ningún acuerdo: al considerar el choque instantáneo en los cuerpos duros, la fuerza aplicada resultaba infinita e incomparable con la del choque elástico.

La polémica comenzó a agotarse a mediados de siglo, con la aceptación generalizada del principio de continuidad de Leibniz que hizo que la ley F=Δ(mv) se convirtiera en el choque instantáneo en F·Δt =Δ(mv), que en forma diferencial (F=m·dv/dt) constituiría la ley fundamental que Euler propondría, a la par que se asimilaba la concepción de fuerza newtoniana como extrínseca a los cuerpos: Boscovich demostraría por entonces que la integración de esta fuerza en el tiempo daría la cantidad de movimiento, y en el espacio la vis viva.

Page 25: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 25

Los atomistas no renunciarían a sus duros e irrompibles átomos pero los concebirían encerrados en partículas de composición superior que exhibirían elasticidad.

o Ante la problematicidad de la noción de fuerza, se dieron intentos de formular una mecánica sin fuerzas, como el intento de D’Alembert en cuya dinámica estrictamente matemática y de inspiración cartesiana excluía a las fuerzas por inobservables y se limitaba al análisis de efectos, haciéndola más bien una cinemática.

Distinguió así dos tipos de efectos: los producidos por los choques entre cuerpos (al que se orientó su estudio) y los producidos por la gravedad (que entendió a través de la fuerza aceleradora).

Se basó en tres leyes: la de inercia, pero no como fuerza innata; la regla del paralelogramo para la adición de velocidades; la de equilibrio, en el choque entre masas y velocidades.

Con esta tercera ley vinculaba dinámica y estática, deduciendo a partir de ella el principio de los trabajos virtuales: el movimiento de cuerpos conectados pueden calcularse como el movimiento que habrían seguido sin interferencias y el que es impedido por las conexiones.

El curso de disciplina dejó a un lado la mecánica de D’Alembert negando los cuerpos duros y admitiendo las fuerzas, aunque Lagrange reformularía su principio para resolver múltiples problemas.

o Por el contrario, autores como Boscovich o Kant veían en la fuerza una concepción básica.

Boscovich concibió la materia formada por puntos materiales inextensos que interactuarían entre sí con fuerzas variables con la distancia, aunque no entró a especular sobre sus causas.

Estos puntos estaban dotados de inercia, aunque no vinculada a la masa, la cual consiste simplemente en el número de puntos que componen el cuerpo, y que es siempre un número finito de puntos lo que hace que su volumen global sea nulo (la masa, en cualquier caso, sigue desempeñando su función en las fuerzas que son aceleraciones).

La impenetrabilidad de los cuerpos se explicaba como rápido crecimiento de las fuerzas de repulsión al decrecer la distancia, no llegando nunca a tocarse.

Preservó el principio de continuidad, componiendo las fuerzas atractivas y repulsivas de los diferentes fenómenos (impenetrabilidad, cohesión, vaporización, químicos, eléctricos, magnéticos, gravitatorios,…) sin solución de continuidad.

o Junto a los intentos por generalizar los principios de conservación de la cantidad de movimiento, de la vis viva, y el de los trabajos virtuales, Maupertius defendió el principio de mínima acción.

Apoyado en la demostración de la ley refracción de Fermat basada en el mínimo tiempo, generalizó la ley afirmando que los fenómenos naturales proceden por el camino más corto y el tiempo más breve.

Así definió la acción como el producto de la velocidad por el camino recorrido y poco después amplió este principio a la dinámica introduciendo la masa, y reconvirtiendo la acción mínima en el producto de la cantidad de movimiento por el espacio recorrido.

Este principio constituía para él una prueba a favor del argumento del diseño inteligente, aunque pronto se le objetó que la generalidad de su principio no era tal, al hallarse

Page 26: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 26

fenómenos en los que la acción no era mínima sino máxima, como en los problemas isoperimétricos: resistencia en mecánica de fluidos (Newton), curva braquistócrona, etc.

Euler, no obstante, había aplicado de forma independiente el principio para el movimiento planetario obteniendo resultados coherentes con las fuerzas centrales.

Newton dejó abiertas una serie de áreas de investigación como la de los cuerpos rígidos, deformables y elásticos que no abordó, o la mecánica de fluidos y la gravitación para más de un cuerpo.

o Junto con sus tres leyes, otras (como el principio de conservación de la cantidad de movimiento, de la vis viva, de los trabajos virtuales y de mínima acción) se fueron refinando y extendiendo a los diferentes campos.

o La intención fue la de sistematizar y simplificar los principios generales, en las que destacaron las aportaciones de Euler y Lagrange.

o Euler sentó como principio la expresión dv=a·dt, que extendió a la mecánica celeste y lo transformó en f=m·a elevándolo a principio general de la mecánica.

También introdujo el concepto de centro de masas o de inercia, menos restringido que el del centro de gravedad.

Descompuso el movimiento de un sólido en el de su centro de masas provocado por las fuerzas aplicadas a él y el de rotación alrededor de un eje variable que lo atraviesa.

También trató de reformular la mecánica bajo la inspiración cartesiana, cuyo hincapié en principios ciertos y evidentes sobrevivió a su filosofía natural.

Aceptó la noción de fuerza a diferencia de D’Alembert a partir de la idea de impenetrabilidad junto con la idea de inercia como propiedad esencial de los cuerpos, siendo la masa la cantidad de esta inercia, de lo que se deduce que Euler no aceptaba la existencia de fuerzas a distancia, sino sólo por contacto.

o Lagrange buscaba la sistematización de la mecánica como una rama del análisis a partir del principio de trabajos virtuales, de forma diferente a como lo hiciera D’Alembert.

Supuesto un sistema de cuerpos conectados sometidos a una fuerza, el movimiento de estos es equivalente al que habrían tenido si libremente se hubiesen movido a la vez que recibían determinadas fuerzas.

Estas fuerzas, cambiadas de signo junto con las aplicadas originalmente forman un equilibrio a partir del cual, junto con las ligaduras, puede deducirse el movimiento del conjunto.

Este proceso hizo que la mecánica abriese su la rama conocida como mecánica analítica, sin reemplazar a la formulación euleriana.

Por su parte, el desarrollo de la mecánica de fluidos era importante porque todo movimiento sobre la superficie terrestre se da en un medio distinto del vacío para el que se habían calculado las ecuaciones de la mecánica.

o Se dieron así dos líneas de investigación, la de los problemas de descarga (fluidos a través de orificios o canales) y la de los problemas de resistencia (de un fluido al paso de un cuerpo y viceversa).

o Se consideraron dos tipos de fluidos: los incompresibles (como el agua y el mercurio, considerados como continuos y viscosos, aunque en los modelos matemáticos se despreciaba el

Page 27: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 27

rozamiento de sus partículas entre sí) y los elásticos (como el aire, estimando que sus partículas se repelían o hallaban en rápido movimiento).

o La línea de investigación del problema de la descarga resultó ser la más fructífera:

Arrancó con la ley de Torricelli relativa la velocidad de salida del agua saliente por el orificio practicado en un recipiente equivalente a la que tendría un cuerpo en caída libre desde la altura de la superficie del recipiente.

Dependiendo de factores como la forma del orificio y del recipiente, los resultados experimentales fueron dispares, pero se interpretó que la velocidad era como la raíz cuadrada de la altura, algo menor a la profundidad real del orificio.

Newton atribuyó tales discrepancias a la contracción que se produce en la vena líquida al salir por el agujero.

o Daniel y Johann Bernoulli, hijo y padre, dieron los siguientes pasos:

D. Bernoulli partió de la conservación de las fuerzas vivas en el movimiento de un fluido incompresible, considerando que la velocidad del movimiento del fluido se podía aproximar como uniforme a lo largo de una sección plana perpendicular a su dirección, y estableciendo así que la velocidad era inversamente proporcional a la sección del tubo (conocido como principio de continuidad), así como el teorema de Bernoulli que establece la relación entre la presión (fuerza ejercida sobre las paredes) y la velocidad del fluido.

J. Bernoulli partió de la dinámica de Newton introduciendo el concepto de fuerza interna estimando que cada capa perpendicular a la dirección del movimiento tenía un espesor infinitesimal, aislándola del resto, y estimando que sufría de ese entorno dicha fuerza como acción externa a la que aplicar las leyes de Newton con las que alcanzó el mismo teorema que su hijo.

o Euler sería quien sistematizaría la mecánica de fluidos una década después:

Empleó la segunda ley de Newton en forma diferencial y expresó la presión como fuerza por unidad de superficie (a diferencia de la fuerza total que J. Bernoulli había tenido en cuenta sobre toda la superficie del elemento de fluido).

Así, la hidrostática y la hidrodinámica se redujeron a un conjunto de ecuaciones diferenciales de aplicación general, con el antecedente de D’Alembert, aunque sólo pudiesen resolverse en pocos casos sencillos.

o La otra gran línea de investigación sobre los problemas de la resistencia venían desde antiguo

Salvando alguna consideración de Galileo, las indagaciones de Huygens y Mariotte serían las que profundizarían en ella en el siglo XVII: Huygens estaba interesado en los proyectiles y Mariotte en las máquinas hidráulicas, y por experimentos diversos ambos señalaron que la resistencia de un fluido al movimiento era como el cuadrado de la velocidad (tantas más partículas del fluido chocarían y lo harían a tantas veces más de velocidad).

Newton presentó formalmente la teoría del impacto basado en su modelo de aire compuesto de partículas que se repelían con una fuerza inversa con la distancia, y que explicaba la ley de Boyle: al resultar intratable el problema, supuso que para velocidades altas las interacciones entre partículas eran despreciables, y así la resistencia resultaba proporcional al cuadrado de la velocidad (la fuerza de resistencia es proporcional a la

Page 28: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 28

cantidad de movimiento de las partículas que impactan, y por tanto a la velocidad, aunque de forma diferente según la forma del cuerpo que atraviesa el fluido).

B. Robins estudió los proyectiles a velocidades altas comprobando que la ley de Galileo ya no era tan buena y las trayectorias no se aproximaban tanto al trazado parabólico, desarrollando el péndulo balístico, con el que además estudió el caso en el que, al paso del proyectil, en el fluido queda un vacío que aumentaría la resistencia tres veces más del valor previsto por Newton. Su sistema sería matematizado por Euler.

J. C. Borda confirmó con sus experiencias que la ley del cuadrado de la velocidad se cumplía con gran aproximación pero desmintió la teoría del impacto newtoniana en dos consecuencias: que la resistencia creciera linealmente con la superficie, y que la resistencia oblicua fuera proporcional al cuadrado del seno del ángulo de incidencia, contradiciendo la idea de que la resistencia fuera la suma de resistencias de cada parte. También señaló que la ley de conservación de fuerzas vivas de D. Bernoulli en el caso de un cambio brusco de sección no se cumplía, asimilándolo al impacto entre cuerpos duros con pérdida de fuerza viva, anticipando el teorema de L. Carnot.

o Con el cálculo diferencial, la teoría del impacto se desarrolló siguiendo las líneas esbozadas por Newton:

Se dividió diferencialmente la superficie del cuerpo y el choque de las partículas del fluido se consideró proporcional a la densidad del medio, al cuadrado de la velocidad y a la superficie infinitesimal implicada, integrándose a toda la superficie frontal del cuerpo.

Pero el modelo predecía una zona de sombra tras del cuerpo en la que no se produciría ningún efecto, o que las capas que chocaban contra el cuerpo no ejercían ningún efecto sobre las capas contiguas, en contra de la observación que contemplaba que el fluido se contorneaba al cuerpo.

Se desarrolló así el modelo currentilíneo, en el que las partes de fluido siguen corrientes continuas y estacionarias, estudiándose las fuerzas sufridas por una partícula de fluido que siguiera dicha trayectoria con lo que se obtenía la presión ejercida sobre el cuerpo.

Surgió dentro de este modelo la famosa paradoja de D’Alemebert según la cual un cuerpo simétrico respecto de un eje coincidente con la dirección del movimiento experimentaría teóricamente una resistencia nula, porque las acciones sobre su mitad anterior resultarían iguales y opuestas a las de su mitad posterior.

También D’Alembert introduciría el concepto de campo fluido definiendo dos funciones para representar las componentes de su velocidad abriendo el camino a la sistematización de Euler que fundiría ambas líneas de investigación.

Al surgimiento de la física exacta se sumó la transformación de la ingeniería empírica a la ingeniería racional, aunque la diferencia entre científico e ingeniero o la consideración de la ingeniería como ciencia aplicada andaban aún distantes a las de hoy:

o Una cuestión a la que se prestó mucha atención fue a la de la construcción naval, tradicionalmente gobernada por las reglas empíricas.

Su objetivo era el de maximizar la fuerza de impulsión de las velas, y minimizar la resistencia del casco en el mar, complicando el escenario los diversos movimientos de oscilación y la intervención del timón.

Page 29: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 29

En este campo destacaron los trabajos de J. Bernoulli, P. Bouguer, Euler y el español J. J. Santacilia.

o La figura que mejor representa el nuevo talante indagador surgido de la ingeniería es Coulomb, formado en la escuela de ingenieros militares y luego miembro de la Academia de Ciencias: su trabajo aunó teoría y experimento cuantitativo, abordando cuestiones en electricidad, arquitectura, torsión de hilos, rozamiento, etc.

o Lazare Carnot fue otro ingeniero que destacó en mecánica afirmando su carácter experimental, y considerando que las fuerzas continuas se comportaban como una sucesión de choques infinitesimales de cuerpos duros: formuló el teorema que lleva su nombre según el cual en el impacto de cuerpos duros la pérdida total de fuerza viva es igual a la suma de fuerzas vivas debidas a las velocidades perdidas en el choque, lo que con sus movimientos geométricos le ligó también a ser antecesor de la mecánica de Lagrange basada en velocidades virtuales que sólo dependen de las condiciones de ligadura.

20.2. La astronomía

La ley de gravitación universal reveló que en la mecánica celeste, en cuanto intervenían tres o más cuerpos, los movimientos dejan de obedecer la ley de áreas y las órbitas fijas y elípticas, haciendo que la tarea no resultase fácil y empeñando a los mejores matemáticos en el desarrollo de la mecánica celeste.

o La contrastación empírica de las predicciones teóricas requirió de la mejora sustancial en la precisión de las medidas, que tomando a Tycho con su 1’ como referente, fue mejorándose hasta los 10’’ de Flamsteed y el 1’’ a finales del siglo XVIII.

o También se mejoró la teoría acerca de los propios instrumentos de medida, sus errores, el posicionamiento y alineamiento con el meridiano (calado), la toma de medias ponderadas,… hasta culminar a principios del XIX con el método de los mínimos cuadrados de A. M. Legendre.

o El aumento de observatorios y de medios de publicación e intercambio de descubrimientos favorecieron los avances en la astronomía de observación.

o Una empresa colectiva fue la de medir la paralaje solar: el fenómeno fue observado desde multitud de lugares desde la Tierra entre los años 1761 y 1769 con los tránsitos de Venus. Gracias a esta medida, estimada entre 8’’ y 9’’, podía calcularse la distancia entre la Tierra y el Sol que servía de unidad para, con la tercera ley de Kepler, calcular el resto de distancias.

La astronomía de la época estuvo dominada por dos programas de trabajo: el cartográfico-geodésico y el náutico, liderados por la actividad de los observatorios y astrónomos de París y Greenwich.

o La dinastía de los Cassini en París estuvo ocupada con la elaboración de la carta de Francia y el sistema métrico decimal, mientras que los astrónomos ingleses se empeñaron en mejorar los datos astronómicos para determinar la longitud en el mar, que en el XVIII se resolvió con el método de las distancias lunares con el que podía determinarse la longitud en función de la posición lunar barriendo el Zodíaco a través del sextante, introducido bajo la forma de octante, por J. Hadley, y consultando tablas previamente determinadas para un meridiano de referencia.

o Flamsteed renovó el fondo de observaciones, elaborando un catálogo de estrellas que tendría vigor durante un siglo, y sería reforzado por la mejora en el estudio del movimiento lunar (Halley) así como el estudio de la influencia de los movimientos de nuestro planeta en las medidas (Bradley).

Page 30: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 30

o Las observaciones de los astrónomos de Greenwich no se publicaron con presteza, lo que hizo que el problema de la longitud se acabara resolviendo por las tablas de T. Mayer en Gotinga, apoyado en los estudios teóricos de Euler, y que pasaron a la náutica británica de manos del astrónomo N. Masleyline.

o En la última parte del siglo, y gracias a la construcción de grandes telescopios, F. W. Herschel descubrió Urano y abrió una etapa de exploración sistemática del contexto estelar como historia natural de los cielos, poco vinculada con las matemáticas mixtas o la astronomía física, aunque indudablemente constituyente de la disciplina astronómica.

La polémica sobre la figura de la Tierra arranca con Huygens que había hallado que el período de un péndulo es proporcional a la raíz cuadrada de su longitud en cualquier parte (l/g)½; pero Richer experimentó en Cayena, cerca del ecuador, que era preciso reducir esa longitud para el mismo período:

o Newton dio una explicación a esta variación, otorgando a la Tierra una figura de elipsoide achatado por los polos

Lo razonó a partir de la impuesta condición de equilibrio que habrían de mantener dos canales, uno desde el polo norte al centro de la Tierra y otro desde éste a cualquier punto del Ecuador

Al hallarse sometido éste a la acción centrífuga en torno al eje, debería ser más largo: de esta forma se corroboraba que la gravedad fuera más leve en el Ecuador, y exigía que la longitud el péndulo fuera también menor para mantener el período.

o Huygens partió de la condición de que todo punto sobre la superficie de la Tierra ha de hallarse en reposo, coincidiendo con Newton en el achatamiento de los polos, aunque discrepó de él en el valor de dicho achatamiento.

o Las medidas sobre el terreno fueron impulsadas por el ministro Colbert en Francia: Picard midió un arco sobre el meridiano de París con instrumentos con una precisión sin precedentes (auténtica revolución en la observación astronómica) que los Cassini extenderían y cuyos resultados revelaban una figura de la Tierra achatada no por los polos sino por el Ecuador.

o Mairan dio su apoyo a las conclusiones de los Cassini, tratando de demostrar que un esferoide achatado por el Ecuador en rotación mantendría su forma, fiel al positivismo francés que daba fe a las mediciones de sus compatriotas, mientras que otros como Poleni, Desaguliers, o Maupertius dudaban de la precisión de esas asombrosas medidas cuestionando la demostración de Mairan.

o A esta controversia, que se ha dicho oponía a newtonianos y cartesianos, ingleses y franceses, teóricos y experimentalistas, caben ciertos matices:

Los cartesianos trabajaron duro para intentar reconciliar con sus teorías de vórtices la experimentada ley de Newton

Las diferentes teorías conducían a distintas figuras y valores según las hipótesis.

Las medidas empíricas también se contradecían pues si las medidas geodésicas apoyaban un achatamiento por el Ecuador, las medidas con péndulos apoyaban uno polar.

o La Academia de París organizó dos expediciones a Laponia y Ecuador para resolver la cuestión.

En la primera participaron, entre otros, Maupertius y Clairaut, y confirmó el achatamiento polar.

Page 31: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 31

En la segunda participaron, entre otros, Godin, La Condamine, Bouguer, Santacilia y De Ulloa, y tardaron más en regresar por diferentes disensiones entre ellos y dudas sobre las complicaciones de la medición (gravedad por las montañas, refracción a la altitud de los Andes…), pero finalmente confirmaron los resultados de Laponia.

o Nuevas medidas como la del cabo de Buena Esperanza (Lacaille) y la de los Estados Pontificios (Maire y Boscovich) confirmaron el achatamiento, aunque con diferentes valores entre 1/132 y 1/303.

o Este problema dio lugar a un importante trabajo de hidrostática de A. C. Clairaut.

Bouguer había mostrado que las condiciones impuestas por Huygens y Newton eran necesarias pero no equivalentes.

Clairaut encontró la condición de equilibrio de que en un fluido con canales de cualquier forma los esfuerzos en todas sus partes deben cancelarse, tanto en reposo como girando, aunque la figura adoptada fuese distinta.

Así acabó suponiendo que la Tierra tenía una figura compuesta por estratos de densidad creciente con la profundidad, teoría que desarrollarían D’Alembert, Laplace y Legendre.

o La serie de mediciones se prolongó durante casi dos siglos más a través de las redes geodésicas nacionales, con la significativa medida de Delambre y Méchain del meridiano entre Dunkerque y Barcelona, extendido después a Baleares con cuyo resultado la Academia Nacional francesa decretó la unidad de medida, el metro, como la diezmillonésima parte de un cuadrante de meridiano terrestre, fijándose la elipticidad de la Tierra en 1/334, que sería revisada por Delambre a 1/309 y adoptada en 1964 como 1/298,24 por la UAI.

El mecanismo del Sistema Solar se complicaba cuando, con la ley de Newton, las trayectorias de los planetas afectaban a las de los demás.

o Se daban así dos movimientos perturbados especialmente conspicuos: el problema de la teoría lunar, afectada por el Sol, y el problema de la teoría planetaria, afectada especialmente por planetas como Saturno y Júpiter, muy masivos.

o El problema era matemático porque las ecuaciones diferenciales no podían resolverse con un valor exacto sino por aproximaciones, con funciones trigonométricas y desarrollos en serie que sólo a partir de 1740 estuvieron listos para desarrollar la mecánica celeste.

o En la teoría lunar, un problema era el del giro de la línea de ápsides (entre apogeo y perigeo), de 3º por revolución y período de 8,85 años, que Euler, Clairaut y D’Alembert – como le hubiera ocurrido a Newton – calcularon como la mitad del observado.

Euler afín a las interacciones por contacto estimó que en un escenario perturbado la ley del inverso del cuadrado no tenía por qué cumplirse exactamente.

Clairaut abogó por modificar la ley introduciendo un componente inverso con el cubo de la distancia, relevante para las distancias cortas entre la Tierra y la Luna, lo que no era tan extraño tras las tentativas que el mismo Newton había planteado a nivel microfísico.

o La sugerencia de Clairaut motivó una polémica con Leclerc, conde de Buffon, que defendía la simplicidad de las leyes físicas, y estimaba que esa ley expresaría la acción de dos fuerzas; pero el debate quedó zanjado cuando Clairaut revisó sus cálculos confirmando de nuevo a Newton.

Page 32: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 32

o Clairaut también empleó la teoría de las perturbaciones para calcular el retorno del cometa Halley, que el propio Halley había estimado que recorría una elipse alargada de período de 75 años, algo variable debido al efecto de Júpiter: los cálculos de Clairaut le hicieron erraren tan sólo un mes, confirmando de nuevo la ley de gravitación con su observación en 1759.

o El estudio de los movimientos perturbados de Júpiter y Saturno fue promovido por la Academia francesa con premios de los que Euler obtuvo el primer y el tercer puesto, quedando el segundo desierto, al introducir el método de la variación de las constantes, aplicado para la resolución de sistemas de ecuaciones diferenciales, calculando las órbitas con las ecuaciones constantes, una vez fueran conocidas las variaciones de dichas constantes en el tiempo por las perturbaciones.

o Heredaron y profundizaron en estos problemas Lagrange (con sus procedimientos de mecánica analítica) y Laplace con su influyente Tratado de mecánica celeste que sentaría las bases del desarrollo de la disciplina en el XIX.

o Las perturbaciones podían ser periódicas o seculares.

Las primeras retornan en cierto período a la configuración inicial, repitiéndose cíclicamente, mientras que las seculares son independientes de la configuración y al principio no parecieron ser periódicas sino acumulativas.

Halley, de hecho, había medido la aceleración secular de la Luna, y el estudio de su causa quedó desierto en diferentes concursos planteados por la Academia hasta que Euler y su hijo J. Alrbrecht concluyeron que la aceleración secular no se podía explicar por interacciones gravitatorias.

Finalmente Laplace encontró que la aceleración se debía a una disminución secular de la excentricidad de la órbita de la Tierra, mostrando que el fenómeno se invertiría a los 24.000 años, aunque hasta el XIX no se encontraría la otra parte del efecto: la acción retardatoria de la fricción de las mareas sobre el movimiento de rotación.

o Estas perturbaciones seculares cuestionaban la estabilidad del Sistema Solar

Lagrange llegó a demostrar que atendiendo a la acción gravitatoria, todas las perturbaciones seculares eran acotadas y periódicas.

El problema de las perturbaciones de Júpiter y Saturno no estaba resuelto, y Halley había observado que el primero aceleraba mientras que el segundo retardaba.

Finalmente Laplace acabó resolviendo que este efecto tenía un período cercano a los 850 años, así como demostrando que las excentricidades e inclinaciones no estaban sometidas a movimientos seculares por lo que en un cierto orden de aproximación se garantizaba la estabilidad del Sistema Solar.

En lo referente a la precisión astronómica, T. Brahe y J. Hevelius habían llevado al extremo las posibilidades del utillaje tradicional (20’’).

o El anteojo supuso un cambio revolucionario, aunque no se empleó para sustituir a las alidadas con pínulas hasta que fue modificado por Kepler para que contase con una cruz filar que precisase la visual, a partir de lo cual comenzaron a mejorarse los instrumentos con la introducción de las miras telescópicas.

o Picard y sus colaboradores fueron pioneros en aplicar las miras telescópicas para medir el arco de meridiano en territorio francés, mientras que Flamsteed en Inglaterra, tras varios intentos, consiguió construir un cuadrante mural con sensibilidad de 5’’ (y error de hasta 15’’).

Page 33: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 33

o La escuela de mecánicos de precisión ingleses, enraizada en la tradición relojera, fue mejorando la precisión de estos sectores murales, como hiciera el taller de T. Tompion, o G. Graham que realizó notables avances:

En cronometría mejoró mecanismos de escape y diseñó el primer mecanismo para compensar los efectos de dilatación por temperatura de los relojes de péndulo astronómicos.

También construyó un cuadrante mural que reemplazó al existente en Greenwich que había construido Sharp y que usó Halley, así como sectores cenitales para Molyneux y Bradley: su precisión posibilitó que éste descubriera la aberración de la luz y la nutación del eje de rotación terrestre.

o Hasta 1838 no se observaría la paralaje estelar que constituía prueba decisiva para el sistema copernicano, de manos de Bessel y con un valor de 0,3’’ que explicaba haber resultado durante tanto tiempo inapreciable.

Pero R. Hooke creyó haberla detectado observando la variación de una estrella muy próxima al zenit, donde se minimizaban los efectos de refracción atmosférica.

Molyneux y Bradley continuaron las medidas, hallando que la estrella recorría en un año una pequeña elipse de 40’’ de eje mayor, que no podía atribuirse a la paralaje, concluyendo en que el efecto se debía por la aberración de la luz, composición del movimiento terrestre con el de la luz de la estrella.

Pero los cálculos de la aberración no concordaban con los observados, con desviaciones de un período de unos 18 años siguiendo las posiciones del nodo de la Luna: se trataba del movimiento de nutación, perpendicular al de aberración, que junto con el de precesión, hace que el eje terrestre describa una trayectoria sinuosa alrededor del polo medio de la eclíptica. El estudio teórico de la nutación lo haría D’Alembert.

o J. Bird se formó con Graham y su ayudante Sisson, y llegó a mejorar la precisión hasta 1’’, aunque los errores en la división del limbo no eran los únicos:

También la correcta alineación con el meridiano, suspendida de un muro, era difícil de regular, por lo que con el tiempo los círculos murales fueron sustituidos por anteojos meridianos, empleados sólo cuando fueron fijados con firmeza por los constructores, tras el estudio de errores de T. Mayer.

Los procedimientos de Bird fueron imitados por otros, y la forma del cuarto de círculo se transformó en un círculo completo usado en combinación con el anteojo meridiano, reduciendo los errores hasta el extremo del construido por J. Ramsden a finales del XVIII en Palermo que requería una lectura microscópica que apreciaba las décimas de segundo de arco.

o Los anteojos (telescopio refractor) y telescopios (telescopio reflector) eran piezas indispensables en los observatorios, pero los primeros modelos de anteojos presentaban dos importantes deficiencias: la aberración cromática y la aberración esférica:

Huygens observó que las lentes cóncavas y convexas podía compensar sus opuestas aberraciones esféricas, abriendo el camino a la corrección de este efecto.

Newton había llegado erróneamente a la conclusión de que todos los medios que la luz atravesaba tenían el mismo poder dispersivo lo que impedía corregir la aberración cromática con otra lente, por lo que se ensayaron los telescopios reflectores: Así, a la

Page 34: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 34

lente se la sustituía por un espejo parabólico que era preciso alinear y pulir adecuadamente, como hicieran Herschel o Short.

Sería J. Dollond quien presentaría un anteojo acromático asociando dos tipos de vidrio, el crown y el flint, que asociados con los micrómetros permitían medir diámetros planetarios y pequeñas distancias angulares.

La atención de los astrónomos del XVIII se centró en el Sistema Solar, con referencias a las estrellas fijas más bien para delimitar los movimientos terrestres y planetarios, pero rotas las esferas aristotélicas el indefinido universo en el que se dispersaban las estrellas resultaba una incógnita:

o Los cartesianos quisieron contener las estrellas tradicionalmente fijas con vórtices de éter sujetos a su vez por los vórtices vecinos, mientras que Newton probó con la gravitación pensando en un primer momento que su alejada distancia les impedía ejercer influencia apreciable sobre el Sistema Solar, en cuyo caso los planetas habrían girado la línea de ápsides de sus trayectorias.

o El teólogo R. Bentley se dirigió a Newton para pedirle argumentos en contra de un atomismo de corte epicúreo que sugiriese un origen del cosmos a partir del azar:

Newton pensó que la materia uniformemente repartida se condensaría por fuerza gravitatoria en grandes masas – las estrellas.

Su situación de equilibrio estático se debería a que como el campo gravitatorio es nulo en el interior de un estrato esférico, Newton supuso, en torno a cada estrella, una sucesión de estratos adscribiendo a cada uno una estrella equidistante de las demás, lo que aproximaría la distribución uniforme de materia que mantendría el equilibrio.

o Pero la evidencia de la observación de la distancia entre estrellas, especialmente en el caso de la Vía Láctea le hizo dejar la idea en un manuscrito que sólo Halley publicaría discutiendo sobre la llamada paradoja de Olbers (quien en 1823 lo reformularía):

Un universo infinito, con un número infinito de estrellas uniformemente distribuidas, haría que en cualquier línea visual se acabase viendo la superficie de una estrella, porque el brillo observado es independiente de la distancia a la que esté, el área aparente de una estrella disminuye con el cuadrado de la distancia y el número de estrellas esperado aumenta con el cuadrado de la distancia. Así, cada punto en el cielo debería ser tan brillante como la superficie de una estrella, revelando un cielo brillante contrario a la experiencia del cielo nocturno.

Halley argumentó que siendo la luz corpuscular no podría dividirse al infinito, y Loys de Chéseaux adujo la existencia de cierta extinción interestelar: un fluido universal absorbería una porción de la luz.

o Al principio se consideraba que el Universo era una multiplicidad de estrellas independientes entre sí, pero las observaciones de Halley que evidenciaban movimientos en ciertas estrellas primero condujo a interpretarlas como oscilaciones en torno a su equilibrio y luego a considerarlas indicio de vínculo gravitacional más allá del Sistema Solar.

T. Wright creía en la existencia de un centro divino respecto del cual la Creación habría de ser simétrica, considerando que el Sol y el resto de estrellas giraba en torno a ese centro en un estrato que observado tangencialmente explicaría la densidad en el cielo de la Vía Láctea, llenando el Universo de galaxias sin conexión para no subordinar sus centros divinos.

Page 35: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 35

Lambert sí llegó a subordinar estos cuerpos masivos y opacos estableciendo una jerarquía de rotaciones en torno a ellos.

Kant también perfiló la idea de Galaxia como conjunto de estrellas girando en torno a su centro de masas de acuerdo con los principios de Newton, incluyendo una hipótesis sobre la formación del Sistema Solar como condensación de una nube de gas: la hipótesis nebular – que Laplace difundiría más adelante – y que estimaba que las perturbaciones acabarían aniquilando las galaxias para volver a formarlas en virtud de las mismas leyes que provocaron su creación, en un universo cíclico.

o Herschel convirtió estas especulaciones en un programa de exploración sistemático: destacó en la construcción de telescopios de reflexión con espejos de diámetro cada vez mayor que le permitieron profundizar en el espacio hasta descubrir el planeta Urano al que tomó inicialmente por un cometa.

Realizó cuatro repasos completos al cielo visible, encontrando a Urano en el segundo de ellos, construyendo para ello un telescopio de 40 pies que por inmanejable renunció a usarlo por otro de 20 pies que superaba en cualquier caso a cualquier otro existente.

Su propósito era el de conocer la construcción de los cielos, para lo que necesitaba explorarlo en profundidad estimando las distancias entre las estrellas, y de entre ellas, la más obvia de la paralaje.

Galileo había propuesto estimarla observando estrellas dobles de diferente luminosidad suponiendo que la más brillante fuera la más próxima y la que mostrase la paralaje respecto de la otra, y a partir de ello, Herschel publicó 848 casos de estrellas dobles.

J. Michell señaló que los pares de estrellas próximas eran más habituales de lo que cabría esperar en una distribución uniforme, por lo que sugirió el posible vínculo gravitatorio entre cada pareja, lo que no gustó a Herschel pues él había partido de suponer que el diferente brillo de ambas se daba sólo por la distancia y no por una característica intrínseca a cada estrella, aunque acabó confirmando varios casos de giros de la línea imaginaria que uniría a ambas estrellas.

El problema es que estos movimientos entre estrellas también podían producirse por el movimiento de todo el Sistema Solar, del Sol moviéndose hacia un punto del firmamento – el ápex – que T. Mayer intentó calcular sin éxito, y que Herschel estimó hacia un punto de la constelación de Hércules, no muy alejado de la estimación actual.

Herschel presentó un mapa de la Vía Láctea dividido en sectores suponiendo que con su telescopio podía alcanzar las estrellas más remotas de la Galaxia, y que éstas estaban distribuidas uniformemente por lo que su densidad aparente constituía una medida de la profundidad del sistema estelar: Como sus hipótesis no eran correctas, el resultado no fue muy bueno, aunque halló una forma achatada de la Galaxia, y en cualquier caso mostró las posibilidades de la estadística estelar.

C. Messier buscador de cometas había catalogado un centenar de estrellas nebulosas para no confundirlas con cometas, que sirven hoy para identificar a estos objetos con el número de Messier. Herschel llegó a localizar dos mil quinientas, resolviendo la mayoría de ellas en cúmulos de estrellas, aunque acabó reconociendo la existencia de verdaderas nebulosidades, como la de la Nube de Orión, que estimó que bajo la acción gravitatoria se condensaría formando estrellas.

Page 36: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 36

21. TEMA XXI: LA REVOLUCIÓN QUÍMICA

No perder mucho tiempo con las fórmulas de los compuestos químicos. Lo importante son los problemas y los conceptos.

21.1. Desarrollos pre-revolucionarios

Boyle, Hartsoecker y Lémery habían consolidado a principios del XVIII una química mecanicista, bajo la conjetura de estimar las reacciones microfísicas a partir de una materia homogénea y universal de diferente tamaño y forma (lo que mantenía la explicación de ácidos pinchudos y álcalis porosas de Lémery).

o Frente a la esterilidad para el progreso de estos, la doctrina de Stahl supuso el retorno a las especies químicas de materia, lo que no contrariaba necesariamente el atomismo: la química empíricamente trataría con agregados de indivisibles átomos que nunca se encuentran aisladas.

o Así, como señaló Venel, la química del XVIII era composicional basada en el análisis (descubrimiento) y la síntesis (prueba), pero era una ciencia joven que requería organizar los datos de la experiencia antes de formar sistemas, definir qué medir antes de aplicar métodos cuantitativos.

El stahlismo francés agrupó a varios químicos franceses que convergieron en la química de Lémery, las ideas de Stahl y los trabajos pneumáticos de S. Hales

o Sus experimentos lo habían conducido a medir y recoger en sus campanas, dentro de su elástica concepción newtoniana, los volúmenes de aire resultantes de diferentes reacciones químicas que por fermentación o destilación lo emanaban: Boyle, Hooke y otros ya los habían detectado, pero el legado de Hales fue la idea de que el aire podía hallarse en un estado fijo en una cantidad de cuerpos de los que se podía liberar.

o Stahl había postulado sólo dos elementos, el agua y la tierra, y al ser traducida por Buffon la obra de Hales, Rouelle y sus discípulos reformaron sus tesis admitiendo el fuego y el aire como elementos y no sólo como instrumentos del cambio, considerando a éste fijo a las sustancias por combinación química con ellas, todo cual fue difundido por Venel, Macquer y Baumé.

o Análogamente a como Stahl hablase de mixtión (química) y agregación (mecánica), los franceses distinguieron entre partes integrantes (mínimo químico ~moléculas) unidas por afinidad de agregación, y partes constituyentes (~átomos que por afinidad de composición constituyen las anteriores).

o Al distinguir entre propiedades físicas y químicas, las primeras debidas a la disposición podían ser de igual apariencia, encubriendo diferentes propiedades químicas; y las propiedades químicas, intrínsecas a las sustancias, podían presentarse bajo distintas apariencias.

o Se creía en la imposibilidad de aislar elementos puros, por lo que cualquier taxonomía química resultaba ser sólo provisional, al no poder determinarse en el análisis cuántos niveles de agregación entre partes integrantes podían darse.

o Rouelle y sus discípulos modificaron también la teoría del flogisto, pues si para Stahl el flogisto era una de las tierras, para aquellos se asoció el flogisto como elemento al fuego como instrumento:

Macquer consideraba que el flogisto era fuego y algún principio de los cuerpos combustibles, mientras que Baumé lo estimaba como combinación de fuego y principio térreo.

Page 37: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 37

En cualquier caso su importancia radicaba en la racionalización de sus operaciones de calcinación y combustión, así como los procesos inversos, que permitieron establecer un programa a seguir con otros principios, como la acidez o la causticidad.

Si las propiedades de una sustancia se heredaban de los elementos que la componían, las sales constituían un caso particular al presentar propiedades inexistentes en los ácidos y los álcalis.

o La filosofía mecanicista podía explicarlo como deformación mecánica de los componentes, pero la química de principios encontraba en este problema un serio cuestionamiento a su programa.

o W. Homberg estudió las sales como aquellas sustancias solubles en el agua y no inflamables entre las que distinguió las ácidas, las alcalinas (fijas o volátiles) y las medias (por combinación de los anteriores, siendo uno fijo y el otro volátil) o finalmente neutras.

Dividió también las sales medias entre la combinación de los ácidos con una tierra alcalina, y la de estos ácidos con los metales.

Consideró una cuarta categoría, la de las sales amoniacales, combinación de un ácido y un álcali ambos volátiles, desplazando su clasificación de la apariencia física, al proceso de constitución, basado en la reactividad o afinidad para combinarse entre sí.

o Geoffroy publicó a principios del XVIII una tabla en la que se listaba un grupo de sustancias a las que se relacionaba con otra serie de sustancias con las que mantenían una relación de afinidad para reaccionar, en función del grado de relación (rapport) más o menos intenso que pudiera reemplazar a una anterior combinación.

Esta clasificación recogía la recopilación de Homberg y se convertía así en clave de la taxonomía química.

Esta tabla abrió el camino promoviendo la investigación que la amplió, conduciendo, entre otras cosas, a la redefinición del concepto de sal, que con las sales neutras insolubles, dejó de contemplar el criterio de solubilidad por el de desplazamiento.

Las relaciones de Geoffroy, aun ciñéndose a la experiencia sin teorizar, recordaban mucho a las afinidades ocultas de antaño o a las no menos sospechosas atracciones newtonianas.

o Newton ya había considerado la existencia de fuerzas atractivas y repulsivas de corto alcance que explicarían las reacciones químicas como la sal de tártaro que se disuelve por delicuescencia (atracción de la humedad del aire hasta que se satura), por lo que los newtonianos justificaban así el vago concepto de afinidad, sin explicar su carácter selectivo con las sustancias, que no se daba en la universal gravedad.

Buffon estimaba que la atracción química era la gravitatoria alterada por la forma de las partículas.

Boscovich también planteó fuerzas de atracción y repulsión que encontrarían equilibrios o puntos neutros que explicarían la estabilidad de ciertas combinaciones químicas, merced a la disposición geométrica de sus átomos que establecería polaridades favorables.

o Freind sin embargo estimó que estas fuerzas dependían de otros factores, como la textura o la densidad, apuntando a su especificidad química, aunque acabarían identificándose con las de afinidad, pues el newtoniano concepto del efecto de atracción era ajeno a la causa que la provoca.

o Bergman confeccionó a partir de la de Geoffroy una tabla que se constituiría en estándar y que con muchas más columnas contemplando reacciones por vía húmeda (solución) y por vía seca

Page 38: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 38

(calor), al haberse constatado la variación de la afinidad con la temperatura y otros factores mal conocidos como la concentración o la solubilidad, provocando numerosas excepciones.

o Estas nuevas tablas alentaban las funciones clasificatorias que promovían tanto la experimentación sistemática de nuevas combinaciones, como la esperanza de encontrar leyes generales, que los newtonianos quisieron matematizar al estilo gravitatorio intentando establecer infructíferas relaciones entre afinidades y velocidades de reacción.

o El sueño newtoniano de las afinidades acabó con la polémica entre Berthollet y Proust y la posterior teoría atómica de Dalton:

Berthollet a partir de la observación en Egipto de depósitos de sosa sin reaccionar con el cloruro de calcio (al contrario de lo que sucedía espontáneamente en el laboratorio), había llegado a la conclusión de que el sentido de las reacciones no es absoluto y dependiente de la afinidad.

En su ensayo sobre estática química estableció que junto con las afinidades era preciso tener en cuenta las cantidades de reactivos (dependientes de la concentración, la solubilidad y la temperatura) estableciéndose las reacciones siempre de forma incompleta como un equilibrio.

Berthollet vino así a contrariar la idea generalmente aceptada de que los reactivos que formaban un compuesto entraban en proporciones fijas, sino que variarían entre ciertos límites, con lo que Proust vino a polemizar cortésmente afirmando su ley de proporciones definidas que acabaría prevaleciendo.

21.2. La química de los gases

La química pneumática o de los gases comenzó cuando J. Black identificó el primer gas (CO2) al que denominó “aire fijado” diferenciado del aire común, en el que hasta entonces se habían supuesto disueltas diferentes sustancias para explicar sus diferentes comportamientos químicos.

o En sus estudios de medicina, Black se interesó por la capacidad del agua de cal para deshacer cálculos urinarios, obtenida por la disolución de cal viva elaborada a su vez por la calcinación de la piedra caliza, proceso que cedió su nombre al aplicarse a otras sustancias como los metales.

o Se consideraba que la piedra caliza, como tierra calcárea, contaba con propiedades alcalinas que al calcinarse daba productos cáusticos, como forma de extrema alcalinidad.

o Black consideraba que esta propiedad no se debía a que a través de la acción del fuego se añadiese sustancia alguna en la reducción, sino que el “aire fijado” tenía una relevancia química al transferirse entre sustancias y comportarse como un ácido, neutralizando la causticidad.

o Experimentando con magnesia alba y usta, junto al calor y a un ácido, acabó recogiendo el aire fijo liberado que mostraba propiedades diferentes de las del aire común: mayor densidad, incapaz para la combustión ni la respiración, y ser liberado en estos procesos así como en la fermentación.

Se fueron aislando otros gases, como los que estudió H. Cavendish y a los que denominó aires facticios (contenidos en estado inelástico en los cuerpos) entre los que presentó el aire inflamable (H2).

o Ya se conocía que la acción del ácido sobre ciertos metales lo producía, pero demostró que era independiente de qué ácidos o metales, que su densidad era mucho menor que la del aire común, y que a diferencia de éste era insoluble en agua.

Page 39: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 39

o Interpretó sus experimentos en términos del flogisto: al concebirse el metal como compuesto de base y flogisto, y al liberarse siempre la misma cantidad de gas al margen del tipo de ácido, concluyó que el gas desprendido se identificaba con este flogisto en estado elástico.

Cavendish, K. W. Scheele y su discípulo D. Rutherford descubrieron independientemente el nitrógeno, aunque sólo este último publicó el hallazgo.

o Al pasarlo por carbones encendidos y retirarle con KOH el CO2, se obtenía este gas incapaz para la combustión y más ligero que el aire.

o Pero se interpretó como aire saturado de flogisto.

Además de otros gases, el descubrimiento más destacado fue el del oxígeno por Scheele y J. Priestley, que serviría de base para la posterior revolución de Lavoisier:

o Scheele lo obtuvo con ácido vitriólico (sulfúrico) y manganeso, con propiedades de sostener vivamente la combustión por lo que lo llamó aire de fuego (Feuerluft), capaz de absorber el flogisto de las sustancias combustibles, convirtiéndose en fuego y dejando atrás el resto como aire corrompido (Verdorbeneluft) incapaz para la combustión y la respiración.

o Priestley experimentó recogiendo gases sobre mercurio – lo que le posibilitaba estudiar los que eran solubles en agua – y empleaba lentes para calentar las sustancias, tal y como haría para calcinar el óxido de mercurio, con lo que obtuvo el que llamó aire desflogistizado, entendiendo que este aire había cedido todo el flogisto a la cal de mercurio, que así había recobrado su estado metálico.

La química pneumática desarrollada prioritariamente en Gran Bretaña, a diferencia de la química continental de carácter más analítico, estaba enraizada también en la física y la medicina, y en ella el flogisto tuvo un papel más periférico que en la tradición continental de Stahl.

21.3. La revolución química

M. Berthelot sostenía que la revolución química transcurrió en torno a tres ejes: el descubrimiento de los gases, la teoría del calórico y el uso de la balanza, lo cual ha sido enfatizado de manera distinta por diferentes autores, siendo conscientes de que la revolución no afectó a toda la química (afinidades), que la teoría del flogisto no era homogénea, y que el empleo de la balanza y la creencia en el principio de conservación de la masa eran habituales.

o Los cambios sin embargo fueron notables: al cambiar el flogisto por el oxígeno, muchos procesos se observaron en sentido inverso, y muchos productos simples en compuestos (metales, cales, aire, agua…) hasta el punto de que se ha planteado si no fue el problema de los diversos aires el auténtico núcleo de la Revolución.

o También cierta influencia de la física exacta con su experimentación y procedimientos cuantitativos pudo contribuir a esta Revolución en la figura de Lavoisier relacionado también de este modo con el estudio calorimétrico o fisiológico, todo un programa en el que el oxígeno desempeñó un papel central.

El caso es que el aumento de peso en la calcinación de los metales (hasta de un 10% en el caso del plomo) se había hecho ya notar desde el XVI, pero otros experimentos mostraban que no habían encontrado este aumento.

o El aumento se intentaba explicar a través de la incorporación del fuego mismo a la sustancia, pero el influyente Boerhaave había defendido que el fuego carecía de peso, a la par que según

Page 40: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 40

Stahl lo que se perdía en el proceso era el flogisto, concluyendo en que éste tendría un peso negativo.

o En 1772, Guyton realizó una serie de importantes experimentos que sirvieron para confirmar que todos los metales ganaban peso al calcinarse, aunque achacando erróneamente al flogisto un peso específico menor que el del aire: este estudio que fue elogiado por Macquer informando a la Academia de París.

o Lavoisier entregaba ese mismo año una carta al secretario de la Academia revelando su importante descubrimiento de que era una parte del aire la que se adhería en la calcinación y se liberaba en la reducción.

Varias son las posibles fuentes de la inspiración de Lavoisier: el precedente de Guyton, los experimentos de Hales sobre el aire fijado, los trabajos de Black, la sugerencia de Turgot en su crítica a Guyton (lo que probablemente desconoció) o más probablemente las investigaciones de Mitouard con el espíritu ácido de fósforo que siempre pesaba más que el fósforo original.

Lavoisier también concebía que el fuego podía fijarse a los cuerpos, dando cuenta de los procesos exotérmicos y endotérmicos, extrapolando este modelo al aire, fijado y liberado de los cuerpos.

o Lavoisier se dispuso a repetir los experimentos publicados sobre fijación de aire de Black y Priestley, aunque el problema no era fácil de resolver:

Black había encontrado que la calcinación de tierras calcáreas liberaba aire fijo (CO2) mientras que Lavoisier sabía que se absorbía aire en el mismo proceso de calcinación de los metales.

Era posible que en la calcinación, el aire se absorbiese, y en la reducción se liberase: en éstas, hechas con carbón, el aire liberado sería ciertamente aire fijo, pero el aire absorbido en la calcinación no podía serlo porque el aire fijo no sustentaba la combustión.

o Lavoisier, sin determinar la naturaleza de este aire, comprobó experimentalmente que en frascos cerrados la combustión y calcinación eran incompletas, y que al calentar metales en frascos cerrados el peso sólo aumentaba cuando dejaba pasarse aire, además en una proporción como la del volumen del recipiente.

o Aunque se planteó reformar la teoría del flogisto suponiendo una absorción de aire en lugar del desprendimiento de flogisto, sus investigaciones le fueron conduciendo a averiguar la naturaleza de ese aire.

Investigó el proceso de la respiración asimilado a la combustión, en la que se liberaba aire fijo, y se absorbía una porción de aire.

Especuló entonces con que la atmósfera estuviera compuesta por un ingrediente respirable y otro que no lo fuera, planteándose la posibilidad de que entre uno y otro pudiera existir una modificación.

o P. Bayen logró entonces reducir la cal de mercurio sin emplear carbón, lo que suponía que el flogisto no intervenía: supuso entonces que el aire liberado era aire fijo, pero Priestley comprobaría que el aire liberado era de otro tipo, lo que acabaría en conocimiento de Lavoisier.

Lavoisier interpretó este aire como aire común en gran estado de pureza, conforme a un procedimiento de Priestley a partir del aire nitroso descubierto por Hales: al combinarse éste con aire puro, la mezcla se veía reducida (al disolverse en el agua el

Page 41: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 41

dióxido de nitrógeno producto de la mezcla) en una quinta parte como sucedía con el aire común.

Priestley siguió añadiendo aire nitroso y obtuvo que la saturación solo se producía con una cantidad cinco veces superior, lo que Lavoisier interpretó que este aire como aire deflogistizado sería la parte eminentemente respirable de la atmósfera, mientras que el otro sería un aire mefítico (nitrógeno).

Así, a diferencia de Priestley que había interpretado el aire fijo de Black como combinación del flogisto y el aire común, Lavoisier lo interpretó como una combinación del aire puro y carbón.

o Lavoisier lo denominó oxígeno (generador de ácidos), con un famoso experimento de análisis y síntesis a través del cual estimó que el oxígeno era el agente acidificante universal, al convertir en ácidos a los no metales que se combinaban con él.

o La teoría de Lavoisier explicaba muchos fenómenos, pero aún no era capaz de explicar la calcinación por la vía húmeda, es decir, la reacción entre metales y soluciones de ácidos en agua que producían una sal y liberaban aire inflamable (hidrógeno), que no se desprendía cuando era la cal del metal la tratada con el ácido:

La teoría del flogisto era capaz de explicarla al considerar al metal como combinación de cal y flogisto, liberado en la reacción en forma de aire inflamable, a diferencia de la reacción del ácido con la cal que, al carecer de flogisto, no liberaba nada.

Priestley experimentó prendiendo con una chispa aire común e inflamable obteniendo tras la explosión un humo, con pérdida de peso como advertiría J. Warltire, y un rocío.

Watt y Cavendish repitieron el experimento encontrando éste que el rocío era agua, que al tenerla en cuenta evidenciaba que no se perdía peso, e interpretando que el aire inflamable era agua combinada con flogisto, y el aire desflogistizado era agua desprovista de flogisto, (sin pensar que el agua pudiera ser combinación de ambos gases).

Pero Lavoisier encontró en esto la respuesta que buscaba: el agua era producto de la combustión del aire inflamable, y por tanto, una combinación de aire inflamable y oxígeno, perdiendo para siempre su consideración de sustancia simple.

El carácter compuesto del agua le permitió explicar las reacciones entre metales y ácidos, pues ella era la que suministraba, según el caso, el oxígeno necesario o el aire inflamable.

La nomenclatura seguida desde antiguo comenzó a quedar definitivamente obsoleta:

o Los nombres heredados eran asistemáticos, atribuidos a propiedades como el sabor, su descubridor, su método de obtención (a veces erróneamente),… y daban múltiples nombres a las mismas sustancias, incluso en función de su método de obtención.

o Las farmacopeas médicas tuvieron un papel relevante en la progresiva sistematización, al criticar ciertas drogas inútiles y determinar inequívocamente los pesos y medidas de su composición.

o Macquer y Bergman se ocuparon particularmente de la nomenclatura la cual en su versión antigua resultaba no tanto difícil de manejar como carente de una denominación racional extensible a todas las nuevas sustancias que se iban descubriendo.

Bergman discípulo de Linneo introdujo en la química una nomenclatura similar a la binomial de la historia natural de éste, adoptando el latín para evitar imposiciones de idiomas particulares.

Page 42: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 42

Sus ideas fueron recibidas y desarrolladas por G. de Morveau, A. F. de Fourcroy, C. L. Berthollet y Lavoisier, en un método binomial que incorporaba la teoría del oxígeno de éste y denominaba el elemento común seguido del específico, considerando que toda sustancia era simple hasta que la experiencia demostrase lo contrario.

En función de la cantidad de elemento que interviniese se establecieron diferentes terminaciones (p.ej.: -ico, -oso para los ácidos, -ato, -ito para las sales, -uro para los no ácidos).

o Lavoisier publicó el tratado que constituyó la pieza final de la nueva química y que fue ampliamente difundida y traducida, aunque al vincular la nueva nomenclatura con la teoría del oxígeno no recibió buena acogida entre los teóricos del flogisto, como sucedió dentro y fuera de la Academia.

Lamétherie en Francia, Kirwan en Inglaterra, o Krell en Alemania fueron especialmente críticos con esta nomenclatura y su teoría, aunque algunos de ellos fueron con el tiempo abandonando la teoría del flogisto, mientras que Cavendish y Priestley nunca llegaron a hacerlo.

A pesar de defensas como la de Klaproth, en Alemania se dieron trabas además para su difusión por la tradición stahliana y la dificultad de traducir algunos términos, mientras que en lugares como España, sin tradición de la teoría del flogisto, se impuso rápidamente.

Sin embargo su difusión no implicaba necesariamente la aceptación de todo su cuerpo de doctrina, encontrando disidentes pragmáticos en la periferia y no tanto en el núcleo flogisto-oxígeno, como ocurrió con su teoría de la acidez rechazada por varios como Berthollet.

o Lavoisier fue guillotinado con los sucesos revolucionarios al pertenecer a la Ferme Générale, consorcio privado encargado de la recaudación, lo que le había permitido investigar desahogadamente: la leyenda dice que el presidente del tribunal dijo que la República no necesitaba sabios, y sin embargo, la República sería bien consciente de cuánto los necesitaba.

Page 43: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 43

22. TEMA XXII: LA HISTORIA NATURAL Y EL ESTUDIO DE LA VIDA

Conviene verlo bien. A la última parte, la fisiología, sólo un vistazo.

22.1. De la historia natural a la historia de la naturaleza

La historia natural se concebía tradicionalmente bajo la facultad de la memoria en la Enciclopedia de Diderot y D’Alembert, como recopilación ordenada de hechos, que con Bacon se fue volviendo más inductiva y sistemática, adquiriendo un objetivo propio más allá de esta recopilación: hallar el “sistema de la naturaleza”, asociada a la teología natural y el argumento del diseño en la Creación.

o En manos de Descartes y sus seguidores, las explicaciones renacentistas de los fenómenos naturales en términos de su génesis histórica se secularizaron, concibiendo el orden como consecuencia de las leyes de la naturaleza, que algunos como Burnet trataron de conciliar con el génesis bíblico.

o Estas tradiciones culminaron con la dilatada polémica entre Linné y Leclerc, conde de Buffon, que enfrentó a dos concepciones distintas de los principios y finalidad de la disciplina.

Los principios de plenitud y continuidad de Leibniz subyacían a las imágenes sobre el orden natural:

o Al principio del XVIII se trataba de la Gran Cadena del Ser, en la que se daban los eslabones sin solución de continuidad desde los minerales hasta el ser humano, e incluso llegaban a abarcar al reino espiritual.

o La creciente complejidad descubierta en los seres condujo al modelo de un mapa, interpretando que Dios o la naturaleza no se habrían desarrollado en una sola dirección sino en todas las posibles, siendo este modelo el apogeo de la plenitud y la continuidad.

o Sustituyó a esta imagen la del árbol, propuesta por P. Simon Pallas e intermedia entre la escala y el mapa, que vino a acentuar el carácter discreto de la realidad natural, evidenciando que sólo algunas direcciones están presentes en la realidad.

o En una cuarta etapa, con Lamarck se dotaría al árbol de una cuarta dimensión temporal, abriendo el camino a las teorías de la evolución.

El propósito utilitario de las historias naturales, como en las botánicas, se desplazó al de acercarse y constatar la existencia de Dios por medio de su diseño providencial inscrito en la naturaleza, que sería de nuevo concebida, como lo fuera en el Renacimiento, como agente activo intermedio entre Dios y sus criaturas, en gran parte como rechazo al mecanicismo.

o Los naturalistas se dividieron en dos grupos: los observadores y los clasificadores, en función de su especial predilección por las tareas propias de la disciplina.

o La formulación de una sistemática se vio acuciada por el desbordante número de ejemplares procedentes de todo el mundo que atravesando las descripciones de Bauhin y Ray y el método de clasificación lógica de Cesalpino culminarían con la sistemática de Linné: ésta se remontaba a Aristóteles – aunque éste nunca la empleara – empleando las categorías de género y especie en función de los caracteres de los ejemplares.

Page 44: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 44

o El método de clasificación se interpretaría como natural si reflejase la esencia de las entidades en cuestión, lo que se veía con escepticismo desde la influyente filosofía de Locke que sólo estimaba la aproximación a una esencia nominal:

J. Ray recomendaría emplear varios caracteres comunes y vinculados al proceso de reproducción, independientes del devenir circunstancial posterior de cada individuo, y así su método calificado de natural era trabajoso pero cuidadosamente intuitivo.

J. P. de Tournefort contribuyó a precisar la noción de género, que se agrupaba a su vez en clases, consolidando por su parte un método calificado de artificial pues atendía a menos caracteres comunes pero facilitaba la necesidad de ordenar rápidamente tan vasto y acuciante material.

o El punto culminante de la sistemática vino con Linné que introdujo una nomenclatura binomial en latín – género y especie – que contando con algún precedente, se impuso hasta hoy.

Para él, el fundamento de la botánica era la clasificación seguido de la nomenclatura, que comenzó aplicando en las plantas a la característica esencial de la fructificación, determinando como caracteres las partes de la flor y del fruto, cuya presencia o ausencia, forma, número y situación permitió su clasificación exhaustiva.

Aunque admitía su posible mejora, estaba convencido de que su minuciosa observación reflejaba la esencia de los especímenes: las clases y los órdenes podían ser combinación de la naturaleza y del arte del clasificador, pero el género le resultaba realmente presente en la naturaleza – determinando el carácter – así como la especie, inmutables desde la Creación.

Linné denominó al suyo el sistema sexual, a partir del descubrimiento reciente de la sexualidad de las plantas, constatada por Grew y Camerarius y negada por otros como Tournefort, Réaumur o Wolff.

o La zoología iba por detrás por las dificultades de observación que le son intrínsecas.

A pesar de todo, Réaumur logró un trabajo fino, y Ray también, distinguiendo como Aristóteles los animales por la presencia de sangre, y después por el tipo de respiración, número de ventrículos, vivíparos u ovíparos.

Linné siguió esta tradición dividiendo en cuatro los animales con sangre roja (mamíferos, aves, anfibios y peces) y dos con sangre blanca (insectos y gusanos), a su vez dividida por otros criterios como el aparato masticatorio, el de los sentidos, los tegumentos y los apéndices.

Linné concebía la existencia de un orden natural regido por el principio de economía: la cadena alimentaria de predadores y presas se mantiene en equilibrio sin verse alterada por la intervención humana.

A mediados del XVIII admitió la aparición de nuevas especies por hibridación, lo que le condujo a abandonar el modelo de escala lineal por el de un mapa, o como concibiera Donati, una multiplicidad de cadenas formando un tejido.

o Con un gran éxito, el sistema de Linné se difundió además por la facilidad para la clasificación de nuevas especies, aunque fue criticado por quienes pensaban que el verdadero método natural sólo podía alcanzarse con la consideración de todos los caracteres posibles: A. de Jussieu, B. de Jussieu, A.-L. de Jussieu y M. Adanson contribuyeron decisivamente con sus viajes por el mundo haciendo obsoletos los sistemas aceptados y abandonando progresivamente la idea de

Page 45: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 45

una caracterización esencialista de las plantas por una inductiva y comparativa que reconocía la diferente ponderación de cada uno de los caracteres.

Buffon, sucesor de Dufay en el Jardin du Roi, realizó una inmensa descripción del mundo animal que fue completada por su discípulo Lacepède y en la que defendió una visión omnicomprensiva de la naturaleza con un nuevo programa para la disciplina:

o Influido por Locke atribuía a las verdades físicas un carácter sólo probable, negando el conocimiento real de las esencias: al igual que hiciera la física matematizada, las clasificaciones de Linné seleccionaban sólo algunas propiedades.

o A la subordinación de caracteres de Linné, Buffon opuso su principio de equivalencia, ampliando los criterios desde la pura morfología a la historia de la especie, su génesis, su utilidad para el ser humano, los hábitos alimentarios, los instintos,… lo que le condujo a negar categorías taxonómicas: en la naturaleza no existen más que individuos.

o Sin embargo, la necesidad de algún tipo de ordenación le indujo a encontrar en la especie – que por la copulación se perpetúa conservando la similitud – la unidad básica, como grupo de animales interfértiles que transmiten las mismas características.

o Con el caso del caballo y el asno desarrolló la idea de familia, que agruparía distintas especies bajo un plan común de composición encontrando similitudes morfológicas y de anatomía comparada que no llegó a desarrollar, centrándose ante todo en la noción de especie: estas contarían con un prototipo perfectamente adaptado en su patria de origen, exiliadas de la cual habrían sufrido una degeneración transmitida a su descendencia y que serían abrigadas bajo una misma familia – como podría ser el caso del asno a partir del caballo.

o Comenzó por negar que este transformismo pudiera generar nuevas especies, aunque fue progresivamente convenciéndose de que los híbridos eran capaces de ser fértiles, y así retomó la idea de la degeneración restringiéndola a variedades o razas dentro de las especies, haciendo que este concepto, basado en la interfertilidad, se aproximase a la anterior idea de familia.

o Su contribución fue decisiva al dotar al término “historia” de la historia natural un sentido temporal del que tradicionalmente había carecido, lo que le condujo a investigar la historia de la propia Tierra, para lo que siguió a Descartes anunciando la actuación inicial de Dios pero limitándose en lo posible a causas físicas:

Con ello defendió el uniformismo – la idea de que la historia de nuestro planeta sólo debe explicarse por causas operantes en la actualidad – criticando las suposiciones de los catastrofistas que le precedieron como Burnet, Woodward o Whiston para quienes, conciliadores del mecanicismo o el newtonismo con el Génesis, el hito del Diluvio era enormemente relevante para explicar la destrucción del mundo original y las evidencias empíricas como las conchas en las montañas, amén de una historia de seis milenios.

Buffon, aunque recurrió al impacto de un cometa para explicar el origen de la Tierra, rechazó las hipótesis sistemáticas por las teorías fundadas en hechos físicos: concebiría así a los planetas como materiales arrancados del Sol, explicando su giro y rotación, así como el origen de los satélites y cometas; supondría en nuestro planeta que el enfriamiento de los vapores acabaría generando grandes masas de agua y aire que, ya como causas uniformes, habría operado durante siglos, erosionando los terrenos, sumergiendo unos y elevando otros, y accidentándose por terremotos y volcanes originados de los fuegos subterráneos todavía combustibles. Con ello, Buffon desacralizó la geología.

Page 46: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 46

Años después retomó la cuestión otorgando esta vez un papel central al fuego: el enfriamiento de la corteza al interior marcará una flecha temporal y un final a la historia de la Tierra y de los demás planetas, dentro de un orden universal inmutable: Mairan ya había evidenciado la fuente de calor interno calculando cuál debería ser la variación estacional de las temperaturas hallándola mucho mayor a la observada.

A partir de esto trazó un progresivo enfriamiento que explicaba la aparición del relieve, la deposición de las aguas, la erosión del fondo, la retirada de las aguas, la aparición de la vida, su emigración hacia el sur (en cuatro generaciones), renunciando definitivamente a la noción de degeneración: los seres vivos emigrarían a un clima más cálido o se extinguirían.

22.2. Neptunistas y vulcanistas

La geología como tal no existía en el XVIII, aunque el establecimiento de sus fundamentos se localiza a finales del mismo, sino que aún se hablaba de mineralogía, asociada a la tradicional minería alemana.

o Los minerales eran divididos clásicamente en metales, tierras y piedras, sales y sulfuros, dispuestos en forma de rocas, estratos (tipos de rocas) y vetas (inclusiones que atravesaban los estratos).

o El fuego y el agua constituían los agentes de formación principales, y en esta época especialmente el agua, lo que daba lugar a diferentes cosmogonías que estimaban un proceso de formación a partir de un océano primigenio de composición más densa y diferente que la actual, a partir del cual se habrían depositado las rocas más antiguas o primarias, recubriendo la corteza, y posteriores fenómenos químicos y mecánicos habrían dado lugar a las rocas secundarias: estas teorías recibieron el calificativo de neptunistas.

o En esta tradición destacó A. G. Werner que dividió la mineralogía en oritognosia – para la identificación, basada en las características externas, y la clasificación, por procedimiento químico, de minerales –; geografía mineral – para su distribución –, y la geognosia – para su formación e historia.

Más que por su composición, Werner creía que su modo y época de formación diferenciaba esencialmente a las rocas, presentándose en diferentes formaciones en la superficie terrestre.

En primer lugar, Werner consideraba un océano primitivo omniabarcante que habría precipitado las rocas primarias, reduciendo su nivel para recuperarse en parte después – y no entraría en las causas de estos cambios de nivel en las aguas que sin embargo constataba empíricamente.

Una segunda ola habría depositado las rocas estratificadas en dos episodios de elevación de las aguas que habrían dejado sobre la superficie de tierra los fósiles, primero marinos y luego terrestres, de menor a mayor complejidad.

En tercer lugar llegarían las rocas sedimentarias, producidas por erosión de las anteriores, y en cuarto lugar las rocas volcánicas, atribuidas al vulcanismo como combustión de depósitos de carbón subterráneo, por encima de las estratificadas.

J. Hutton en Edimburgo propuso a la concepción neptunista una alternativa vulcanista, que surgió de una tradición diferente a la stahliana de los mineralogistas continentales, a partir de las tesis de Boerhaave y Black:

Page 47: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 47

o La tesis se situaba en la línea británica de conciliación entre ciencia y religión, aunque a diferencia de Burnet, Woodward, Buffon o Werner resultaba ahistórica, a pesar de que Hutton era deísta.

o Se trataba de un ciclo ininterrumpido de erosión y renovación con el calor como agente motriz: en lugar de por precipitación a partir del medio acuoso, Hutton creía que el calor era la causa de la solidificación de las rocas.

La erosión destruye la superficie, conduciendo los productos erosionados al mar, donde por el efecto del calor subterráneo y de las altas presiones se van depositando estratos.

Este proceso de desgaste se vería compensado por la elevación de los fondos oceánicos debida a la expansión del calor, que causaría en tierra su inclinación, pliegue o rotura, y que existiendo en la actualidad no comprometerían la habitabilidad del globo.

o Además de enfrentarse con la tradición continental, al dejar algunos cabos en el aire como su consideración de que las tierras calcáreas se habían formado a partir de conchas de moluscos, lo cual se desmintió, su teoría no gozó de buena aceptación.

Al aplicar calor sobre tierras calcáreas, se forma una cal y se libera aire fijo, lo que Hutton desdeñaba en el fondo del océano aduciendo altas presiones, y defendiendo que, en lugar de su consistencia polvorienta, allí se formaría como masa consolidada.

Frente a ella, la tesis neptunista podía encontrar fácilmente un ejemplo en el caso de las estalactitas y las estalagmitas.

Su tesis estaba basada en las nociones de Black sobre el calor latente – causante de los cambios de estado, en este caso de la licuefacción – y sobre el calor “sensible” responsable de la expansibilidad que originaria el ascenso de la tierra por encima del mar.

22.3. El estudio de la vida

Las categorías antagónicas son hasta cierto punto útiles en la clasificación de las ideas e investigaciones (método natural vs sistema artificial, uniformismo vs catastrofismo, epigenismo vs preformismo, mecanicismo vs vitalismo,…) pero se difuminan cuando se profundiza:

o Preformismo y epigénesis se interpenetrarán, admitiendo el primero la plasticidad embriológica para dar cuenta de la herencia y la aparición de monstruos, y admitiendo la segunda cierta preformación a escala molecular, influida por la monadología leibniziana.

o El mecanicismo enfrentado a Newton dará lugar a un reduccionismo físico híbrido en el que la atracción se acabará aceptando como propiedad intrínseca a la materia, que se extrapolará a la química y a la existencia de fuerzas similares en la materia orgánica, origen de procesos funcionales – también explicados mecánica o químicamente.

En lo relativo al problema de la generación, el preformismo siguió predominando, triunfando el ovismo frente al animalculismo:

o El animalculismo sobreviviría bajo la forma del ovovermismo que otorgaba al huevo un papel destacado como agregado de sustancias necesarias para el desarrollo del animálculo, idea propuesta por Garden y Hartsoeker, que después defendería Andry, estableciendo un inverosímil paralelismo con los gusanos intestinales desarrollados por metamorfosis.

Page 48: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 48

o El preformismo, salvando la idea del animal-máquina, seguía sin poder resolver sus principales dificultades: la herencia, los híbridos y los monstruos, para las que daba respuestas teóricas y simplistas:

La transmisión hereditaria se basaba en la imaginación materna y la influencia paterna de un aura seminalis.

Los híbridos, a partir de la intervención de partículas seminales de una especie en el huevo de otra lo suficientemente próxima para producir la fecundación.

Los monstruos, como accidentes en el proceso de desarrollo.

o Algunas observaciones apoyaban el ovismo preformacionista:

Réaumur creyó que los insectos no sufrían verdaderas metamorfosis (en la oruga estarían ya, imperceptibles, los órganos de la mariposa)

Bonnet mostró la partenogénesis de los áfidos – una génesis asexual o monogamética.

Haller dedujo a partir de la conexión del intestino con el vitelio que el embrión ya preexistía en el huevo antes de ser fecundado, lo que Spallanzani corroboró con la idéntica apariencia entre huevos de anfibios antes y después de ser fecundados, y experimentó que la capacidad fecundadora dependía del grado de exposición al fluido seminal.

o Otro de los problemas a explicar fue la regeneración de partes en algunos animales, como el espectacular caso de los pólipos que, categorizados en un principio como vegetales por Leuuwenhoek, fueron observados como animales por Trembley, con la sorprendente capacidad de darse la vuelta sin perecer, injertarse entre sí, o dividirse en pedazos a partir de los cuales surgía un animal entero.

o A mediados de siglo resurgió la teoría epigenética vinculada a una concepción dinámica y vitalista de la naturaleza.

Maupertius extendió al mundo de lo viviente el modelo de la atracción y la química de las afinidades: como las afinidades de la tabla de Geoffroy, las partículas seminales del padre y de la madre se atraerían, frente al ovismo y al vervismo, realizando una aportación biparental a los órganos del embrión a partir de los organismos de los padres, transmitiendo como herencia las modificaciones sufridas en vida.

Además de la atracción, le asignó afinidades selectivas a las partículas en términos de deseo, aversión o memoria, lo que daba cuenta en último término de la psique del individuo y su ocasional carácter hereditario, mostrando cierta influencia de la monadología de Leibniz.

o La teoría de la reproducción de Buffon siguió las ideas de Bourguet – discípulo de Leibniz:

Bourguet había estimado que la materia orgánica era capaz de aumentar por agregación selectiva de moléculas orgánicas, adaptándolas a través de cierto molde con un mecanismo orgánico exclusivo de los seres organizados.

Así, Buffon pensaba que la regeneración de un ser vivo a partir de una de sus partes (olmo, pólipos,…) evidenciaban que los gérmenes reconstructores se encuentran por todas partes: las moléculas orgánicas, como las denominó, constituirían los organismos, siendo absorbidas en la nutrición, y por medio del molde interior conformadas por fuerzas penetrantes basadas en la atracción.

Page 49: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 49

o Para observar estas moléculas se asoció con Needham, microscopista, cuyo microscopio fabricado por Cuff con más de 400 aumentos les permitió observar más de lo conveniente: infusiones, bacterias, fragmentos de células… estos glóbulos animados aparecían en todos los tejidos orgánicos, junto a los espermatozoides de Leeuwenhoek, confirmando las ideas de Buffon.

Needham experimentó aislando jugo de carne y calentándolo, y halló al tiempo la presencia de microorganismos, lo que le condujo a creer que las moléculas orgánicas disociadas se reunirían gracias a una fuerza vegetativa.

Spallanzani repetiría el experimento sellando debidamente los frascos y refutaría a Needham al no encontrar gérmenes.

A esta fuerza vegetativa se uniría la fuerza esencial de Wolff – padre de la embriología descriptiva, cuyos estudios refutaron la tesis de Haller – y la tendencia formativa de Blumenbach como principios intrínsecos de organización y desarrollo de la materia indiferenciada.

A principios de siglo aparecieron a la vez las obras de Boerhaave y Stahl sobre fisiología

o La fisiología de Boerhaave era mecanicista, a la que resultaba difícil incorporar nociones como salud, enfermedad o vida: el sano quedaba definido como el que podía realizar fácilmente y con placer las funciones que le son propias – aunque el sentimiento para el animal-máquina resultaba difícil de determinar – y la vida como el estado del cuerpo que permite su unión con el alma.

o Stahl se oponía a este mecanicismo sin negar las leyes físicas a las que reconocía que el organismo estaba sometido añadiendo la finalidad: los cuerpos orgánicos tienden intrínsecamente a corromperse.

La vida sería así la resistencia a este proceso, y el alma la fuerza conservadora que actuaba directamente sobre el cuerpo, controlando incluso sus funciones vegetativas.

El fin del alma sería la conservación del cuerpo que emplearía como instrumento para adquirir conocimiento y control del mundo, por lo que Stahl se acogía a una consideración hipocrática de dejar actuar al alma en su restauración del cuerpo.

o A este animismo se opuso su rival Hoffman rechazando el concepto de vida de Stahl: los cuerpos, una vez muertos, podían conservarse en frío o en alcohol.

La vida sería el movimiento de los líquidos orgánicos, especialmente el de la sangre.

Distinguía tres almas: naturaleza, alma sensitiva, alma racional, rechazando la interacción directa alma-cuerpo, aunque no podía escapar de la acción sobre el fluido sutil de los nervios hasta los músculos para realizar los movimientos voluntarios.

Su retorno a los espíritus animales mostraba la impotencia del mecanicismo para enfrentarse a los fenómenos vitales, del que se había intentado salir afirmando la especificidad de estos fenómenos (Bourguet, Buffon), y que transformaría la concepción vitalista desde la actuación de un agente espiritual externo hasta la animación misma de las partes de un organismo por fuerzas específicas.

o Haller, padre de la fisiología, reintrodujo una propiedad en la materia orgánica: la irritabilidad.

Glisson había empleado en el XVII este término para explicar por qué la vesícula sólo vierte discrecionalmente bilis en el intestino.

Page 50: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 50

Haller retomó esta idea hablando de contractibilidad de las fibras musculares ante un estímulo externo sin necesidad de impulso nervioso.

Las fibras eran de tres tipos: celulares (tejido conectivo), musculares y nerviosas, caracterizadas éstas por ser sensibles, transmitiendo al alma estímulos del exterior, a través de un líquido circulante por ellos.

La irritabilidad se hallaba presente en el corazón, el intestino, el diafragma y los demás músculos, lo que Haller halló al estilo newtoniano con una amplia experimentación sin indagar en sus causas.

Su punto de vista fue anatómico-morfológico considerando a la fisiología como una anatomía animada.

o El vitalismo fue desarrollado en Francia en torno a la Facultad de Medicina de Montpellier con las figuras de Boissier de Sauvages, Bordeu y Barthez, cuyo vitalismo, a diferencia del animismo de Stahl, atribuía a los fenómenos orgánicos una fuerza vital perecedera intermedia entre los fenómenos físico-químicos y el alma.

Boissier de Sauvages atribuía al alma como naturaleza el principio de la vida, reconociendo su imposibilidad para explicar la interacción con el cuerpo.

Bordeu centró la fuerza vital en la sensibilidad, con el concepto de unidad funcional en la actividad de diversos órganos coordinada por el cerebro.

Barthez concebiría un principio vital del que dependería la sensibilidad y la motilidad de la vida vegetativa, mientras que el alma gobernaría la vida activa y los movimientos secundarios.

o X. Bichat fue el vitalista francés más famoso, que dividió la vida en orgánica (vinculada a la nutrición y excreción propia de la vida vegetativa) y animal (vinculada a la sensibilidad y la motricidad).

La sensibilidad sería en realidad compartida por ambas vidas, aunque más intensa y organizada en la vida animal.

Esta sensibilidad, canalizada por diferentes fluidos, era selectiva hallándose en distinto término en los diferentes órganos.

Consideró que los tejidos, sensibles y móviles, constituían las unidades básicas de los seres vivos, de los que distinguió veintiún tipos.

A diferencia de Haller, quien, aun considerando a la sensibilidad e irritabilidad como propias del mundo orgánico, admitía que era posible su reducción a propiedades físicas, Bichat pensaba que ambas eran propiedades análogas a la atracción o la afinidad química, cuya variabilidad hacía imposible cualquier intento de matematización.

o El vitalismo, en cualquier caso, no renunció a las explicaciones mecánicas, físicas o químicas de los proceso vitales:

Hales midió la presión de la sangre distinguiendo cuantitativamente entre la presión arterial y la venosa, y entre la sistólica y la diastólica.

El fluido eléctrico inspiró las consideraciones sobre el sistema nervioso, y estimuló la experimentación en la contracción muscular con descargas: los experimentos eléctricos de Galvani le llevaron a defender la electricidad animal con la que entró en polémica con Volta, y en la que A. von Humboldt confirmó las experiencias del primero, aunque

Page 51: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 51

refutó que pudieran reducirse a la polaridad de cargas positivas o negativas, lo cual fue aclarado por la pila del segundo.

o A nivel químico no se hicieron grandes contribuciones, aunque la teoría de la respiración de Lavoisier basada en el oxígeno supuso un hito más que notable.

Priestley había comprobado que en la respiración se reducía el aire y se volvía inadecuado para la combustión, lo que le llevó a considerarla como una calcinación en la que se liberaba flogisto acumulado en la nutrición, conteniendo tanto aire flogistizado – nitrógeno – como el aire fijo – dióxido de carbono – precipitado.

Lavoisier aplicó su programa junto con A. Seguin aunque fue truncado por su trágica muerte, a pesar de lo cual algunos resultados llegaron a la Academia: comparaba la respiración con la combustión lenta de carbón, consumiendo oxígeno y liberando dióxido de carbono.

Más tarde reconocería la producción también de agua, resultado de la combustión del hidrógeno, y comprendería que la sangre aportaba el carbono y el hidrógeno y el oxígeno cedía su calórico que sería transportado por ella a todo el organismo para sostener el calor animal, siendo estos materiales restaurados con la nutrición.

Midió el calor producido por animales – en función del hielo fundido – a partir del oxígeno consumido, y atendió sin llevarlo a término al estudio de otras funciones reguladoras como la transpiración y la digestión.

A su teoría de la respiración pronto se le señalaría un defecto: la combustión localizada en los pulmones haría que estos estuvieran a mayor temperatura – lo que Spallanzani explicaría al mostrar, ya en el XIX, que la combustión se daba en todos los tejidos del cuerpo.

Page 52: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 52

23. TEMA XXIII: EL SIGLO DE LA CIENCIA

Basta con una lectura para hacerse una idea general de la situación de la ciencia en el siglo XIX.

23.1. El período romántico

La Revolución francesa no impidió que Francia liderase la ciencia del siglo XIX.

o Sistema Métrico Decimal.

o Muerte de algunos científicos por causas políticas y no científicas (Lavoisier, Bailly, Condorcet).

o La abolición de las academias en 1793 supuso una ruptura, que no tardó en remontarse reformando democráticamente las instituciones y fundándose otras (École Polytechnique).

o La Academia (Instituto Nacional hasta la restauración de la monarquía) pasaría a desempeñar un papel complementario al de otras instituciones (más hueco, más remuneración, más especialización).

Laplace y Berthollet, bajo el amparo de Napoleón, fundaron la Sociedad de Arcueil con un programa newtoniano que albergó a diferentes figuras como Gay-Lussac, Biot, Pisson, Dulong, Arago, Malus,…

o Su vocación era dar cuenta de todos los fenómenos en términos de partículas interactuantes y fuerzas centrales a distancia atractivas entre las partículas de materia ordinaria y repulsivas en el caso de los fluidos sutiles e imponderables del calor, la luz, la electricidad y el magnetismo.

o Cosecharon éxitos como la refracción de la luz, la acción capilar, la polarización de la luz, la ley de los gases, calores específicos, aportaciones en mecánica, electricidad, magnetismo,…

o Fuera de este programa, Fresnel elaboraría la teoría ondulatoria de la luz, Fourier formuló una teoría matemática de la conducción del calor, Ampère con su teoría del electromagnetismo rompió con las fuerzas centrales y la teoría de los dos fluidos de Coulomb, e incluso algunos miembros simpatizaron con la teoría atómica de Dalton y su rechazo al calórico: todo ello acabó desplazando la influencia de Laplace y Berthollet.

o La ciencia en este período es el de la física matemática, apoyada en el análisis inspirado en el cálculo diferencial de Leibniz: desarrollada por matemáticos, atendía menos a los experimentos y a la tradición de la ingeniería, y recurría a los problemas físicos para desarrollar la matemática desatendiendo el significado físico de las expresiones matemáticas.

o Esta física matemática se desarrolló dando tratamiento a los fenómenos mediante modelos continuos (Fourier) lo que algunos consideraron incongruente con el programa laplaciano de una física basada en partículas (Poisson), y exigían un buen comportamiento a la función que deseaba integrarse en sus discontinuidades lo cual había que controlar evaluando el error existente al contrastar la integral continua con la diferencia entre una serie de diferencias finitas. Sus diferencias en cualquier caso, eran más profundas y se extendían a los mismos conceptos empleados.

La Naturphilosophie surgió en el contexto del romanticismo reivindicativo frente al racionalismo Ilustrado, y si bien no influyó en la física al ser una ciencia más desarrollada, tuvo sus ecos en la naciente biología, desde su concepción orgánica, animada, dinámica y vitalista frente al mecanicismo y materialismo ilustrados.

Page 53: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 53

o La visión dinámica de la naturaleza se remontaba a Kant y predicaba el predominio de las fuerzas sobre la materia, oponiéndose a las concepciones atomistas (como hiciera Boscovich).

o Goethe enfatizaría – desde otra influencia kantiana – la interacción de la mente con el mundo, que Fries materializaría en su idea de que la ciencia es combinación de hechos y mente matemática, a contrastar en el experimento, en contra de la excesiva especulación de los filósofos idealistas de la naturaleza, poco amigos de la rigurosidad matemático-experimental.

o El modelo estándar de fluidos sutiles e imponderables en interacción con la materia se vería cuestionado – en el caso del calórico, deconstruido como movimiento de partículas, o en el de la luz corpuscular, por la teoría ondulatoria.

o La influencia más relevante de la Naturphilosophie fue la del intento de la unificación de fuerzas, como la reconocida por Oesterd entre electricidad y magnetismo o la electroquímica de Davy y Faraday que vinculaba física y química. También en la conservación de la energía pudo tener su influencia, particularmente en la obra de Mayer, aunque hay discrepancias.

o La influencia romántica en la biología se concentró en la morfología (formas arquetípicas, como también idearía Oken con los infusorios o vesículas primitivas, precediendo la teoría celular) y la embriología (desarrollo progresivo hasta el ser humano en el que se recapitulaba la historia de la especie).

o También se asoció la Naturphilosophie con una fuerza vital exclusiva de los organismos, en parte opuesta a la idea general de que todo el mundo era un gran organismo intrínsecamente activo.

23.2. Los años centrales

A pesar del liderazgo científico de Francia, la Revolución Industrial se produjo pioneramente en Gran Bretaña, por diversidad de motivos (menos diferencias sociales, disponibilidad de carbón vegetal, facilidad de comunicaciones y ausencia de aduanas,…) en dos oleadas, en la segunda de las cuales el resto de Europa y Estados Unidos se sumaron al proceso industrializador en el que la ciencia tomó conciencia de su relevancia y vinculación con el progreso social y el desarrollo tecnológico.

La ciencia británica fue una ciencia de amateurs pues aun habiendo científicos de primera fila, la falta de reconocimiento y comodidades impidió la existencia de científicos menos innovadores, aunque la iniciativa privada potenció instituciones como la Royal Institution en la que destacaron Davy y Faraday.

o Esta falta de apoyo incentivó por otro lado el carácter práctico que permitiera obtener un beneficio económico vinculado al descubrimiento e invención.

o Se desarrollaron diferentes sociedades privadas, como los Mechanical Institutes vinculados a la ciencia para las masas de carácter práctico, para suplir la falta de bibliotecas y centros de formación.

o Las Universidades de Edimburgo, Glasgow, Oxford y Cambridge mantuvieron un talante ilustrado basado en el inductivismo baconiano, el experimentalismo y el sesgo hacia utilidades comerciales e industriales.

o Las física matemática francesa alcanzó Cambridge, aunque el ateo determinismo de Laplace chocaba con la orientación religiosa inglesa y el álgebra de Lagrange con el espíritu geométrico de Barrow o Newton, lo que hizo que la física matemática de Fourier encontrase mejor acomodo.

o Con ello fue desarrollándose una física teórica británica propia, que con rigurosidad atendía al sentido físico del desarrollo a partir de las hipótesis albergadas, que acabó dividiendo el trabajo

Page 54: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 54

entre físicos experimentales y físicos teóricos, en cuya tradición destacaron W. Thomson, G. G. Stokes y J. C. Maxwell.

o Esta física se apoyó de forma consciente en analogías que articulaban una matemática nada imaginaria y que respondía a la realidad empírica, a la par que ganaba un carácter dinámico basado en el principio de conservación de la energía de Hamilton.

o Se asentó también en esta época la dicotomía entre modelos continuos y discontinuos de representación de la naturaleza, desde el continuo con el que se interpretaba al éter – y que daría lugar a la teoría de la relatividad – hasta el discontinuo con el que se interpretó el estudio de los gases como agregados de partículas finitas y elásticas – lo que fundó la física estadística y precedió a la mecánica cuántica.

o En química, Dalton reintrodujo el atomismo, en un sentido de combinación más que de composición (Newton), aunque como hipótesis contó con la dificultad de distinguirse de la molécula como unidad de combinación, resultando una ficción útil hasta el descubrimiento del electrón a partir del cual pudieron realizarse pruebas de la existencia de átomos.

Junto a los modelos de academias y sociedades del XVIII, surgieron dos nuevos modelos de asociacionismo científico: el de las sociedades nacionales y el de las especialidades.

o El primero surgió en Alemania inspirado por el sentimiento nacionalista romántico de la mano de Oken, y se trasladó a Gran Bretaña, donde los científicos que no era profesionales acogieron con entusiasmo y promovieron, criticando a su sociedad, la celebración de estos eventos.

o Las sociedades especializadas, que siguieron denominándose academias, partieron de profesiones ya consolidadas como la medicina, o de disciplinas concretas como la historia natural o la meteorología: así surgieron sociedades geológicas, zoológicas, astronómicas, químicas, etc.

Tenían por objetivo el reconocimiento de la disciplina así como el establecimiento de instituciones docentes específicas.

En Gran Bretaña, donde fueron proliferando multitud de ellas en función de la demanda, destacaron las sociedades sobre la historia natural por su tradicional vinculación con la teología natural, y el desarrollo de otras disciplinas que ya requería de conocimientos e instrumentos refinados.

En Francia abundaron también, a pesar de la estructura de educación secundaria existente – los Lycées.

o El desarrollo de estas sociedades promocionó enormemente el desarrollo de la prensa científica.

El desarrollo industrial facilitó, además de la mejora de la producción y el abandono de procesos antiguos e ineficientes, la mejora y aumento de las comunicaciones (ferrocarriles y barcos)

o El acero fue progresivamente sustituyendo al hierro gracias a las tres mejoras técnicas:

El convertidor de Bessemer mejoró la producción del acero.

El horno de Siemens mejoraría el rendimiento economizando combustible.

Los Gilchrist superaron la limitación del convertidor de Bessemer al idear un procedimiento para eliminar el fósforo, lo que finalmente acabó contribuyendo a reducir el coste del acero hasta un noventa por ciento.

o La industria química también conoció una gran expansión en la que destacaron dos importantes innovaciones:

Page 55: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 55

La sustitución del proceso Leblanc para la obtención de sosa – que había sido progresivamente mejorado – por el de Solvay que, aunque más costoso de instalar, era mucho más limpio y a la larga economizaba combustible.

La fabricación de productos orgánicos de síntesis, vinculada al Royal College of Chemistry, a partir de las investigaciones de Hofmann y después de Perkin sobre la fabricación de colorantes.

23.3. La fábrica y el laboratorio

El interés en la obtención de nuevos productos, así como en la mejora de los propios procesos, fue permeando otras áreas de la industria, haciendo que los científicos e ingenieros comenzasen a ocupar cada vez más puestos en las fábricas donde experimentaban a su servicio, reduciendo el espacio al ingenio de los inventores autónomos.

La industria eléctrica se desarrolló enormemente a finales de siglo.

o Los descubrimientos de M. Faraday que vinculaban magnetismo y electricidad la impulsaron decisivamente, mejorando enormemente las condiciones de vida al manejar una forma de energía fácilmente transportable, y empleable en diversidad de fines: luz, calor, movimiento,…

o Davy ya había observado desde principios de siglo que la electricidad producía luz y calor, lo que condujo a la invención de máquinas magnetoeléctricas para iluminación, que acabarían resolviéndose en la invención de Swan y Edison de la bombilla, basada en la resistencia de un filamento de carbono en el vacío de un bulbo de vidrio.

o La electricidad también revolucionó el campo de las comunicaciones:

Cooke y Wheatstone inventaron el telégrafo.

G. Bell a partir del desarrollo del electromagnetismo de Helmholtz inventó el teléfono.

Maxwell predijo la naturaleza electromagnética de la luz y la existencia de ondas electromagnéticas que Hertz comprobaría experimentalmente y a partir de las cuales Marconi inventó la radio.

En la última etapa del siglo tanto EEUU como Alemania surgieron como potencias industriales, acentuando la primera la producción (Ford) y la segunda la optimización del rendimiento de sus procesos.

o La celebración de las Grandes Exposiciones Universales, fue escenario de la presentación de los logros de cada país.

o Los nuevos métodos recién descubiertos permitieron a países como Alemania ahorrarse los costes de transformación de las viejas instalaciones, para adoptar más rápidamente procesos más eficientes como el de Solvay.

o El modelo británico empírico y emprendedor inspirado por el espíritu científico fue dando paso a una integración mayor de la ciencia y su método científico con los sistemas educativos: tras el elitismo francés, el rígido sistema piramidal impuesto por Napoleón contribuyó a esta evolución, mientras que el sistema educativo alemán triunfó ligando enseñanzas científico-técnicas con investigación e industria.

De forma análoga a los seminarios de teología, proliferaron los institutos que acabaron no sólo formando profesores para la enseñanza secundaria sino aunando enseñanza e investigación: profesores y alumnos debían contribuir al conocimiento.

Page 56: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 56

La libertad de enseñanza y la movilidad entre universidades favorecieron esta tendencia, consolidada con la ampliación del alumnado gracias al auge económico de la industrialización y a la financiación del Estado.

El mecanicismo siguió inspirando el desarrollo de las diferentes ciencias, como la química o la fisiología, consolidándose como materialismo científico en palabras de Ostwald.

o Esta concepción entró en crisis a finales de siglo con el auge del positivismo, predicado por Comte, y que restringía el propósito de la ciencia a los hechos particulares sin entrar en la especulación sobre las causas.

o Este espíritu positivo tuvo como primer exponente – y antecedente – la teoría de la conducción del calor de Fourier y tras ella, el empiriocriticismo de Mach y el energetismo de Helm y Ostwald.

o La ciencia se centraba en las relaciones entre los fenómenos, bajo la economía del pensamiento que los reducía a leyes y teorías.

o Para Mach, las entidades metafísicas, aunque heurísticamente útiles, no tenían cabida en la ciencia: así cabía desechar no sólo a los átomos, sino también al espacio, tiempo y movimiento absolutos de Newton (pues estos sólo pueden ser medidos en referencia a cuerpos o sistemas de referencia) influyendo posteriormente en Einstein.

o Ostwald diseñó un programa basado en la energía (a mediados de siglo se formularía su principio de conservación) como alternativa al mecanicismo y al atomismo, reemplazando a la materia y a la fuerza, en el seno del espacio y del tiempo, y haciendo de la termodinámica el fundamento de la física del que la mecánica sería un caso particular.

o Con este programa entraría en polémica con Boltzmann defensor de una termodinámica cinético-molecular, y por tanto atomista, que vería su tesis refrendada ya a comienzos de siglo con la demostración de la existencia de los átomos.

o Planck intentaría conectar el electromagnetismo con la termodinámica a través de la radiación, dando nacimiento a la física cuántica, y Lorentz con su teoría del electrón planteó la posibilidad de la fundamentación electromagnética de las leyes de la mecánica: ambos intentos serían superados por la Relatividad de Einstein que otorgaba fundamentos distintos a ambos mundos según las medidas de espacio y tiempo relativos al observador que las realiza.

23.4. Ciencia y sociedad

El prestigio de la ciencia y de los científicos fue progresivamente aumentando, ligándose al motor del progreso, y sus influencias se hicieron cada vez más palpables, especialmente en ciertas áreas de la biología vinculadas a las ciencias humanas, que comenzaron a adquirir peso académico como la psicología, la sociología o la antropología.

o El estudio sobre el ser humano desde el individuo hasta la sociedad estaba influido por las teorías biológicas sobre el grado de determinismo que sufría en su comportamiento y transmisión.

o Lamarck propondría la idea general de evolución – vinculada a la idea de progreso – a partir de la que Darwin expondría una teoría evolutiva concreta basada en la selección natural, en este caso ciega y sin direccionalidad, que sostenía una herencia blindada y una primera interpretación de la genética de Mendel.

El darwinismo social aplicó la idea de la competencia al éxito social, promoviendo el liberalismo y el capitalismo salvaje:

Page 57: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 57

o Spencer, como uno de sus principales portavoces, mantendría cierto optimismo en el progreso que el acicate de eliminar todo tipo de subsidios conllevaría, mientras que otros como Galton abogarían por promover el movimiento eugenésico que favoreciera la mejora de la especie, controlando proactivamente nacimientos y practicando esterilizaciones a los menos aptos.

o El darwinismo social tuvo poco eco en Francia, donde la teoría de Darwin no caló excesivamente, y en Alemania, de la mano de Haeckel, se reinterpretó en términos nacionalistas, impulsando la idea de raza, afín también a las políticas colonialistas.

Aunque en la Ilustración la idea de la superioridad de la raza blanca ya estaba presente, las diferencias se tomaban como ambientales.

En el XIX, las diferencias entre las razas, a pesar de gozar de un tronco común, se interpretaron en un evolucionismo de fases insuficientes que habría tenido como culmen a la raza blanca.

Estas ideas fueron promovidas por la antropología física y la cultural

o En la antropología física se originó – con el antecedente de la anatomía comparada – la frenología de Gall que establecía correlaciones entre forma de cráneo y facultades y personalidad de los individuos, tesis que si bien acertaba en localizar ciertas facultades en el cráneo erraba en tomar la topografía del cráneo como un indicador válido.

o También Lombroso propondría una determinismo biológico de la criminalidad, como regresión evolutiva, a la par que la sociología propondría un determinismo ambiental.

o La Sociedad Antropológica de París de Broca y Hunt, en la que predominó la antropología física a la etnología, adoptó inicialmente el poligenismo alentando la retórica sobre diferencias raciales y las esencias puras de las razas, que la antropométrica podría desvelar tras su ocultación en el mestizaje – lo que resultaría fallido, pero colaboraría con el surgimiento de la biométrica.

o El monogenismo surgió vinculado a la etnología y a la idea de herencia lamarckiana consolidando la antropología cultural, que estimaría en su comparativa entre culturas que las culturas primitivas eran estadios intermedios hasta la desarrollada cultura europea, y que se considera fundada con la obra de Tylor, teórico sobre la cultura como complejo omniabarcante.

La sociología surgió bajo la perspectiva lineal e histórica del progreso humano.

o Comte fue el primero en nombrarla como tal, desarrollando las ideas de Saint-Simon y estimando que el desarrollo histórico de la ciencia había atravesado tres etapas: la teológica, la metafísica y la positiva: Las ciencias ordenadas en complejidad creciente partiendo de las matemáticas alcanzarían la fisiología social como culmen, sólo considerada a finales de siglo.

o La psicología comenzó también su andadura a finales de siglo vinculada a los estudios sobre educación y evaluación de capacidades de interés para la industria en EEUU.

La geografía humana y la estadística social también surgieron en este siglo.

o Ésta debió mucho a Quetelet que como discípulo de Laplace estudió las desviaciones de individuos sobre el homme moyen, el individuo medio.

o La escuela biométrica fundada por Galton y Pearson tomó el relevo en el desarrollo de esta disciplina.

o La estadística había sido empleada ya desde el XVIII para ejercer una buena policía en la gestión de los recursos humanos y económicos, lo que evolucionó hacia datos poblacionales – con el espectacular crecimiento demográfico – y datos sobre la resentida salubridad pública.

Page 58: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 58

La mortalidad correlada con las clases sociales más bajas, como constató Villermé, sirvió para asociar enfermedad con pobreza, prostitución y alcoholismo.

El remedio predicado era la pedagogía higiénica así como las infraestructuras de saneamiento como el alcantarillado, el agua potable o la ventilación, conscientes de que el gasto público estaba justificado por el ahorro de horas de trabajo perdidas por enfermedad.

La teoría ambientalista perdió terreno con el desarrollo de la teoría microbiana, aunque sería retomada en el XX con la idea de la medicina social basada en metodologías de las ciencias sociales.

Page 59: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 59

24. TEMA XXIV: LA ÓPTICA, EL ELECTROMAGNETISMO Y LA RELATIVIDAD

Es importante. Se puede prescindir de los desarrollos matemáticos, pero hay que insistir en el estudio de los problemas y de los conceptos

24.1. La teoría ondulatoria de la luz

La teoría emisionista y corpuscular de la luz de Newton predominó en el XVIII, aun contando con ciertas alternativas como la concepción ondulatoria (Euler) o la que la estimaba como fluido similar al calor.

o A partir del XIX, Young defendió la teoría ondulatoria retomando a Huygens a la que sumó el principio fundamental de la interferencia basada en la periodicidad de los pulsos luminosos, que podía maximizar o minimizar el pulso, para cuya demostración realizó un experimento atravesando con luz las perforaciones de una pantalla que actuaban como focos secundarios y que transmitían un patrón de franjas al otro extremo que revelaba estas interferencias destructivas y constructivas.

o Con escasa acogida al principio entre las ideas emisionistas del momento, la teoría ondulatoria acabaría con el tiempo afirmándose en Francia.

La escuela laplaciana, por entonces, estaba empeñada en el modelo newtoniano de las fuerzas centrales y moléculas de materia para explicar todos los fenómenos, incluyendo fluidos imponderables como la luz, el calor, la electricidad o el magnetismo, constituyendo el modelo estándar de la física.

o Laplace investigó la refracción atmosférica y su discípulo Malus la doble refracción o birrefrigencia.

o Ésta ya había sido constatada por Bartholin en el espato de Islandia, y Newton la había explicado diciendo que los rayos de luz tendrían “lados”, pero Malus descubrió que esta propiedad se podía adquirir por reflexión según el ángulo de incidencia, y la denominó polarización, explicándola como orientación transversal de los corpúsculos luminosos, lo que Biot desarrollaría fundándola en la oscilación transversal de los corpúsculos.

Fresnel ganó un premio sobre difracción, formuló independientemente el principio de interferencia de Young desde la teoría ondulatoria, y trabajó sobre la aberración de la luz:

o Desde la teoría corpuscular se explicaba como composición de velocidades, de la luz del astro observado y de la Tierra, mientras que Young suponía que el éter, asiento de las vibraciones luminosas, permeaba completamente la materia sin participar de la velocidad del telescopio.

o El ángulo de refracción debería variar entonces al observar un objeto terrestre o una estrella, y la diferencia debería ser del orden v/c (constante de aberración), que F. Arago intentó medir sin éxito.

o Con la idea de Young de la variación del índice de refracción de los cuerpos transparentes con la concentración de éter, Fresnel descubrió la adecuación de los resultados si se consideraba que los cuerpos arrastraban en su movimiento algo de éter proporcional al cuadrado de su índice, lo que acabó conociéndose como coeficiente de arrastre y que fue empíricamente confirmado por Fizeau.

Page 60: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 60

o Con esta dependencia de segundo orden, no era posible percibir el movimiento de la Tierra respecto del éter si no era con algún elemento dependiente de su cuadrado, lo que no se encontraría hasta finales de siglo.

Arago y Fresnel encontraron que dos haces de luz polarizados entre sí no mostraban interferencias lo que condujo a Young a descartar las vibraciones de la luz en la dirección de propagación (como el sonido) y a considerarlas transversales a ella (como la de una cuerda), alineadas en la misma dirección perpendicular en el caso de un rayo polarizado.

o Con esta última idea la teoría de Fresnel era capaz de explicar todos los fenómenos ópticos, incluida la birrefringencia, pero requería de que el éter se comportase rígidamente como un sólido elástico, sin mostrar por otro lado resistencia alguna a ser atravesado, lo que condujo al desarrollo de diferentes y extraños modelos mecánicos de éter.

o Desde otro punto de vista, Stokes lanzó la idea de que el arrastre del éter por parte de la Tierra sería total, haciendo imperceptible el movimiento en la superficie y explicando la aberración por la disminución progresiva del arrastre con la altura sobre la superficie.

La teoría ondulatoria triunfó sobre el programa laplaciano:

o Dulong y Petit desafiaron la teoría del calórico con un modelo vibratorio.

o Fourier renunció a sus fundamentos microfísicos.

o Ampère rechazó con su electrodinámica los fluidos de la electrostática y la magnetostática.

o Fizeau finalmente sometió a experimento la disputa entre la teoría corpuscular, que sostenía que la luz viajaría más rápida en los medios más densos, y la teoría ondulatoria, que sostenía lo contrario, fallando a favor de esta última.

24.2. Primeras investigaciones en electrodinámica

Oesterd dio a conocer un experimento que relacionaba magnetismo con corriente eléctrica, de forma quizá casual, al acercar una aguja imantada a un alambre por el que circulaba corriente a partir de la pila voltaica.

o La aguja se orientaba de forma diferente al aproximarla por un lado u otro del circuito, y lo hacía más con el incremento de la intensidad de la corriente y la reducción de la distancia.

o Oesterd influido por Kant y por la Naturphilosophie pensaba que electricidad, magnetismo, calor y luz eran manifestaciones del conflicto de fuerzas atractivas y repulsivas fundamentales.

Asimilaba de este modo el comportamiento de la pila de Volta como si fuera una botella de Leiden que restaurase su desequilibrio automáticamente provocando descargas continuas.

Coherente con la teoría de los dos fluidos, Oesterd estimó que las perturbaciones acaecidas por el conflicto de fuerzas no se limitaban al conductor sino que se propagaban por el espacio circundante en círculos transversales al mismo.

o Biot y Savart hallaron que la fuerza que estas corrientes ejercían era perpendicular a la corriente del mismo y que variaba inversamente con el cuadrado de la distancia.

o Ampère comprobó que dos corrientes paralelas se comportaban entre sí como dos imanes, atrayéndose si iban en el mismo sentido y repeliéndose en caso contrario, obteniendo la ley matemática que expresaba esas fuerzas.

Page 61: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 61

Su objetivo era reducir todas interacciones magnéticas a las corrientes eléctricas, emulando los imanes como espiras de corrientes.

Con una idea sugerida por Fresnel, supuso que en los cuerpos magnéticos esas corrientes se darían a nivel molecular, y sus efectos se expandirían por un éter neutro compuesto de los dos fluidos eléctricos, positivo y negativo, cuyas vibraciones constituirían la luz.

No obstante su tratado redujo finalmente las suposiciones limitándose a sostener el carácter fenoménico de su ley de fuerzas que hacía corresponder electricidad y magnetismo.

Poisson había publicado una teoría del magnetismo basada en los fluidos magnéticos de Coulomb y Ampère demostró la equivalencia de dicha teoría con la suya propia al evidenciar que una superficie de elementos magnéticos era equiparable a una corriente circulando por el contorno de dicha superficie lo que se conocería como teorema de Ampère.

Maxwell habló de Ampère como el Newton de la electricidad por su indagación inductiva, aunque su reducción del magnetismo a la electricidad y su hipótesis de las corrientes moleculares no fue generalmente aceptada.

Al otro lado del Canal de La Mancha, M. Faraday realizó una exploración alternativa al margen de las limitaciones de la física matemática y las hipótesis microfísicas.

o Al rebufo de Davy, su formación inicial fue química – particularmente electroquímica – aunque ha pasado a la historia por ser el primer artífice de las teorías de campos.

o Con las noticias de Oesterd, Faraday se puso a experimentar hallando pronto la rotación electromagnética, que a la inversa del descubrimiento de aquel, implicaba que una corriente eléctrica giraba en torno a un imán.

Esta experiencia encajaba con la teoría de Ampère, pero Faraday no estaba de acuerdo con sus ideas y métodos de trabajo: de ascendencia baconiana, la ciencia del inglés estimaba que la práctica debía guiar la teoría, y para ésta lo único que se revelaba era el carácter rotatorio de la fuerza, y no el carácter central que le suponía Ampère.

Ampère consideraba que la idea de Faraday no permitiría que el fenómeno pudiese ser sometido al análisis matemático, por lo que había que partir de las interacciones entre los elementos del hilo y del imán.

o La inducción electromagnética por la que un imán – o una corriente – puede generar una corriente eléctrica no se mostró posible hasta que Faraday halló que sólo era posible cuando se abandonaban la situación estacionaria y se hacía variar la corriente (por conmutación, o por movimiento del imán con respecto al conductor).

Faraday explicó este fenómeno a través de un estado electrotónico de tensión que perduraría mientras circulara la corriente estacionaria, y que se relajaba al conmutarlo: al alterar en cualquier sentido ese estado electrotónico se creaba una corriente.

Experimentó también que el estado inducido se extendía más allá del material del imán, como se podía comprobar con limaduras de hierro dispuestas en líneas en la dirección de la fuerza magnética.

Page 62: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 62

También constató que la electricidad, el magnetismo y el movimiento se disponían perpendicularmente conforme a un producto vectorial.

En posteriores experimentos descubrió que al ser atravesadas las líneas magnéticas por un conductor se generaba en éste una corriente eléctrica, lo que contradecía su idea sobre el estado electrotónico lo que le condujo a buscar una teoría sobre las líneas de fuerza.

o No obstante, la noción de estado electrotónico le fue útil en sus investigaciones electroquímicas en las que experimentó que la corriente voltaica descomponía el agua y otras sustancias lo que le hizo pensar, junto con Davy, en que las afinidades químicas eran de naturaleza eléctrica.

La descomposición de la sustancia se daba en toda ella, y no sólo en torno al cátodo y al ánodo, siendo además proporcional a la cantidad de corriente.

Lo interpretó como la propagación de un estado de polarización.

o Reinterpretaba así la electricidad no como un fluido sino como un estado de tensión, de polarización, que se transmitiría por contigüidad y no por fuerzas ejercidas a distancias superiores a las que separan las partículas de un cuerpo y sus adyacentes.

Con esto no podía existir una carga aislada, encontrándose siempre a pares, y relacionando las electricidades estática y dinámica hasta el momento tratadas por separado.

Las sustancias conductoras y las aislantes, a las que Faraday llamó dieléctricos, no mostraban diferencias esenciales sino una mayor o menor capacidad inductora específica.

Análogamente a las magnéticas, la inducción eléctrica seguía ciertas líneas que denominó líneas de tensión o de inducción eléctrica, en referencia a la sucesiva polarización de las partículas a lo largo de la línea.

El comportamiento de los vacíos intersticiales entre partículas como parte del conductor o del dieléctrico apuntaba a la existencia de fuerzas a distancia, pero Faraday se resistía a aceptarlas, para lo que recuperó los átomos de Boscovich considerando a la materia un plenum de fuerzas.

o Realizando experimentos sobre la rotación del plano de polarización de la luz al atravesar una sustancia en estado electrotónico fue cuando por primera vez Faraday se refirió a la noción de campo como el estado del espacio entre los polos de un imán.

En analogía con los dieléctricos, Faraday denominó diamagnéticos a los malos conductores del magnetismo, paramagnéticos a los favorables, y ferromagnéticos a los que, como el hierro, eran capaces de retener el poder magnético.

o A diferencia de Ampère, Faraday pretendía que sus concepciones surgiesen de los experimentos y estaba dispuesto a cambiarlas cuando entrasen en contradicción con sus resultados, lo que explica la vaguedad de sus ideas que nunca llegó a matematizar.

También se ha señalado que habría estado influido por concepciones metafísicas de la Naturphilosophie que le habrían hecho creer en la unidad e interconvertibilidad de todas las fuerzas, lo que Faraday intentó conectar en sus últimos años con la gravitación y parecía ya preceder el principio de conservación de la energía.

Se ha detectado en Faraday cierta postura antinewtoniana sobre las fuerzas a distancia que teóricamente se ejercerían instantáneamente: en su concepción, la transmisión por

Page 63: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 63

contigüidad debía llevar un tiempo, corroborando la existencia de líneas de fuerza, aunque nunca llegó a contrastar ese efecto de retardo experimentalmente (igual a c).

Nuevos desarrollos se dieron, como el de Poisson que, dentro del programa de Laplace, elaboró una teoría electrostática basada en Coulomb que extendió al magnetismo, jugando con los fluidos eléctricos y magnéticos que integrados a nivel microfísico daban cuenta de los valores macroscópicos.

o En lo referente a la electrostática, Poisson introdujo dos aspectos destacables:

Supuso que con una libre distribución del fluido eléctrico, éste se dispondría por equilibrio de fuerzas repulsivas en una densidad superficial de carga.

También tomó de Lagrange la función potencial con cuyas derivadas parciales se obtenía la fuerza ejercida en cada punto.

o Fourier, por otra parte, difiriendo del programa laplaciano, había obtenido una ecuación diferencial que daba cuenta de la conducción del calor, sin atender a los modelos microscópicos.

Su ecuación, independiente de la naturaleza del calor que se tomara, se basaba en dos datos experimentales: que la tasa con la que un cuerpo que pierde calor es proporcional a la diferencia de temperaturas entre él y el medio; y que el calor radiante no tenía capacidad de penetración.

Expresó esto como una transmisión de un flujo de calor a través de una superficie reduciendo las partículas o moléculas a elementos infinitesimales.

o Laplace ya observó que el mismo tratamiento matemático podía darse a la gravitación que al calor, pero Poisson, apreciando la analogía entre ecuaciones de flujo de un fluido y su magnetostática, no podía deducir fenómenos sin partir de hipótesis basadas en interacciones moleculares, lo que no fue problema para W. Thomson – después Lord Kelvin.

Thomson presentó un trabajo que exponía la analogía entre temperatura y potencial electrostático (cantidad), siendo así el flujo de calor comparable a las fuerzas eléctricas (intensidad), aunque esta analogía era más débil (ésta variaba bruscamente entre dos dieléctricos diferentes mientras que aquel era constante entre dos medios de distinta conductividad térmica).

Familiarizado después con las ideas de Faraday, Thomson mostró la equivalencia entre estas ideas y la teoría electrostática, y presentó una formulación matemática de la tensión electrotónica de Faraday de forma positiva, independiente de cualquier hipótesis sobre la naturaleza de la electricidad.

o Thomson encontró una nueva analogía entre las fuerzas eléctricas, magnéticas y galvánicas (electromagnéticas) con la mecánica de los sólidos elásticos, lo que le condujo a una teoría mecánica del éter capaz de explicar los fenómenos eléctricos, magnéticos y luminosos en una concepción unificada.

o Por entonces, Ohm daba a conocer su ley que vinculaba la fuerza electroscópica (tensión de la batería), la intensidad de la corriente y la resistencia del conductor, estableciendo una analogía con la conducción del calor por contigüidad de Fourier.

o Por su parte, Neumann trabajó sobre la inducción electromagnética.

Partió de la ley de Lenz según la cual el sentido de la corriente inducida en un conductor en movimiento por otra corriente o un imán es tal que la fuerza electrodinámica

Page 64: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 64

generada se opone al movimiento, ley que conectaba las fuerzas electrodinámicas de Ampère con la inducción de Faraday.

Neumann quiso obtener una formulación matemática independiente de la hipótesis sobre la naturaleza de las corrientes eléctricas que se considerase, obteniendo una ecuación para el potencial del que se derivaban las fuerzas electromotrices entre dos circuitos cerrados.

Abordando este mismo problema, Fechner partió de unas partículas de electricidad que circularían generando la corriente, aunque no obtuvo resultados cuantitativos, lo que sí lograría Weber, el cual corregiría las leyes de Coulomb introduciendo velocidades y aceleraciones, y deduciría la ley de Ampère lo que permitía unificar la electrodinámica con la electrostática. Estos resultados se hallaban en consonancia con los de Neumann.

Finalmente, quedaba por reconciliar con la electrostática la ley de Ohm que había supuesto por analogía con el calor de Fourier que el equilibrio se daba si la carga estaba uniformemente repartida por el conductor, mientras que la electrostática predicaba que se daba cuando la carga estaba en la superficie: Kirchhoff lograría esta reconciliación al identificar a la fuerza electroscópica con el potencial de la fuerza electrostática.

24.3. La teoría de Maxwell

Maxwell realizó un primer trabajo matematizando las concepciones geométricas de Faraday a las que añadió las superficies equipotenciales de Thomson.

o Para ello, empleó la analogía de un fluido incompresible, actuando las cargas positivas y las negativas como fuentes y sumideros respectivamente, lo que también llevó al magnetismo.

La fuerza sería análoga a la velocidad (inversamente proporcional a la sección) y el potencial a la presión.

Los medios dieléctricos y diamagnéticos serían como medios porosos, con una resistencia proporcional a la velocidad.

Las corrientes eléctricas venían representadas por tubos orientados por las líneas de fuerza y de determinada sección, vinculándose con la ley de Ohm y la identificación de la fuerza electromotriz con la diferencia de potencial como ya hiciera Kirchhoff.

o De aquí surgió por analogía la correspondencia entre intensidad y cantidad correspondientes, respectivamente, a fuerza y flujo.

Así distinguió la densidad de corriente eléctrica (J) y la intensidad electromotriz (E), como flujo e intensidad respectivamente, tal y como también hiciera para la inducción magnética (B) y la fuerza magnética (H).

También definió la magnitud de intensidad electrotónica a la que luego sería conocida como potencial vector de inducción magnética (A) para reflejar la tensión de Faraday, lo que más adelante se vio que era una generalización del potencial de Neumann y cuya variación daba la fuerza electromotriz inducida.

o Sus siguientes trabajos pretendieron establecer una verdadera concepción mecánica de los fenómenos del electromagnetismo.

Page 65: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 65

Partió de la idea de Thomson de que los efectos magnetoópticos de Faraday podían explicarse mediante movimientos vorticiales a nivel molecular, cuyo mecanismo fue construyendo como primera aproximación al comportamiento de un medio etéreo.

La corriente eléctrica se debería al movimiento de partículas impulsado por el giro de unos remolinos en torno a las fuerzas magnéticas, y viceversa.

Y sucesivamente, la fuerza magnética H sería la velocidad de superficie de los remolinos, generando una fuerza tangencial (E) si entre dos de ellos se daba una diferencia de velocidad; el potencial vector A se correspondería con el momento de giro de los remolinos y la presión entre partículas daría cuenta del potencial eléctrico.

En una segunda etapa Maxwell introdujo la elasticidad en los remolinos, deformados al someterse a esfuerzos debidos a fuerzas electromotrices, dando así cuenta de la polarización, y de un cierto estado transitorio entre la fuerza electromotriz y la respuesta elástica de los remolinos que generaría una corriente por desplazamiento.

El desplazamiento (D) de la materia es directamente proporcional a la fuerza electromotriz (E) y a la permitividad eléctrica (ε), caso análogo de la permeabilidad magnética (μ) factor de proporcionalidad entre la inducción y la fuerza magnética.

o El aspecto más reseñable del trabajo de Maxwell fue la identificación de la luz como un fenómeno electromagnético.

En el medio elástico ideado, las propagaciones, como Faraday intuyera, se daban a velocidad finita, cuyo cuadrado sería igual al cociente entre la rigidez y la densidad del medio (c=1/√ε0μ0).

Las ondas propagadas era siempre transversales y el valor de esta velocidad coincidía con los experimentados por Kohlrausch, Weber y Fizeau, lo que supuso fundir en uno solo los éteres óptico y electromagnético.

o En su tercer trabajo, Maxwell trató de independizar sus ecuaciones del modelo mecánico poco verosímil que había ideado, para lo que se apoyó en el recién descubierto principio de conservación de la energía y los datos empíricos.

Reconociendo que diversos modelos mecánicos explicarían los mismos fenómenos, sí consideró la realidad de un campo espacial de fuerzas, otorgándola – a diferencia de Faraday – una existencia separada de la materia.

Obviando los modelos mecánicos microscópicos, formalizó sus ecuaciones al estilo lagrangiano, dejando sin resolver la cuestión de la interacción entre materia y campo.

La teoría de Maxwell no recibió una aceptación general entre los físicos británicos, entre los que Thomson le increpaba no contar con una fundamentación mecánica – lo que el propio Maxwell habría deseado – oculta tras del formalismo lagrangiano.

o Quedaba además inconclusa la teoría, que no explicaba la interacción materia-éter ni cómo afectaba el movimiento de ésta con respecto al éter en el campo electromagnético.

o Fallecido a los cuarenta y ocho años, sus seguidores continuaron su trabajo logrando la aceptación británica en dos líneas de trabajo:

o La primera fue la de los modelos mecánicos:

Lodge y Fitzgerald consideraron que el desplazamiento eléctrico no implicaba movimiento de fluido o materia sino un cierto estado de tensión.

Page 66: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 66

Fitzgerald, inspirado por el modelo de éter óptico de MacCullagh, trasladó el análisis óptico al electromagnetismo, suponiendo un éter sólido y rotacionalmente elástico, que explicaba bien la reflexión y la refracción, pero presentaba resistencias a la distorsión bastante inverosímiles, como le ocurriría al modelo de Stokes, tipo jalea, que no permitía asumir las características rotacionales del electromagnetismo.

Helmholtz demostró que un vórtice en el seno de un fluido incompresible y sin fricción no podía ser destruido, lo que condujo a Thomson a pensar primero en átomos de remolino basados en tales vórtices, y finalmente en un éter como esponja de vórtices, como agregado de filamentos – tubos de fuerza – que dada su complejidad fue lentamente desarrollándose y encontrando muchas dificultades.

o La segunda línea fue la del punto de vista dinámico de las ecuaciones de Maxwell, desde el análisis matemático y las consideraciones energéticas.

Maxwell había confirmado la presencia de energía en los campos, pero no llegó a elaborar esta teoría, quedándose en el empleo de potenciales, lo que sí estudió Poynting, comprobando la distribución, disipación y flujo de la energía perpendicular a los campos (E×H).

Junto con Poynting, Heaviside llegó al sorprendente resultado de que un flujo de energía electromagnética no se orientaría a lo largo de un conductor cilíndrico sino de forma radical dirigida al eje, lo que condujo a revisar la teoría de Maxwell y su propagación instantánea de potenciales, eliminando la presencia de éstos y reduciendo las ecuaciones a las cuatro conocidas.

o En el continente, dominaron las tesis de Neumann y Weber hasta que Helmholtz difundió la obra de Maxwell, y partidario de las fuerzas a distancia derivadas de un potencial encontró una expresión matemática que alcanzaba resultados concordantes con las tesis de éstos:

La de Weber era una teoría incompatible con la conservación de la energía, al predecir estados de energía menores a la configuración estable.

Pero la teoría de Maxwell describía a los dieléctricos polarizándose por efecto de la inducción magnética, y al variar dicha polarización, como generadores de nuevos efectos electromagnéticos, lo cual no podía explicarse con la teoría potencial de Helmholtz que sólo estimaba corriente eléctrica en conductores e interacciones a distancia.

Así, su discípulo Hertz investigó este asunto, que tenía la problemática de abordar el débil efecto de la polarización de un dieléctrico (corriente pequeña y breve), lo que resolvió empleando un campo variable cuya frecuencia amplificaría el efecto.

Estos experimentos llevaron a Hertz a constatar la propagación de las ondas electromagnéticas en un dieléctrico como el aire, constatando su interferencia, reflexión, refracción y polarización, y confirmando así la teoría de Maxwell frente a la de su maestro, reformuló sus ecuaciones sin potenciales, y sospechoso de los oscuros conceptos de carga y corriente, las interpretó de forma operativa.

24.4. Los problemas de la electrodinámica

Los problemas que Maxwell dejó pendientes en torno a la interacción entre materia y campo fueron tratados de manera diferente a ambos lados del Canal:

Page 67: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 67

o Para los británicos la materia interaccionaría mecánicamente con el éter, mientras que para los físicos alemanes, los fenómenos surgirían de la interacción de partículas cargadas eléctricamente, idea surgida de la electrólisis: así en 1891 los átomos eléctricos que parecían dividirse en este proceso se denominaron electrones e incluso Maxwell los recogió con explícita displicencia.

o La detección de estos átomos de electricidad se dio a partir de la descarga eléctrica de gases rarificados:

Así le sucedió a Plücker que detectó lo que Goldstein llamaría después rayos catódicos que se interpretaron, curiosamente como un chorro de partículas en Gran Bretaña y como una alteración de éter en Alemania.

El inglés Crookes concibió la emisión de luz como resultado de la colisión de estas partículas cargadas con otras, mientras que Hertz al no experimentar por error efectos electrostáticos sobre los rayos concluyó en que eran ondas longitudinales de éter (coherente con la teoría de Helmholtz).

Su asistente Lenard comprobó la deflexión magnética de los rayos al margen del gas rarificado del tubo, lo que parecía confirmar la teoría del éter, mientras que en Inglaterra Schuster sugirió la analogía del tubo con la electrolisis, e intentó medir sin éxito la relación de carga y masa de los iones.

J. J. Thomson, inspirado en los filamentos vorticiales de Hicks interpretó los átomos unidos por un tubo unitario de fuerza comparable a sus dimensiones, y que separados mantendrían su vínculo como éter fibroso, explicando una gran variedad de fenómenos.

o La teoría corpuscular siguió teniendo en su contra la independencia de la naturaleza del gas y el gran poder de penetración de los rayos, sólo explicable si las partículas eran iguales entre sí y mucho más pequeñas que los átomos, en cuyo interior una carga contraria equilibraría el conjunto.

Thomson, con esta idea realizó deflexiones en los rayos por campos magnéticos y eléctricos hasta determinar la relación entre la carga y la masa en unos 1.600.

Para entonces, Larmor y Lorentz y en menor grado Wierchert ya estaban desarrollando las teorías del electrón, estimando éste por vía diferente una relación de 2.000 entre carga y masa.

A finales de siglo, Larmor trató de reducir el electromagnetismo a la mecánica de los átomos de remolino de Thomson y al modelo de éter óptico de MacCullagh que Fitzgerald ya había interpretado electromagnéticamente.

o Su modelo inicial era dinámico como el de Maxwell, centrado en la mecánica analítica, pero por diversas dificultades lo abandonó introduciendo partículas cargadas que denominó primero mónadas y después electrones, aunque su éter era un continuo indiscernible de la materia: en él, los electrones no serían sino los extremos puntuales de un filamento de éter en rotación radial, es decir, una estructura en el éter, y el movimiento de cargas una ficción cinemática.

o Por su parte, Lorentz elaboró una teoría de mayor difusión, a partir de las ideas de Hemholtz para investigar los fenómenos ópticos a partir de la teoría electromagnética:

Consideró que en el interior de cada molécula habría partículas cargadas, que la polarización era la separación de éstas de la molécula, que se resistiría a ello con una fuerza elástica inherente, e interpretó las interacciones electromagnéticas empleando potenciales retardados.

Page 68: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 68

Con esto separó materia y éter, introdujo las partículas cargadas y estimó el carácter electromagnético de sus interacciones.

o A partir del modelo de éter estacionario de Fresnel, Lorentz dedujo teóricamente el coeficiente de arrastre que aquel predijera, explicando la propagación de la luz como interacción de una onda electromagnética con las moléculas de un dieléctrico que polarizadas emitirían otra a su vez, la cual depende del índice de refracción y a su vez de la permitividad eléctrica.

o Sin embargo, un experimento puso en entredicho la idea de un éter estacionario, sin percibir el viento del éter que en movimiento debería apreciarse.

Michelson ideó un instrumento, el interferómetro, suficientemente sensible como para percibir en caso de que existiera el movimiento absoluto de la tierra con respecto al éter, con una precisión dependiente del cuadrado de la constante de aberración para estimar la de arrastre de Fresnel.

Al no encontrar arrastre alguno, favoreció la hipótesis de una Tierra en reposo respecto del éter y el arrastre total que predijera Stokes, pero un error de cálculo sobre los resultados que esperaba despertó sospechas sobre la validez del experimento.

Antes de repetirlo, volvió a realizar el experimento de Fizeau junto con Morley confirmando su resultado, pero por entonces la alternativa no estaba ya entre Fresnel y Stokes, porque por entonces Lorentz ya mostró que las hipótesis de éste demandaban en realidad un modelo de éter con una componente de movimiento no nulo en la superficie terrestre, sugiriendo que su valor sería demasiado pequeño como para haber sido detectado por Michelson.

Michelson y Morley repitieron el experimento reconociendo las insuficiencias teóricas debidas al desconocimiento del comportamiento éter-materia y que Fresnel había supuesto como de total permeabilidad: al no obtener datos en dos intentos concluyeron en refutar la explicación de la aberración de Fresnel y redujeron la velocidad de la Tierra con respecto al éter a límites que superaban lo perceptible por entonces.

o Para explicar estos fenómenos Fitzgerald se apoyó en la alteración del campo creado por una carga en movimiento que se comprimiría, como había deducido Heaviside como γ=(1-v2/c2)1/2:

Fitzgerald constató que el acortamiento del rayo de luz en la dirección del viento del éter debido a este efecto sería lo que habría impedido observar el efecto, sugiriendo que las fuerzas moleculares se transformasen como lo hacían las eléctricas

Esta hipótesis de “contracción” también sería formulada por Lorentz de forma independiente.

o Lorentz calculó la ecuación de ondas electromagnéticas desde un sistema de referencia ligado al un cuerpo en movimiento respecto del mismo, encontrando que sería la misma que si se suponía un sistema de referencia en reposo respecto del éter transformado por el factor γ, lo que dio lugar a sus famosas transformaciones.

Esto contaba con el éter como un sistema de referencia ficticio en el que las transformaciones no tendrían sentido físico.

Interpretó esto con su hipótesis de la contracción tomando el resultado de Michelson y Morley como consecuencia de la misma, llegando a reconocer el acortamiento del espacio, pero sin interpretar la transformación de los tiempos que suponía hablar ya por entonces de un tiempo local.

Page 69: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 69

o Las fecundas teorías del electrón abrieron sin embargo una crisis en la física al cuestionar sólidos principios de la mecánica, como señalaría Poincaré, como por ejemplo el de acción y reacción inválido en las interacciones unidireccionales entre éter y masa.

No pudiendo de esta forma reducir el electromagnetismo a la mecánica, surgieron intentos como el de Wien de explicar ésta desde aquel.

Las consecuencias de esta interpretación es que la masa, de carácter electromagnético, crecería con la velocidad.

La variación de la inercia con la velocidad pareció ser detectada por un experimento de Lenard y fue confirmada por Kauffmann, con lo que Abraham desarrollaría una dinámica del electrón que tomaría por esférico y completamente rígido, aunque Lorentz seguiría sosteniendo la deformabilidad vinculada a su hipótesis de contracción.

Por entonces Poincaré ya empezaba a hablar de un principio de relatividad, universalmente válido, ofreciendo diversas explicaciones sobre la interpretación del tiempo local.

Einstein publicó un trabajo en el que, como ya intuía Poincaré, aceptaba el principio de relatividad y apelaba a extraer del él sus consecuencias.

o Aunque lo hizo sin conocer las ideas de Poincaré, tuvo conocimiento de sus consideraciones sobre la convencionalidad de la igualdad de duraciones y probablemente de las transformaciones de Lorentz.

o Einstein comenzó advirtiendo la asimetría de la teoría electromagnética: ante el mismo efecto de inducción provocado por el movimiento de un imán o de un conductor, las explicaciones teóricas eran diferentes:

Si se movía el imán, se creaba un campo eléctrico responsable de la corriente.

Si se movía el conductor, se generaba una fuerza electromotriz en el conductor, sin que existiera campo eléctrico.

o La explicación se basaba en el estado de reposo o de movimiento respecto del éter, movimiento que por otra parte no había logrado ser detectado.

o Eliminó estos problemas afirmando el principio de relatividad y el postulado de la velocidad de la luz en el vacío al margen de la velocidad de su fuente emisora, tachando de superflua la teoría del éter y la idea de un espacio y reposo absolutos.

Espacio y tiempo resultaban relativos al observador como consecuencia de la aparente contradicción entre ambos postulados.

Postulado el carácter constante de la luz, espacio y tiempo tendrían que modificarse adaptando la transformación de Galileo de la mecánica clásica a las transformaciones de Lorentz.

Como consecuencia, la mecánica se veía transformada, constituyéndose un límite infranqueable a la velocidad de la luz, o relacionándose la masa con su contenido de energía a través de la famosa ecuación E=m·c2: la vieja mecánica se subsumía en un caso especial de la nueva teoría cuando las velocidades son despreciables frente a la de la luz.

o La constancia de la velocidad también trajo consecuencias sobre la relatividad de la simultaneidad, de forma que en función del punto de vista del observador, dos sucesos que para uno parezcan simultáneos para otro no lo serían: la sincronización se establecería por definición de

Page 70: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 70

que el tiempo que tarda la luz entre A y B es el mismo que entre B y A (lo que en la teoría del éter sólo ocurría en ese medio).

o De sus postulados y la definición de sincronización obtuvo las transformaciones de Lorentz sin recurrir al electromagnetismo.

o Minkowski desarrolló el marco geométrico, a partir de la introducción de Poincaré de una cuarta dimensión dada por i·c·t, obteniendo que el intervalo espaciotemporal era invariante bajo una transformación de Lorentz, y Minkowski lo dotó de sentido físico denominándolo mundo absoluto como verdadera estructura del espacio-tiempo.

o Fuera de Alemania la teoría de Einstein no gozó de especial repercusión, sobre todo en Gran Bretaña donde los modelos de éter eran fundamentales, aunque logró aceptación general a partir de la teoría de la relatividad general de 1916 que extendía a sistemas no inerciales la teoría restringida a los inerciales de 1905.

Page 71: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 71

25. TEMA XXV: LA TERMODINÁMICA Y LA FÍSICA ESTADÍSTICA

Es importante. Se puede prescindir de los desarrollos matemáticos, pero hay que insistir en el estudio de los problemas y de los conceptos

25.1. El predominio del calórico

La teoría del calórico predominó hasta la segunda década del XIX gracias a la escuela laplaciana,

o Con la ruptura con ésta que protagonizó la nueva generación de científicos franceses (Fresnel, Ampère, Fourier,…) el agnosticismo comenzó a cundir sobre la sustancialidad del calor.

o Además, la teoría ondulatoria del calor radiante favoreció que, al aparecer el principio de conservación de la energía basado en la interconvertibilidad entre calor y trabajo, se abandonase rápidamente el calórico que no satisfacía la necesaria concepción mecánica del calor para explicar ese intercambio.

A la teoría sustancialista del calor se oponía todo un agregado de teorías mecánicas (desde las partículas de fuego de Boerhaave, la agitación de átomos, las vibraciones de un éter universal, o el movimiento desordenado de las partículas como en los gases que propuso Bernoulli).

o Un golpe crucial a la teoría del calórico se dio con el trabajo de generación de calor por fricción de B. Thompson, conde de Rumford.

La teoría del calórico sugería que el calor por la fricción de un taladro se producía a expensas del calor fijado en el metal (calor latente), pero Rumford observó que el calor específico de las virutas no había cambiado, lo que indicaba que el calor no era sustancia material sino movimiento.

Aunque no matematizó su propuesta, maduró el modelo proponiendo la existencia de un éter universal que transmitiría el movimiento vibratorio de las partículas de los cuerpos.

o En esta misma línea, Young propuso, en analogía con su teoría ondulatoria de la luz, que el calor radiante podía ser, como la luz, una ondulación del éter, conforme a los experimentos de Herschel que sugerían una vinculación entre transmisión de luz y calor.

o Sobre el calor radiante, ya se conocía desde el XVII la existencia de espejos ustorios que reflejaban la luz y también el calor:

Así experimentó con ellos Pictet que, partidario de la teoría material del calor, explicaba el fenómeno como una tendencia del calor a transmitirse de los cuerpos calientes a los fríos.

Prévost formuló entonces su teoría del intercambio – que heredaría Laplace –, en la que el calórico estaría compuesto de partículas muy sutiles emitidas en línea recta y todas direcciones con tanta mayor velocidad cuanto mayor fuese su temperatura, intercambiándose entre cuerpos tendientes a equilibrar así sus temperaturas.

Herschel descompuso la luz y midió la temperatura de cada uno de los colores, hallando que aumentaba del violeta hacia el rojo, y que la zona más caliente se daba más

Page 72: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 72

allá del rojo: el color era así un tipo de luz invisible con una refrangibilidad menor y también polarizable.

o La difusión de la ambigua teoría del calórico tenía bastante alcance como para soportar y refutar los experimentos anteriores, como hiciera Berthollet al respecto del experimento de Rumford: las limaduras, al estilo de una esponja, habrían liberado calórico por percusión, expandiéndose después recuperando su calor específico inicial.

El modelo de gas que se aceptó durante la primera mitad del XIX siguió siendo el de Newton, aunque las fuerzas inversas con la distancia ahora se atribuían al calórico.

o Para Dalton, irvinista, los gases estaban formados por átomos infinitamente duros rodeados por atmósferas de calórico

Estas atmósferas crecerían al aumentar la temperatura explicando la expansión.

Los átomos de cada sustancia, en función de su tamaño y densidad, tendrían mayor o menor atracción por el calórico, explicando el calor específico.

o En Francia, con Laplace a la cabeza, cundía la idea de que se daba una combinación química del calórico con la materia ponderable, lo que explicaría sus diferentes manifestaciones.

Para él las moléculas de gas estarían suficientemente distantes como para no sufrir efecto gravitatorio, reteniendo el calórico por atracción y repeliéndose por las fuerzas entre partículas de calórico.

La radiación térmica consistiría en la emisión de partículas de calórico que se intercambiaría a una tasa de absorción y emisión en función de la temperatura e independiente de la sustancia involucrada.

o Tanto Dalton como Gay-Lussac descubrieron la ley que liga que para todos los gases a presión constante el volumen se expande igual con la temperatura, a partir de los antecedentes de Amontons y Charles quien ya lo había detectado para los gases solubles.

Dalton estimaba que esta proporcionalidad aumentaba con la temperatura, mientras que Gay-Lussac la suponía constante, lo que fue confirmado por Dulong y Petit experimentalmente.

Se patentizaba así que en los gases se daban las leyes básicas del comportamiento término, al no estar enmascaradas por otras, como las fuerzas intermoleculares dependientes de cada sustancia en el estado líquido o sólido.

Esta idea se reforzó cuando Gay-Lussac halló que los volúmenes de los gases reactivos y los productos guardaban entre sí una proporción numérica simple.

o Delaroche y Bérard realizaron un trabajo para comprobar si todos los gases, al expandirse igual con la misma variación de temperatura, tenían el mismo calor específico:

Su estudio desmintió la suposición de Irvine de que en la combinación química de gases, los calores de reacción se debían a cambios producidos en los calores específicos (sin variación de temperatura, la reacción resultante era combinación de los calores específicos, pero liberando calor debía ser menor).

También demostraron que los calores específicos de los gases no eran iguales.

Pero por error experimental creyeron que el calor específico por peso disminuía con la presión.

Page 73: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 73

o Crawford fue el primero en establecer la diferencia entre calor específico a presión constante (cp) y a volumen constante (cv).

La teoría de Lavoisier y Laplace ya había dado cuenta de este fenómeno, pasando inadvertida.

A volumen constante, todo el calor se invierte en aumentar su temperatura, mientras que a presión constante, una parte se convierte en calor latente para aumentar el volumen.

Así, cp debía ser siempre mayor cv, y su diferencia representa el calor latente de expansión, es decir, el calor necesario para realizar la misma expansión isotérmicamente.

o El cociente entre cp y cv representaba un importante papel en los procesos adiabáticos, es decir, aquellos en los que un sistema termodinámico evoluciona entre estados sin intercambiar calor con su medio ambiente (aislado térmicamente).

La compresión y rarefacción de un gas mostraba este comportamiento, y tenía un especial interés en el estudio de la propagación del sonido.

Newton aplicó la ley de Boyle a este estudio suponiendo que las compresiones y rarefacciones se producían isotérmicamente, lo que le condujo a un valor un 20% más bajo del experimental.

Por encargo de Laplace, Biot realizó un experimento suponiendo que el proceso era adiabático, pero al suponer que cp=cv el resultado fue excesivo.

Finalmente Laplace halló que el valor de corrección era (cp/cv)1/2 y para el caso del aire, gracias a otra feliz compensación de errores, obtuvo el valor de cp/cv = 1,5 próximo al actualmente aceptado de 1,4.

Carnot elaboró en 1824 un trabajo con el que se proponía analizar las máquinas térmicas a partir de una analogía con las máquinas hidráulicas: como el agua, el calórico “caería” entre dos focos de temperatura produciendo trabajo mecánico, lo que desembocaría en su famoso ciclo.

o El trabajo había sido definido por los ingenieros como la elevación de un peso a cierta altura:

Wollaston propuso la generalización de esta definición del trabajo mecánico independiente del tiempo empleado (lo que conduciría a la potencia).

Ewart insistió en esta idea y en la equivalencia (no en la conversión) entre el calor consumido y el trabajo generado por las máquinas de vapor, aun cuando por imperfecciones mecánicas no todo el calor produjese trabajo.

o Siguiendo con la analogía hidráulica y los estudios de su padre, Carnot señaló que en una máquina térmica el calor no debía fluir innecesariamente entre el foco caliente y el frío, – implicando unas condiciones ideales impracticables – y evidenciando que la potencia es independiente de la sustancia de trabajo (H2O en la máquina de vapor) que sólo transporta calórico.

o En el ciclo ideal de Carnot todo el calor absorbido de la fuente de calor y cedido a la fuente de frío se emplea en la producción de trabajo

El rendimiento de esta máquina sería máximo sólo dependiente de la diferencia de temperaturas, y no podría ser mayor, porque en tal caso existiría un móvil perpetuo de segunda especie realimentando el calórico “caído” con el trabajo sobrante.

Page 74: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 74

El proceso sería reversible (o mejor dicho desde una teoría sustancialista del calor, reconvertible): aplicando trabajo es posible extrarer calor del foco frío y cederlo al caliente (como en los frigoríficos).

o Una consecuencia importante que Carnot extrajo fue que la diferencia entre los calores específicos a presión y volumen constantes era idéntica para todos los gases en las mismas condiciones (P, V, T), es decir su calor latente de expansión.

o Otros resultados de Carnot tuvieron que reformularse al observar que el calor no se conservaba, convirtiéndose sólo parte de este en trabajo:

Con la conservación del calórico, se suponía que el cambio de estado (P1,V1,T1 – P2,V2,T2) era sólo dependiente de la diferencia de temperaturas, independientemente del camino PV recorrido.

Sin embargo, más tarde se vería que el calor intercambiado dependía del camino de esa transformación, y que se disculpaba por una variación del calor específico del gas (aumentado cuando disminuye la densidad) confirmado empíricamente por las erróneas conclusiones de Gay-Lussac, Delaroche, y Bérard.

o A pesar de estar sustentado en la teoría del calórico, más delante Carnot dudó de su conservación, reconduciéndose a pensar en la conservación del poder motriz, convirtiendo calor en trabajo, y formulando así el principio de conservación de la energía.

o La obra de Carnot tardó un tiempo en ser aceptada dado su idealismo y el adelanto a la tecnología de su tiempo.

Clapeyron recogió las ideas de Carnot para los tramos isotermos, aunque desconocía la ley de transformaciones adiabáticas: con la ley de Boyle y la de Gay-Lussac relacionó el producto de p y v con una función de la temperatura: p·v=k·(1/α+t), hallando Dalton y Gay-Lussac que α tenía un valor de 1/266.

Poisson formuló la relación p·vγ=cte, con γ=cp/cv, que ya estaba implícita en los trabajos de Laplace.

Aproximando para pequeñas variaciones de temperatura los tramos adiabáticos por rectas, Clapeyron calculó que la relación entre trabajo realizado y calor absorbido era igual a dt/C, siendo C la función de Carnot equivalente a la máxima cantidad de trabajo de que era capaz la unidad de calor cayendo un grado de temperatura, y que crecía lenta y uniformemente con la temperatura: es decir, que hacía menos trabajo cuanto mayor es la temperatura.

25.2. El nacimiento de la termodinámica

A mediados del siglo XIX diversos factores contribuyeron a la simultánea formulación del principio de conservación de la energía.

o El factor más destacado fue posiblemente el de los procesos de conversión que manifestaba la física en diferentes ramas (calor y electricidad por fricción, electricidad y magnetismo, química de la pila voltaica, calor radiante y luz,…).

o Otro factor fue la idea de una fuerza universal subyacente a todos los fenómenos naturales procedente de la Naturphilosophie, y así lo propusieron Faraday, Mayer y Joule.

Page 75: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 75

o Mayer, médico, constató en un viaje en buque que la sangre venosa tenía un color rojo mucho más vivo de lo ordinario:

Interpretó, conforme a Lavoisier y su respiración como combustión, que esto representaba un menor grado de oxidación, debido a la menor necesidad de producción de calor por una menor pérdida de calor al medio ambiente.

Pero como el organismo también producía trabajo mecánico, ligó a éste el calor consumido, haciendo que calor y movimiento fueran interconvertibles, lo que trasladó al reino inanimado.

En suma, Mayer observó que las fuerzas inmateriales eran reales y activas, no consumiéndose en sus efectos, sino persistiendo hasta volverse de nuevo causas (causas y efectos no designan sino diferentes manifestaciones del mismo objeto), conduciéndose hacia la consideración de la indestructibilidad e interconvertibilidad de las fuerzas, como de la materia había mostrado la química.

Con su deficiente formación en física y matemáticas, y su vaga noción de fuerza, las ideas de Mayer pasaron inadvertidas: calculó el equivalente mecánico del calor, interpretando que la diferencia cp – cv era cantidad de calor para expandir el gas a la presión atmosférica y supuso que todo el calor se transformaba en trabajo (cuando en realidad, parte se convierte en calor latente al aumentar de volumen).

Mayer justificó esta suposición a partir de un experimento de Gay-Lussac – que al ser repetido por Joule adoptaría su nombre – en el que la expansión libre de un gas aumentaba la temperatura del espacio vacío lo mismo que disminuía la del espacio en que previamente se hallaba comprimido, sin realizar trabajo alguno.

o Joule comenzó interesándose por los efectos térmicos de la corriente eléctrica como pérdida de potencia

Halló que el calor disipado era proporcional a la resistencia y al cuadrado de la intensidad de la corriente.

Con varios experimentos, demostró que el trabajo mecánico se convertía en calor.

o H. von Helmholtz enunció matemáticamente el principio de conservación de la energía a partir de la imposibilidad del movimiento perpetuo contra el que ya habían argumentado Carnot y Clapeyron en el contexto de las máquinas términas:

Enunció que la cantidad de trabajo que se obtiene de un sistema alterado por fuerzas centrales es la misma que se necesitaría para restaurar el sistema a su situación original.

Identificó trabajo con fuerza viva (mgh= ½mv2), lo que hizo del potencial no sólo una función matemática de la posición de la que se derivaban fuerzas sino que lo dotó de un significado físico como trabajo “almacenado”, que nunca se destruye sino que sólo se transforma.

Luego se vio que esta conservación no sólo era válida para fuerzas centrales sino para todas las fuerzas que derivasen de una función potencial (como las de la electrodinámica de Weber).

Helmholtz enunció el principio en términos de “fuerza”, pues interpretaba la que luego sería llamada energía potencial como suma de fuerzas de tensión que liberadas contribuirían a la fuerza viva.

Page 76: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 76

Helmholtz generalizó este principio a otros campos (calor, electricidad, magnetismo, electromagnetismo, química y fisiología) reduciendo todos a la mecánica: la fuerza viva se correspondía al calor radiante, al de una reacción química, a la fuerza viva de los campos electromagnéticos o al trabajo mecánico o el calor emanado por los cuerpos vivos, mientras que la fuerza de tensión se correspondía con el calor latente, con las fuerzas de afinidad química, el potencial de los campos electromagnéticos o a las fuerzas químicas de los alimentos (rechazando con Mayer las fuerzas vitales).

W. Thomson, Lord Kelvin, se adentró en la termodinámica formulando la escala absoluta de temperatura:

o Los termómetros venían refiriéndose a una escala de temperatura ligada a la sustancia termométrica particular y su calor específico y dilatación variantes con la temperatura.

El Ciclo de Carnot sin embargo, resultaba independiente de la sustancia de trabajo

La idea de la nueva escala era que una unidad de calor suministrase la misma cantidad de trabajo entre dos grados de temperatura, fuera cual fuera dicha temperatura

Este trabajo se obtenía como la recíproca de la función de Carnot que disminuía al aumentar la temperatura.

La propuesta de Thomson fue definir la temperatura de forma que la función de Carnot fuese constante, y así nacía la escala Kelvin (diferente a la versión actual) que divergía sin embargo de la de los termómetros de gas.

o Thomson no pudo aceptar la interconvertibilidad entre calor y trabajo mecánico del estudio de Joule

Admitía por la evidencia de sus experimentos que el trabajo provoca calor (fricción) pero creía como Carnot que era el flujo de calor y no el calor mismo el que podía generar trabajo en una máquina térmica.

La máquina ideal de Carnot distaba mucho del rendimiento de las reales, especialmente del caso límite de la conducción de calor por un sólido, con rendimiento nulo pues no hay trabajo: creyente en el principio de conservación de la energía, no entendía en qué se convertía el efecto mecánico que debería haberse producido y descartaba su extinción.

o Clausius respondió a estos interrogantes de Thomson partiendo de una concepción dinámica del calor: la fuerza viva del movimiento de las partículas de los cuerpos.

Así permitía hacer corresponder trabajo y calor, y logró reconciliar a Carnot y a Joule estableciendo que el trabajo producido correspondía a una transformación de una parte del calor transferido.

El principio de Carnot todavía subsistía, desligándolo de la conservación del calor: el trabajo dependería exclusivamente de la diferencia de temperaturas.

Así formuló por primera vez el segundo principio de la termodinámica: es imposible que exista un proceso cuyo único resultado sea la extracción de calor de una fuente a cierta temperatura y logre que lo absorba otra fuente a temperatura más elevada.

o Rankine dedujo algunos resultados de Clausius a partir de una concepción mecánica del calor en términos de vórtices moleculares, convirtiendo plenamente a Thomson a la teoría mecánica del calor, y reformulando el principio de Clausius en términos del móvil perpetuo de segunda especie.

Page 77: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 77

o Thomson así demostró que fuera de situaciones ideales como las del ciclo de Carnot, en la naturaleza los procesos son irreversibles, y aunque se cumpla la conservación de la energía, la disipación no se puede restaurar, y de aquí se deduciría que todo el universo estaría abocado a una muerte térmica extinguiendo su energía potencial, lo que advirtió junto con Rankine y Helmholtz.

o Joule sugirió a Thomson la adopción como temperatura absoluta de la función de Carnot (C=T/J, siendo C la función, T la temperatura absoluta, y J el equivalente mecánico de calor).

Con ello se resolvía la discrepancia de Thomson entre su suposición de una C constante y la temperatura de los termómetros de gas.

Con esta escala se fijó en -273,15ºC el cero absoluto, que demostraría inalcanzable.

Con estas temperaturas absolutas formuló matemáticamente el segundo principio de la termodinámica (que en el ideal ciclo de Carnot se expresaba como Q1/T1+Q2/T2=0).

o Clausius también abordó la formulación matemática del segundo principio:

Lo hizo en los términos de la equivalencia entre la transformación de calor en trabajo y el tránsito de calor entre dos focos, obteniendo que la integral de Q/T como valor de equivalencia es siempre mayor que 0 en los procesos irreversibles.

También introdujo el concepto de disgregación como dispersión de las partículas de un cuerpo, e identificando la tendencia del calor a debilitar las conexiones entre las partículas, interpretó que en esta tendencia a la disgregación el calor realizaba trabajo.

Con ello definió la magnitud S de entropía como dQ/T exclusivamente dependiente del estado del sistema y no de la transformación hasta él, desglosándola en dos integrales: dH/T dependiente de la temperatura como aumento de calor interno, y dZ como disgregación dependiente de la disposición de las partículas del cuerpo y responsable del trabajo interno y externo.

Así aplicó como Thomson ambos principios al Universo completo, enunciando el primero como “la energía del Universo es constante” y el segundo como “la entropía del Universo tiende a un máximo”.

25.3. La teoría cinética y la física estadística

En la clásica polémica, el atomismo volvió a irrumpir en la física del XIX con el reduccionismo mecanicista y la teoría cinética de los gases, a la que después se sumarían las teorías del electrón, aunque no recibiría respaldo de evidencias físicas hasta finales de siglo. Recibió oposición positivista por parte del energetismo (Ostwald) y del fenomenismo (Mach):

o El energetismo surgió a consecuencia de la conservación de la energía, estaba basado en la termodinámica y en busca de una ciencia unificada, desterraba la figura y el movimiento de la mecánica, y por supuesto la interpretación molecular de la termodinámica.

o El fenomenismo defendía una ciencia descriptiva y predictiva pero no explicativa, restringiéndose a la experiencia expresada en ecuaciones que no admitían ulterior interpretación en términos metafísicos.

D. Bernoulli presentó el primer modelo de teoría cinética de los gases de corte cartesiano frente al modelo newtoniano de fuerzas repulsivas.

o Supuso que las partículas se movían todas a la misma velocidad y sin ejercer fuerzas entre ellas:

Page 78: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 78

La presión sería proporcional al número de impactos con lo que, despreciando el tamaño de las partículas, se seguía la ley de Boyle.

La temperatura sería función de la velocidad de las partículas y a volumen constante resultaría proporcional a su cuadrado, siguiendo la ley de Amontons generalizada después por Gay-Lussac.

o Sin repercusión de las ideas de Bernboulli durante un siglo, Herapath las retomó en un nuevo intento por reducir las fuerzas a distancia de la gravitación a acciones por contacto:

En su modelo la temperatura era proporcional a la cantidad de movimiento de las partículas, obteniendo una ley P · V α T2, lo que le condujo a una extraña escala de temperatura.

Waterson realizó otro trabajo que tampoco tuvo reconocimiento en este aspecto, pero dio paso a los trabajos de Clausius para extender la capacidad explicativa de las teorías cinéticas más allá de las leyes de Boyle y Gay-Lussac.

o Clausius añadió a los movimientos traslacionales, movimientos vibratorios y rotacionales a las partículas, teniendo en cuenta que las moléculas podían tener más de un átomo:

La presión y la temperatura dependerían respectivamente de la velocidad traslacional y su cuadrado (energía cinética), y las otras darían cuenta de los calores específicos, independientes de la temperatura.

Los calores latentes se explicarían como la energía necesaria a aportar para vencer las fuerzas entre las moléculas, con diferentes niveles de interacción desde la vibración en equilibrio de los sólidos hasta la separación completa de los gases.

Matematizando el caso de los gases y despreciando el volumen ocupado por las moléculas y la duración del impacto respecto al lapso de tiempo entre dos impactos, comprobó con precisión empírica que los gases se desivaban en cierta medida de las leyes de Boyle y Gay-Lussac marcando un modelo que denominaría de gas ideal.

Retomando la expresión p·v=k·(1/α+t) de Clapeyron, se pudo sustituir el cálculo de Dalton y Gay-Lussac de α como 1/266 por el más preciso de 1/273,15, es decir, el cero absoluto, y con la propuesta de Avogadro sobre la identidad del número de moléculas de un gas en iguales condiciones se obtuvo la ecuación de estado de los gases perfectos p·v=n·R·T.

Clausius pensaba que las moléculas se movían a velocidades del orden de los centenares de metros por segundo (efectivamente el aire en condiciones normales presenta unos 480m/s) con lo que se le objetó que los gases se difundirían con mucha mayor rapidez de la observada.

Para responder a esta objeción, introdujo el concepto de recorrido libre medio con el que además dio paso a las fuerzas atractivas y repulsivas entre moléculas de largo y de corto alcance respectivamente: la distancia a la que estas fuerzas se equilibrarían definía esferas de acción de las moléculas, siendo el recorrido libre medio la distancia que una molécula recorrería antes de entrar en la esfera de acción de otra, es decir, la distancia media entre choques, inversamente proporcional a la probabilidad de colisión.

Aunque esta distancia era muy grande en comparación con el tamaño de las moléculas, podía ser lo suficientemente pequeña para dar cuenta de la objeción.

Page 79: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 79

o Frente a la postura de Clausius que asignaba a todas las moléculas su velocidad media, Maxwell adoptó un modelo estadístico, según el cual las partículas mostrarían una distribución normal de velocidades similar a la de teoría de errores.

Con esto, Maxwell reutilizó el concepto de recorrido libre medio y halló ecuaciones para los fenómenos de transporte: viscosidad (fricción interna), difusión y conducción del calor que, aunque con poco éxito, llegó al curioso resultado de que la viscosidad o el coeficiente de conducción eran prácticamente independientes de la densidad, como experimentalmente se comprobaría después.

Maxwell formuló el teorema de la equipartición que supone que la energía cinética de un sistema se reparte igualmente en promedio entre todas sus partes, es decir, que la energía se repartiría entre todos los grados de libertad de las moléculas (movimiento traslacional con tres grados, rotacional con otros tres, vibratorios con más…).

El número de grados de libertad (n) se hallaba vinculado a los calores específicos como γ=cp/cv=(2+n)/n, pero la discrepancia entre los resultados experimentales de γ y los modelos de gases no serían resueltos hasta la teoría cuántica.

En otro trabajo, Maxwell refinó los coeficientes de transporte dándose cuenta de que no podía emplear la función de distribución de velocidades en equilibrio térmico para hallarlos: introduciendo fuerzas repulsivas entre las moléculas inversas a una potencia de la distancia tuvo éxito con la quinta potencia con la desaparecía la dependencia de la velocidad relativa entre moléculas que chocaban y además la viscosidad era proporcional a la temperatura absoluta como experimentalmente había comprobado.

Con esto, los coeficientes de transporte se obtenían entonces estudiando cantidades de materia, movimiento, calor,… transferidas a través de un plano imaginario en unidad de tiempo.

o Boltzmann extendió la función de distribución de Maxwell incorporando fuerzas exteriores derivadas de un potencial, demostrando además que la distribución de Maxwell correspondía al estado de equilibrio al que tendería cualquier sistema que no estuviera en él con el transcurso del tiempo.

A partir de aquí formuló una ecuación general para los fenómenos de transporte hallando, como Maxwell, que sólo admitía una solución exacta para fuerzas inversamente proporcionales a la quinta potencia de la distancia entre moléculas.

Los esfuerzos parar resolver culminarían con los trabajos de Chapman y Enskog cuyos resultados independientes coincidieron respectivamente con Maxwell y Boltzmann.

Los dos principios de la termodinámica se concibieron inicialmente como leyes absolutas hasta que Maxwell sugirió que la segunda ley relativa a la entropía era sólo estadística:

o Empleó la paradoja del diablillo de Maxwell, como un ser diminuto capaz de separar en un gas las moléculas más veloces de las menos sin aportar trabajo, abriendo y cerrando a conveniencia una válvula que separaría dos zonas en las que alojarlas

o Al nivel microfísico, el determinismo sobre el movimiento de las partículas seguiría siendo válido, pero el conocimiento limitado para ser capaz de contemplar todas las variables obligaba a recurrir a cálculos estadísticos.

Page 80: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 80

o Boltzmann obtuvo la función E como la distribución de velocidades en el tiempo, que iría convergiendo hasta el mínimo de la distribución de Maxwell (dE/dt≤0), que resultaba igual y de signo opuesto a la entropía, y que sería renombrada como H dando nombre al teorema H.

o Este teorema condujo a la paradoja de la irreversibilidad cuya formulación suele atribuirse a Loschmidt y fue discutida por Maxwell, Tait y Thomson:

Con ella se imaginaba que si se invirtiese el sentido de las velocidades de todos los elementos de un sistema, éste podría regresar a un estadio de entropía menor, de modo que el crecimiento o decrecimiento de la entropía dependería de las condiciones iniciales.

Boltzmann aceptó que un sistema pudiera evolucionar hacia un estado menor de entropía, con una distribución no uniforme, pero las probabilidades de evolucionar en este sentido eran muy pequeñas.

o Esta idea se desarrolló definiendo las posibles configuraciones en el reparto de energía entre las partículas de un sistema como complexiones igualmente probables:

La probabilidad de un estado macroscópico sería igual al número de todas las complexiones microscópicas que lo podrían sostener.

Boltzmann demostró que la entropía S = k · log W, siendo k la constante de Boltzmann y W la probabilidad termodinámica que se haría máxima en el equilibrio, es decir, que el aumento de entropía es la consecuencia de la tendencia de dicho sistema a pasar de estados menos probables a estados más probables.

o El fin del siglo XIX se enfrentó al problema de cómo conciliar la reversibilidad en el tiempo de las ecuaciones derivadas de la mecánica newtoniana con la irreversibilidad afirmada por el segundo principio de la termodinámica.

Poincaré publicó su teorema de la recurrencia por el que un sistema restringido a un volumen finito y una energía total podría evolucionar en el tiempo hasta pasar antes o después por el estado tan próximo al inicial como se quiera.

Zermelo observó que esto implicaba una contradicción: si en ese intervalo la entropía del sistema aumentaba también había de disminuir (lo que empleó en contra de la teoría atómica y no contra el segundo principio).

Por su lado Culverwell señaló que había tantas probabilidades de que un sistema tendiese a la configuración de Maxwell-Boltzmann como que sucediese lo contrario.

Boltzmann respondió reiterando el carácter estadístico del segundo principio, y mostrando que el tiempo de recurrencia podía ser increíblemente largo para sistemas mínimamente complejos.

Hawksley Burbury formuló la idea que tentativamente aceptó Boltzmann de que la aleatoriedad se introducía gracias a la existencia de un “desorden molecular” en la base de la prueba del teorema H: para preservar la aleatoriedad de las colisiones es preciso “realeatorizar” su trayectoria precedente a una nueva colisión, lo que conduce al problema de la fundamentación de la flecha del tiempo introducida en la física por la entropía.

Page 81: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 81

25.4. La radiación del cuerpo negro y el nacimiento de la teoría cuántica

Cuando Zermelo planteó su paradoja de la recurrencia era ayudante de Planck quien también creía en la validez absoluta del segundo principio, aunque a diferencia de aquel, estimaba que era posible encontrar una fundamentación mecánica si se abandonaba el modelo corpuscular de los gases por una mecánica del continuo.

o Escéptico del análisis estadístico, creía que la irreversibilidad debía ser introducida ya a nivel microscópico, y la creyó encontrar en el comportamiento electromagnético de un resonador que vibra con una onda diferente de la que le ha excitado.

o Su aproximación se centraba en el electromagnetismo porque con la evolución de esta disciplina, la tradicional mecánica parecía verse reducida a aquel, lo que le llevó a estudiar la radiación del cuerpo negro.

Un cuerpo negro es un objeto ideal capaz de absorber todas las radiaciones que recibe cualquiera que sea su frecuencia, y de emitirlas en función de la temperatura a que se encuentre.

o Kirchoff halló la ley que lleva su nombre y que reza que para rayos de la misma longitud de onda y a la misma temperatura, todos los cuerpos tienen la misma razón entre su poder de emisión y su poder de absorción.

o Esta se expresa como eλ/aλ=Kλ (T), es decir, la energía con la que el elemento radia en un intervalo de longitudes entre la energía incidente entre esas mismas longitudes de onda es capaz de absorber es igual a una función de distribución de la energía que depende exclusivamente de la longitud de onda y de la temperatura absoluta.

o Stefan demostró experimentalmente que la densidad de radiación era proporcional a la cuarta potencia de la temperatura (u=σ · T4, siendo σ una constante universal), y Boltzmann la demostró teóricamente.

o Wien obtuvo una ley para la distribución de la densidad de energía en función de la longitud de onda uλ=λ−5 · φ(λΤ) – siendo φ(λΤ) desconocida – y de ella obtuvo su ley de desplazamiento: la longitud de onda λm a la que la radiación de un cuerpo negro es máxima cumple que λmΤ es constante.

De este modo se evidenciaba que el máximo de la curva de distribución se desplazaba hacia longitudes de onda más cortas a medida que aumentaba la temperatura.

La función φ(λΤ) la resolvió a partir del análisis de Michelson que aplicaba a las moléculas del cuerpo negro la ley de distribución de velocidades de Maxwell para las moléculas de gas.

Wien supuso que la longitud de onda y la intensidad de radiación emitida por la molécula eran funciones de su velocidad y así obtuvo que la función era de tipo exponencial, lo que concordaba bastante bien con la expresión que Paschen había obtenido a partir de los resultados de laboratorio.

Planck proponía un modelo del cuerpo negro constituido por un conjunto de resonadores en interacción con un campo electromagnético.

o Los resonadores se amortiguarían al radiar energía y responderían lentamente a las variaciones en el campo externo, eliminando sus fluctuaciones y tendiendo a un equilibrio.

Page 82: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 82

Boltzmann criticó este modelo porque la interacción entre resonadores y el campo debía estar gobernada por ecuaciones reversibles, y la unidireccionalidad del proceso se debía a las condiciones iniciales especiales que Planck había supuesto.

Con ello, Planck comenzó a renunciar a sus convicciones para adoptar el camino de Boltzmann.

o Planck introdujo su idea de radiación natural análogo al caos molecular de la mecánica estadística, y que implica que en la naturaleza no se da una radiación monocromática pura, sino que la energía se reparte de forma irregular entre diversas frecuencias.

Halló el equilibrio en una expresión que relacionaba densidad de energía del campo con la energía media del resonador (dependiente de la frecuencia y la temperatura).

También definió la entropía electromagnética mediante una expresión logarítmica similar a la de Boltzmann y con ella una expresión de su energía y de la distribución de la intensidad de radiación del campo con la misma forma que la ley de Wien.

o Pero la ley de Wien, precisamente en ese instante, se estaba viendo cuestionada en las bajas frecuencias, lo que Planck pudo resolver modificándola de manera ad hoc a los nuevos resultados, con una expresión coherente con la observación.

Para justificarla teóricamente, Planck recurrió como Boltzmann a la estadística.

Planck cambió su parecer sobre la independencia entre resonadores y la distribución igual de energía entre ellos, y buscó maximizar la entropía correspondiente investigando la posible distribución de energía.

Para ello, supuso que la energía total venía determinada por un número finito de contribuciones ε=h · ν (donde h era la constante de Boltzmann, que Planck denominó cuanto de acción como energía en un tiempo dado, y que hoy se llama constante de Planck) pues si la energía se consideraba infinitamente divisible – continua – el número de distribuciones posibles sería infinito.

Boltzmann introdujo técnicas combinatorias propias de la estadística y también tuvo que dividir la energía en cantidades discretas, pero una vez obtenida la expresión como suma de términos, la transformó en integral de intervalos.

o Conduciendo al mismo resultado había dos posibilidades conceptualmente muy diferentes: O bien la energía de cada molécula estaba cuantizada en valores discretos de ε, o bien adoptaba cualquier valor entre los intervalos 0 y ε, e y 2ε, etc.

o Boltzmann tenía una concepción continua de la energía que se decantaba por la segunda opción, y así pareció que inicialmente Planck se posicionó.

Boltzmann partió la energía en celdas de tamaño arbitrario asignando a cada una de ellas las moléculas con la energía correspondiente.

Pero Planck dividió la energía en celdas de tamaño proporcional a la frecuencia de radiación y, al revés que Boltzmann, las asignó a cada resonador, haciendo que la energía apareciese cuantizada, aunque durante un tiempo esto se vio como un artificio requerido para el cálculo estadístico y no como la ruptura con la física clásica que supondría.

Lord Rayleigh, después de haber criticado la ley de Wien, consideró los posibles modos de vibración del campo electromagnético dentro de la cavidad del cuerpo negro.

Page 83: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 83

o A continuación aplicó el teorema de la equipartición, repartiendo la energía entre todos los modos, y llegó a una expresión para la densidad de la energía en función de la longitud de onda y la temperatura.

o De forma ad hoc para adaptarla a las longitudes de onda cortas, Lord Rayleigh propuso multiplicarla por el factor exponencial de la ley de Wien, y corregida por un error de deducción por Jeans, dicha ley se conoció como ley de Rayleigh-Jeans.

Esta ley encajaba para bajas frecuencias con los resultados, pero predecía que en las altas frecuencias la energía emitida debía ser proporcional al cuadrado de éstas, lo que implicaba enormes cantidades de energía.

Al calcular la cantidad total de energía radiada, la energía se hacía infinita, cuestionando los postulados de la conservación de la energía.

Los experimentos para medir la radiación a bajas frecuencias arrojaron resultados acordes con la teoría; pero ésta implicaba que todos los objetos estarían emitiendo constantemente radiación visible, es decir, que actuarían como fuentes de luz todo el tiempo lo que era evidentemente falso.

Entretanto Ehrenfest señaló un punto débil de la demostración de Planck que quizá éste habría advertido independientemente.

o Los resonadores intercambiaban radiación con el campo a una frecuencia determinada, con lo que se aumentaba la entropía hasta el máximo a esa frecuencia, pero, ¿cómo cómo se alcanzaba la relación de equilibrio entre distintas frecuencias?

o Esto cuestionaba el papel de los resonadores, pero Ehrenfest demostró que los resonadores no eran necesarios:

La definición de entropía de Boltzmann aplicada a la cavidad daba la ley de Rayleigh-Jeans.

Si se suponía que la energía de las vibraciones estaba cuantizada, se obtenía la distribución de Planck.

o La principal novedad estaba en la hipótesis de la existencia de unos cuantos para la radiación:

Einstein propuso emplear la ley de Wien (que inspirada en el modelo de un gas encajaba con los datos experimentales para altas frecuencias) como un “principio heurístico” y extenderlo a todas las frecuencias.

Con esto, la entropía no se comportaría como la correspondiente a las ondas, sino como la correspondiente a las partículas, que recibieron el nombre de fotones más adelante.

o La comunidad de físicos tardó en reconocer que si la ley de distribución de Planck era correcta – a lo que urgían las mediciones de laboratorio – entonces había que aceptar una cuantización incompatible con la mecánica clásica de consecuencias imprevisibles: se abría el camino a la construcción de una nueva física.

Page 84: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 84

26. TEMA XXVI: EL DESARROLLO DE LA QUÍMICA: ÁTOMOS Y MOLÉCULAS

Estudiar el primer apartado, la teoría atómica. Al resto del tema, una lectura para hacerse una idea general.

26.1. La teoría atómica y las leyes de la combinación química

J. Dalton llegó a la química a través de la meteorología en la que estudió el vapor de agua, encontrando que los gases se expandían igualmente con el incremento de la temperatura:

o En su investigación se convenció de que el aire no era una combinación química de gases sino una mezcla, en la que se cumplía le ley de las presiones parciales: la presión de una mezcla es la suma de presiones parciales.

o Atribuyó este fenómeno a un modelo newtoniano de fuerzas repulsivas que sería selectivo entre los átomos (algo que sólo sería entendido en la teoría cinética de gases) en función de las diferentes estructuras que presentarían las atmósferas de calórico que los rodearían.

o Recogió la ley de proporciones definidas de Proust y la ley de proporciones equivalentes de Richter (cuyo campo de investigación bautizó como estequiometria) y encontró la ley de proporciones múltiples, según la cual dos elementos que puedan dar lugar a diferentes compuestos mantienen entre las cantidades involucradas de los mismos una relación numérica simple.

o El problema de Dalton era la determinación de los pesos atómicos: desconocía el número de átomos de cada sustancia que entraban en la composición de la molécula: Partió del supuesto de sencillez de que cada compuesto estaba formado por un átomo de cada elemento (AB), y en caso de poder darse más, el siguiente mantendría la ley de proporciones múltiples más sencilla (AB2).

o Por su parte, Gay-Lussac había encontrado la ley volumétrica de proporción: el volumen del producto es menor o igual que el de los reactivos, y guarda siempre una relación numérica simple.

Esta ley apuntaba a que la hipótesis de Avogadro era cierta: que todos los gases en las mismas condiciones termodinámicas presentaba el mismo número de moléculas (que a su vez podrían dividirse en moléculas elementales – no llegó a llamarlas átomos).

Esta hipótesis, aunque resucitada por Ampère apenas había merecido atención, hasta que vino a servir para reconciliar la teoría de Dalton y la de Gay-Lussac.

Pero Dalton no podía aceptarla: suponía admitir que sus “átomos” podían dividirse, lo que implicaba considerar la existencia de moléculas diatómicas, imposibles de concebir con las fuerzas repulsivas que se suponían entre átomos del mismo elemento.

o Dulong y Petit encontraron que el producto del peso atómico por el calor específico de muchas sustancias era el mismo (lo que Regnault evidenciaría como sólo una aproximación), e interpretaron que esas sustancias tenían la misma capacidad para el calor: Así se podían determinar los pesos atómicos, y dar apoyo a la teoría de Dalton cuando la química francesa aún estaba presa de las ideas de Berthollet sobre la ausencia de proporciones definidas.

o Otra ley, la de Mitscherlich sobre el isomorfismo, también sirvió de respaldo a la teoría de Dalton al confirmar que la estructura cristalina de diferentes sustancias era análoga a su fórmula química.

Page 85: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 85

o Los químicos comenzaron a elaborar tablas de pesos atómicos, aún con la incertidumbre de no poder distinguir entre moléculas y átomos, oponiéndose Dalton a la hipótesis de Avogadro:

J. B. A. Dumas ideó un procedimiento para calcular el peso atómico de elementos que no fueran gaseosos sino líquidos o incluso sólidos fácilmente vaporizables calentándolos, pero al obtener resultados mayores a los esperados, desechó el procedimiento y con él la hipótesis de Avogadro.

Con ello se sucedieron diferentes valores para los mismos elementos, como los de Berzelius, Liebig, y el propio Dumas, alternando además el elemento de referencia (hidrógeno, oxígeno) para calcular los demás, e incluso el intento de Wollaston de restringirse a los pesos equivalentes resultado del análisis ofrecían también cantidades distintas fruto de las diferentes valencias con las que un átomo puede comportarse.

Finalmente se impuso el sistema de notación de Berzelius que era compatible con la hipótesis de Avogadro, aunque con el descubrimiento de Dumas muchos optaron por emplear equivalentes.

o Finalmente A. Laurent distinguió entre átomos, moléculas y equivalentes de un elemento, haciendo que los primeros tuvieran el menor peso que se podía encontrar en los compuestos, las moléculas fueran las unidades menores que podían entrar en reacción, y los pesos equivalentes variaban según esa reacción, reconociendo la existencia de moléculas diatómicas.

o Prout formuló una hipótesis que muchos químicos consideraron válida sugiriendo, a partir de los pesos atómicos de Dalton la idea de que el hidrógeno constituiría la materia prima de todos, aunque esta idea fue rechazada por Berzelius cuyos pesos atómicos no concordaban con ella (pues entonces aún se desconocían los isótopos, que variando los neutrones alteraban el peso).

La pila voltaica tuvo al principio más repercusiones en la química que en la física, como se manifestó en la electrólisis que inventaron Nicholson y Carlisle, y en la que curiosamente el hidrógeno se liberaba en el polo negativo y el oxígeno en el positivo a diferencia de la descomposición con electricidad estática:

o Berzelius y Hisinger comprobaron que en la descomposición de sales ácidos y bases también tendían a los polos negativo y positivo respectivamente.

o Davy fue corrigiendo la teoría de la acidez de Lavoisier al encontrar ácidos sin presencia de oxígeno, pero al plantearse que el agente de acidez fuera el hidrógeno resultaba que no todos los elementos que lo contenían eran ácidos.

o Junto con Davy, Berzelius estimó que ya que las fuerzas de afinidad se rompían con la electricidad debían ser de la misma naturaleza desarrollándose lo que se conoció por una teoría dualista:

En ella los átomos se hallarían polarizados, y se dividirían en electropositivos y electronegativos según se acercasen al polo positivo o negativo.

Faraday reconduciría la nomenclatura hacia la de aniones y cationes.

o El oxígeno resultó ser el elemento más electronegativo, mientras que otros exhibían un comportamiento diferente según el elemento con el que se combinasen.

o Faraday prosiguió la investigación de Davy y halló que la intensidad de corriente eléctrica en un tiempo determinado liberaba cantidades de elementos proporcionales a sus pesos equivalentes.

Page 86: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 86

26.2. La química orgánica y la evolución de la materia

Todavía a principios del XIX se creía que los compuestos orgánicos sólo se daban en el ámbito de los reinos animal y vegetal, gracias a la acción de la fuerza vital, hallándose la química orgánica entre la química y la fisiología.

o Wöhler, sin embargo, logró sintetizar la urea (aunque ésta ya había sido obtenida previamente sin ser reconocida), lo que se interpretó un tanto exageradamente como el nacimiento de la química orgánica y la muerte del vitalismo en fisiología.

o Estrictamente, la síntesis orgánica a partir de elementos inorgánicos no se daría hasta que Kolbe sintetizara el ácido acético.

o Buscando otros elementos con la misma composición pero propiedades distintas, se sintetizaron otros compuestos orgánicos, siendo denominada esta propiedad “isomería” por Berzelius.

En la teoría de la acidez de Lavoisier los ácidos eran la combinación de radical elemental con el oxígeno, mientras que en los orgánicos, Berzelius consideraba que el radical sería un compuesto ternario o cuaternario.

o Este radical sería en el caso vegetal compuesto por carbono e hidrógeno, añadiendo nitrógeno en el caso animal.

o Para determinar estos radicales se desarrolló el procedimiento analítico por combustión, empleado por Lavoisier y desarrollado por Gay-Lussac, Berzelius y Liebig, pero la determinación de radicales fue haciéndose entre tanteos y con la incertidumbre de los pesos atómicos.

o La perspectiva cambió con el caso de las velas humeantes, que desprendían en el palacio de las Tullerías un humo particularmente irritante, lo que investigado por Dumas se reveló como un fenómeno de sustitución: el cloro con el que se habían blanqueado las velas habría sustituido al hidrógeno de la cera, desprendiéndose como cloruro de hidrógeno.

Dumas elevó este proceso a ley empírica, que Laurent su ayudante llevaría aún más lejos, considerando que los radicales serían fundamentales y derivados, guardando los primeros una geometría en la que los átomos ocuparían posiciones definidas.

Desde la teoría dualista, la sustitución del hidrógeno electropositivo por el cloro electronegativo no se veía bien, aunque al margen de estructuras, Dumas reconocería la existencia de tipos de radicales.

o Gerhardt propuso su teoría de residuos según la cual la tendencia a producir determinados compuestos inorgánicos estables – como el agua – haría que sobrasen residuos de los reactivos que se combinarían entre sí (aunque Gerhardt consideraba que las fórmulas expresaban el comportamiento de un compuesto y no su constitución misma).

o Poco a poco fueron sumando diferentes radicales como el tipo amoniaco de Hofmann, el hidrógeno o el ácido clorhídrico de Gerhardt o incluso el agua, como tipo fundamental de Williamson.

E. Frankland formuló la idea de que los átomos tenían capacidades definidas de combinación a las que denominó “atomicidad” y que más tarde sería llamada “valencia”, idea deudora de las leyes precedentes.

o Kekulé hizo dos contribuciones importantes, proponiendo la tetravalencia del carbono (siendo la unitaria la capacidad de combinarse con un átomo de hidrógeno) y la capacidad de combinarse consigo mismo, ideas también sugeridas por Couper quien demorado perdió la prioridad.

Page 87: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 87

o Couper comenzó la representación de los enlaces mediante líneas, y Butlerov reconoció que en esta disposición de átomos residían las propiedades de las sustancias orgánicas.

Con esta propuesta las cadenas acíclicas se fueron resolviendo fácilmente (alcanos, alquenos, alquinos) mientras que las cíclicas como el benceno resultaban problemáticas.

Kekulé resolvió el problema cerrando la cadena en una estructura hexagonal típica de los compuestos aromáticos, y además evidenció que con estas estructuras se explicaban las isomerías.

o El siguiente paso fue la conversión de la química estructural en estereoquímica, como extensión del estudio a las tres dimensiones, explicando nuevos casos de isomería como los que estudió Pasteur entre el ácido tartárico y racémico en la polarización de la luz, y que fue explicada por la estructura tetraédrica de la geometría atómica del carbono por parte de Van’t Hoff y Le Bel.

Un congreso internacional celebrado con la intención de acordar la formulación de átomos, moléculas y equivalentes, a pesar de no alcanzar el consenso, sirvió para que Cannizzaro resucitase la hipótesis de Avogadro, lo que permitió abordar la clasificación periódica de los elementos.

o Con los pesos de Dalton se habían ido dando diferentes clasificaciones taxonómicas como la de Döbenreiner que vinculaba tríadas de pesos atómicos mediante una media aritmética, o la de Dumas en función de múltiplos y divisores enteros de los pesos.

o Así, Newlands evidenció que ordenados secuencialmente, cada ocho elementos se encontraba una pareja con propiedades similares, con lo que surgió la idea de una periodicidad en el comportamiento de los pesos atómicos crecientes.

o Meyer y Mendeleev, convencidos por Cannizzaro, propusieron definitiva e independientemente en secuencias periódicas agrupadas por sus valencias revelando propiedades químicas similares, dejando en su tabla huecos que predecían la existencia de elementos aún no descubiertos pero de los que se podían predecir propiedades.

o El enriquecimiento de la tabla periódica fue jalonado por la incorporación de las tierras raras (los lantánidos) y de los gases inertes o nobles.

Las tierras raras mantienen comportamientos tremendamente similares lo que dificulta su identificación, y dejan demasiados huecos sin rellenar en la tabla, por lo que se han venido desde entonces tratando aparte.

Los gases nobles vinieron de la mano del descubrimiento del argón por Rayleigh quien había descubierto que el nitrógeno de laboratorio era menos denso que el atmosférico, a la par que Cavendish encontraba que cierta parte del nitrógeno atmosférico no reaccionaba con el oxígeno.

En colaboración con Rayleigh, Ramsay descubrió el argón, y tras él fueron incorporándose los demás que, acogidos al principio con escepticismo, acabaron constituyendo el octavo grupo de la tabla periódica conocido como grupo cero por su valencia nula.

o Hoy, la tabla periódica ya no cuenta con el peso atómico como el principio rector de su orden, sino el número atómico (protones), que básicamente viene a corresponderse con el anterior por ser los protones mucho más masivos que los electrones, descontando los neutrones que dan lugar a los isótopos.

Page 88: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 88

26.3. La fisicoquímica

Aunque los trabajos que vinculaban física y química podrían remontarse hasta Boyle, fueron tres investigadores los que destacaron en su configuración como disciplina: Ostwald, Van’t Hoff y Arrhenius.

o Los campos de indagación contemplaron la termodinámica química, el papel del calor en las reacciones, y el estudio de las soluciones vinculado a la electrólisis, aunque también destacaron el estudio de las propiedades ópticas y la espectroscopía.

o El interés se centró así en las condiciones en las que se producían las reacciones comenzando por la investigación de los calores de reacción.

o Así, Hess formuló una ley de conservación de la energía al señalar que la cantidad de calor liberada en la neutralización de ácidos y bases era independiente del camino seguido, lo que conducía a rechazar la reversibilidad de las reacciones.

o Wilhelmy estudió las velocidades de la reacción, evidenciando que la velocidad era proporcional a la concentración, y de ahí Waagen y Guldberg formularon su ley de acción de masas

Con esta, la velocidad de reacción es proporcional al producto de concentraciones elevadas a un exponente, alcanzando el equilibrio cuando la velocidad de reacción opuesta se igualase.

Así se reivindicaban las ideas de Berthollet frente a la ley de proporciones definidas de Proust.

o Harcourt y Esson estudiaron las velocidades de reacción de segundo orden, en las que intervenían las concentraciones de más de una sustancia, y todas estas aportaciones periféricas fueron recopiladas, desarrolladas y expuestas en la obra de Van’t Hoff.

El estudio de las reacciones llevó también al estudio de las afinidades, que pudieron medirse a través de la presión osmótica que ya había observado el abate Nollet: esta presión es la que hace que la concentración de una disolución tienda a ser homogénea en un medio.

o Van’t Hoff apreció que, análogamente al comportamiento de los gases, la presión aumentaba al disminuir el volumen, conforme a la Boyle, y al aumentar la temperatura absoluta, conforme a Gay-Lussac.

o Esta analogía permitía trasladar la termodinámica a las soluciones, con el importante precedente de Horstmann comprobando la validez de la ecuación de Clapeyron en la sublimación de un líquido, lo que permitió a Van’t Hoff reemplazar la presión por la constante de equilibrio (basada en la ley de acción de masas) y el calor latente por el calor de reacción.

o Pero el comportamiento análogo con el de los gases ideales no se daba en el caso de las soluciones inorgánicas, lo que forzó a Van’t Hoff a incluir un factor en la ecuación que sería explicado desde la teoría de la disociación electrolítica.

Como Davy, Faraday siguió la idea sugerida por Grotthuss de que los productos de la descomposición por electrolisis aparecían en los electrodos.

o Pero a mediados de siglo se constató que los iones no se desplazaban a la misma velocidad, y que ésta era independiente de la intensidad de corriente, pero no de la concentración.

Page 89: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 89

o Clausius sugirió que la ionización ya estaba presente en la disolución antes de exponerse a la corriente, estableciendo la analogía con la teoría cinética de los gases, idea que Arrhenius abrazó argumentando que la disociación se daba cuanto más diluida fuera la solución.

o Su teoría explicó los resultados de Raoult sobre la dependencia del punto de congelación, ebullición y variación de presión del disolvente con la cantidad de soluto.

Gibbs contribuyó también al desarrollo de la termodinámica química proponiendo su regla de las fases según la cual los grados de libertad de un sistema (condiciones de temperatura y presión a las que puede sobrevivir) son el número de componentes que contiene menos las fases (estados en que se encuentran) más dos.

26.4. La estructura y el enlace atómicos

Aunque apreciada por algunos como una reducción de la química a la física, la teoría atómica supuso una gran unificación que abrió perspectivas nuevas sin renunciar a la especificidad de los métodos de investigación de cada área.

En la espectroscopía se fueron dando avances, desde el descubrimiento de la zona infrarroja de Herschel y la zona ultravioleta de Ritter y Wollaston hasta llegar al descubrimiento de Fraunhofer, cuando estudiaba los índices de refracción de distintos vidrios, un patrón de líneas distinto según fuera la luz emitida desde el Sol, la luna y los planetas o desde las estrellas.

o Así, se fue descubriendo que los cuerpos emiten diferentes líneas brillantes al calentarse, dejando líneas oscuras al ser atravesados por ella.

o Bunsen y Kirchoff construyeron el primer espectroscopio confirmando la invariabilidad de los patrones y habilitando la posibilidad de analizar la composición de los cuerpos que absorberían y emitirían estas radiaciones en función de si fuesen atravesados por la luz o excitados en función de su composición.

o Esto daría lugar al nacimiento de la astrofísica, al análisis de trazas de sustancias que hasta entonces habían pasado inadvertidas, y al descubrimiento de nuevos elementos.

o A falta de modelos atómicos que explicasen la causa de dichas líneas espectrales, Balmer desarrolló una fórmula empírica que relacionaba las longitudes de onda con el patrón de líneas, que se extendían en la zonas infrarroja y ultravioleta.

Junto con el descubrimiento del electrón a partir de la descarga eléctrica de gases rarificados, las investigaciones dieron lugar al descubrimiento de los rayos canales y rayos X que desembocarían en el descubrimiento de la radiactividad.

o Goldstein descubrió los rayos canales, en la parte posterior de un cátodo, que presentaban luminiscencia dependiente del gas empleado, y Wien logró desviarlos con un fuerte campo magnético mostrando que se trataba de partículas con carga positiva, cuya masa dependía del gas y que más tarde se identificarían como iones, aunque encontró algunas anomalías.

o Por su parte, Röntgen estudiando la emisión de luz ultravioleta descubrió los llamados rayos X, que se propagaban en línea recta sin ser desviados por campos eléctricos o magnéticos y que poseían capacidad de penetración siendo absorbidos por materias densas.

Dudando de su naturaleza corpórea, se especuló con que pudieran ser ondas longitudinales de éter, aunque al lograr polarizarlos se constató que como mucho serían vibraciones transversales.

Page 90: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 90

Stockes sugirió que pudieran ser radiaciones electromagnéticas de muy corta longitud de onda, y Laue sugirió una manera de difractarlos al nivel atómico facilitado por un cristal, que al atravesarlo reveló su capacidad para revelar la estructura cristalina del mismo, facilitando el desarrollo del espectrómetro de rayos X de los Bragg.

o Becquerel al constatar que los rayos X aparecían en la parte fosforescente del tubo, investigó si las sustancias fosforescentes emitían radiaciones, lo que constató, vinculando éstas a la naturaleza de la sustancia y no tanto a su estado fosforescente.

M. Curie se dedicó a buscar la presencia de radiaciones en diversos elementos, y junto a su marido descubrió el polonio y el radio, cuya radiación midieron mediante su capacidad de ionizar el aire y mediante la piezoelectricidad.

Rutherford comprobó que la radiación, diferente a la de los rayos X, no era homogénea, encontrando una menos penetrante (α) y otra más (β), que fueron identificados al ser deflactados por campos magnéticos, con chorros de electrones.

Pero Rutherford y Geiger determinaron que la carga de los rayos α era en realidad positiva, y de valor doble a la de un electrón, identificándola con un átomo de helio (en realidad, núcleo de un átomo de helio).

Curie descubrió los rayos γ que denominó radiactivos, insensibles a los campos magnéticos y de alta frecuencia.

o Con la comprobación de esta emisión de partículas, se confirmó que los átomos de esos elementos (agrupados en familias radiactivas) podían descomponerse y convertirse en otros en sucesivos períodos de tiempo, proceso que se denominó transmutación, como desplazamiento del elemento a diferentes posiciones de la tabla periódica (dos, en el caso de emitir una partícula α y una en el caso de una partícula β).

Soddy confirmó que los átomos de un mismo elemento podían tener diferente peso, denominándolos isótopos al ubicarse en la misma posición de la tabla periódica.

Wien había encontrado anomalías al determinar la razón carga/masa encontrándose con parábolas no bien definidas, como si la carga o la masa sufriesen alguna variación.

Thomson abordó el problema encontrando dos pesos atómicos distintos para cada parábola y su ayudante Aston lo resolvió empleando el espectrógrafo de masas que confirmó los dos pesos atómicos.

En lo referente a los modelos del átomo, un año antes de que Thomson descubriese el electrón, Zeeman ya había descubierto el desdoblamiento de las líneas espectrales debido a un intenso campo magnético (efecto Zeeman), lo que Lorentz explicó desde su teoría del electrón.

o O. Lodge ya especulaba con los electrones positivos que habían de encontrarse en el átomo para garantizar su estado neutro.

o Al estudiar los rayos catódicos, Lenard sugirió que al ser capaces los electrones de atravesar cierto espesor de material los átomos que lo integraban debían estar en gran medida vacíos, y en su núcleo se hallarían los dinamidos como asociación neutra de electrones positivos y negativos correspondiente a su número atómico.

o Nagaoka propuso un modelo saturnino del átomo, y a continuación Thomson propuso su modelo de pudding de pasas: los electrones se hallarían incrustados en la matriz de carga positiva,

Page 91: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 91

disponiéndose en estratos – por sugerencia de lord Kelvin – con sucesivas figuras geométricas en equilibrio.

Por diversas experiencias, Thomson se convenció de que el número de electrones debía ser similar al del peso atómico, aunque Barkla y Moseley redujeron esta estimación a la mitad, igualando las cargas positivas y las negativas y haciendo de su suma igual a dicho peso atómico.

Thomson varió su modelo imaginando un núcleo denso rodeado por una atmósfera positiva en la que se hallaban tantos electrones como valencia presentaba el átomo – conforme a las teorías del enlace químico del momento – representando una parte muy pequeña de la masa total del átomo.

o Rutherford vino a reemplazar con su modelo al de Thomson sugiriendo un núcleo positivo más pequeño con electrones girando a su alrededor a una considerable distancia – conforme al vacío que había estimado Lenard – sujetos por fuerzas electromagnéticas.

Pero este modelo implicaba que los electrones en movimiento emitirían radiación electromagnética perdiendo energía, lo que haría que se precipitasen al núcleo, haciendo de éste un modelo inestable.

o Bohr encontró una manera de eludir el problema a partir de la cuantización energética de Planck y la aplicación de esta por parte de Einstein al efecto fotoeléctrico.

El radio de las órbitas de los electrones no podía adoptar cualquier valor, sino que se encontraba limitado a un conjunto discreto de valores vinculados con la constante de Planck.

Desde su estado fundamental, un electrón en torno al núcleo podría ser excitado energéticamente en saltos que se correspondían con las líneas del espectro.

El electrón así emitía energía al descender de órbita y necesitaba absorberla para aumentar su distancia al núcleo.

Con la descomposición electrolítica, los químicos tuvieron claro que la naturaleza de las afinidades era eléctrica y se pusieron sobre la pista de una teoría electrónica de la valencia.

o Con el descubrimiento del electrón y los primeros modelos atómicos, Thomson comenzó a especular con el vínculo electrostático del electrón con el átomo (mediante tubos como los de Faraday): estos vínculos serían los que conectarían átomos en los enlaces, cediendo unos electrones y recibiéndolos otros en función del valor de su valencia.

o Con ello se consolidaba el modelo del enlace polar por vínculo electrostático típico de los compuestos inorgánicos que se disociaban al disolverse.

Abbeg propuso su regla del ocho para revelar el mecanismo por el que se establecían los enlaces conforme a la periodicidad de la tabla periódica.

Esta regla suponía que cada átomo presentaba una valencia positiva y otra negativa máximas que siempre sumaban 8.

Así los elementos presentaban valencias normales y contravalencias al formar el enlace.

o El problema surgía con el enlace electrónico de las moléculas que no se ionizaban, y así Bray y Branch rechazaron el enlace polar en química orgánica, con compuestos poco reactivos y bajas constantes dieléctricas y conductividades: Así distinguieron el enlace no polar típico de estos enlaces orgánicos sin intercambio de electrones.

Page 92: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 92

o Lewis ideó una representación estática de electrones disponiendo conforme a la regla del 8 los electrones en vértices de cubos, compartiendo los electrones más exteriores en el caso del que más tarde se llamaría enlace covalente, buscando completar por ganancia o pérdida los 8 electrones en su último cubo.

Si los átomos enlazados presentaban la misma fuerza de atracción de los electrones compartidos, el enlace sería apolar, y si había asimetría, sería polar.

Esta disposición de electrones exigía suspender las reglas de Coulomb, por otro tipo de fuerzas, y además presentaba deficiencias para explicar enlaces triples o para la estereoquímica, lo que le hizo optar por una estructura tetraédrica.

o Bohr presentó su modelo dinámico que desarrolló Kossel en órbitas coplanares y al que se adhirieron los físicos, pero siendo sólo capaz de explicar los enlaces iónicos los químicos resultaron más afines al modelo de Lewis.

Page 93: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 93

27. TEMA XXVII: MORFOLOGÍA Y EVOLUCIÓN

Conviene verlo bien.

27.1. La formulación del transformismo: Lamarck

La idea de una posibilidad en la transformación de las especies atravesó todo el siglo XVIII (Linné, Buffon,…)

o Maillet sumó a su teoría neptunista de la formación de la Tierra la capacidad de los seres vivos para adaptarse a los diferentes medios (sin finalidad ni línea de progreso más allá de la supervivencia) sosteniendo el carácter hereditario de dichas adaptaciones.

o Maupertius también concibió la transmisión de caracteres adquiridos (dicho retrospectivamente), y Holbach popularizó la idea de que el ser vivo depende del medio de forma que si éste cambia, o se adapta o se extingue.

Lamarck pensaba elaborar una física terrestre que abarcase la meteorología, la hidrogeología y la biología, con carácter razonado más que empírico en busca de regularidades.

o En meteorología sus intentos de vincular la atracción solar y lunar con las mareas atmosféricas se vio truncada con el desánimo generalizado ante la falta de resultados y la Revolución francesa.

o En química, contrariando a Lavoisier sostuvo que los elementos no presentaban afinidades para combinarse, sino que eran producto del mundo orgánico, dejado del cual tendería a la natural descomposición.

o En hidrogeología, consideraría que salvo procesos volcánicos, la orografía habría sido producto de la erosión del agua y de la aportación de desechos provenientes de animales y vegetales que irían a parar al fondo oceánico sin depositarse, a causa de la acción lunar que haría que las cuencas oceánicas fueran avanzando en torno al globo en un largo proceso imperceptible, lo que explicaría los fósiles.

En este contexto expuso su teoría de la transformación de las especies, desde una radical separación entre lo orgánico y lo inorgánico:

o Las fronteras de clasificación se desvanecerían en la serie continua que formarían los individuos, aunque estos se ramificarían entre vegetales y animales.

o Rechazando la concepción del mapa, defendía una escala de creciente complejidad en la que podrían distinguirse masas principales, suplantando la división entre animales de sangre roja y blanca de Aristóteles por su división entre vertebrados e invertebrados base de la actual.

o Lamarck achacaba las anomalías a la influencia del entorno y los hábitos adquiridos por el animal condicionados por él, lo que estimularía el desarrollo e incluso la creación de algunos órganos y el debilitamiento y hasta la desaparición de otros.

o Estas anomalías se transmitirían en dilatados períodos temporales si ambos progenitores las compartían en una noción de herencia un tanto vaga en la que las mutilaciones evidentemente quedarían fuera.

En su física terrestre analizó la organización del mundo orgánico que sólo se distinguía por ésta del inorgánico y no por la materia, estimando que la variedad era producto de las leyes y las circunstancias a lo largo del tiempo.

Page 94: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 94

o La organización surgiría por generación espontánea a partir de la composición que constituía el cuerpo, cuya vida mantenía como tensión el movimiento de los fluidos, tensión a la que llamó orgasmo.

El calórico permearía el cuerpo – no como sustancia al estilo de Lavoisier sino como estado del fuego – y excitaría ese estado de tensión, que en el caso más desarrollado sería generado por el propio animal y repartido por su aparato circulatorio.

El fluido eléctrico sería causante de la distintiva irritabilidad de los animales, haciendo que la vida fuera un fenómeno fisicoquímico frente a quienes sostenían una fuerza vital específica, aunque en ocasiones hablara de una fuerza de este tipo refiriéndose a la particular orientación que les daba la organización.

o La generación espontánea de la organización seguiría operando, pero sólo surgiría en la escala inferior de la organización a partir del cual crecería espontáneamente en complejidad.

A Lamarck suele situársele en el siglo XVIII, por el carácter ilustrado de sus ideas, la influencia cartesiana, el stahlismo francés o sus ideas deudoras de Buffon, pero sus ideas biológicas preludiaban una nueva época.

27.2. El desarrollo de la morfología

La morfología fue poco a poco desligándose de la medicina gracias a la contribución de diferentes figuras como Cuvier y Geoffroy, precedidos por la Ilustración de:

o Camper y su famoso ángulo facial para la medición antropológica de la capacidad intelectual

o Pallas y sus roedores, o Daubeton y su influencia sobre Geoffroy.

o Y sobre todo d’Azyr quien defendió la sistematización de la morfología comparada, desde el punto de vista estructural y funcional: Ordenó las funciones vitales y contempló la idea de un plan de organización común para los vertebrados.

A comienzos del XIX se dio el contraste en la aproximación de la morfología funcional y la anatomía filosófica:

o Cuvier convirtió la anatomía comparada en disciplina independiente basado en el principio rector de un funcionalismo teleológico.

Las condiciones de existencia de un animal dependían así de la correlación de sus partes, que no constituían el organismo como mera agregación sino como sistema coordinado.

También concibió la subordinación de caracteres, en función de la jerarquía de funciones para sostener la vida.

Esta nueva propuesta rompía la cadena del ser y era reacia a composiciones intermedias entre ramas por su inestabilidad para satisfacer las condiciones de existencia.

Fue fundador de la paleontología, en cuyo estudio confirmó la extinción de algunos animales (megaterios y mamuts)

Constató con Brongniart los efectos de acontecimientos revolucionarios (término semánticamente renovado tras la Revolución francesa) en los estratos de tierra, causando la inundación parcial de agua y explicando las extinciones.

Page 95: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 95

Pero frente a la plasticidad de las especies de Lamarck, Cuvier era partidario de su estabilidad: las unidades funcionales fijas que constituían las especies sólo podían desaparecer por extinción.

o Frente a él, Geoffroy desarrolló lo que llamó una anatomía filosófica, inspirado en la búsqueda de un plan estructural.

Definió así las relaciones entre partes homólogas (por estructura aunque con diferente función) y entre partes análogas (que también compartían función), aunque esta terminología sería ya de Owen.

Consideró también dos principios: el de las conexiones (que implicaba que las partes aunque variasen no se trasponían radicalmente) y el de la economía (por el que todo desarrollo de una parte conllevaba la atrofia de otra).

El arquetipo estructural sería un abstracto del desarrollo completo de las partes.

Realizó también estudios de embriología evidenciando las similitudes en estructuras óseas (como ya hiciera Buffon) entre diferentes clases de animales.

o La Naturphilosophie respaldó bien esta línea de trabajo con la idea de un arquetipo objeto de una anatomía idealista o trascendental de un corte místico:

Así lo haría Goethe sobre plantas o vertebrados, como formularía independientemente Oken.

También Kielmeyer formuló una primera versión previa a la teoría de la evolución de lo que luego se conocería como ley de la recapitulación embriológica: por entonces no era más que un paralelismo entre la fuerza responsable de la progresión serial de las especies y el desarrollo embrionario, lo que Meckel enunciaría para el caso humano.

o Se estableció así un enfrentamiento que agudizándose cuando Cuvier fue progresivamente mostrándose más escéptico sobre la anatomía filosófica a la par que Geoffroy buscaba conectar los cuatro planes de organización independientes de Cuvier (vertebrados, artrópodos, moluscos y radiados).

Mientras, Geoffroy estudió las malformaciones en el proceso embrionario, que vinculó a alteraciones que inhibirían el desarrollo de algún órgano, lo que enlazó con concepciones evolucionistas.

El medio podía ejercer su influjo, como Lamarck, aunque considerado de forma más repentina, sin apelar a fuerza interior alguna ni considerar cambios en instintos o hábitos.

La polémica en torno a la evaluación de un trabajo de unos naturalistas hizo que saltara a la luz pública su enfrentamiento: Cuvier tacharía de fantasías metafísicas las tesis de Geoffroy (y las del transformismo) sin ajustarse a los hechos positivos, y éste defendería la libertad especulativa del naturalista acusándole de su cerrazón sobre las causas finales.

La síntesis que intentaron realizar sus seguidores (alineados los conservadores con Cuvier y los liberales con Geoffroy) depuró las inspiraciones teleológicas en lo que se ha denominado la concepción ramificada.

La síntesis procuró combinar unidad con diversidad, similitudes (Geoffroy) con diferencias (Cuvier) asumiendo las ramas funcionales y la existencia de un arquetipo para cada una.

Page 96: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 96

o En Alemania K. E. von Baer – primero en observar el óvulo de un mamífero – se opuso al desarrollo lineal y defendió las ramas de Cuvier distinguiendo entre grado de desarrollo (diferenciación morfológica) y tipo de organización (posición relativa de las partes): Así, el desarrollo embrionario era un proceso no de recapitulación sino de diversificación morfológica cada vez más específica.

o En Francia H. Milne-Edwards propuso que el estudio del desarrollo embrionario revelaría afinidades entre los grandes grupos de organismos, sirviendo la comparativa de adultos propia de la diferenciación entre especies, y siguiendo una escala de progresiva división de la labor fisiológica.

o En Gran Bretaña la tradición de la teología natural acogió bien las ideas de Cuvier, difundidas por diversas figuras entre las que destacó, sin embargo, R. Owen seguidor de las ideas de Geoffroy realizó diferentes avances:

Distinguió entre homologías especiales, generales y seriales (entre especies, entre una especie y su ideal, y en el mismo organismo).

Reservó los términos de homología y analogía.

Concibió una fuerza polarizadora como causante de la repetición serial, y una fuerza adaptativa vinculada a la capacidad de modificar las partes según las necesidades del organismo.

En paleontología aunque Agassiz concibiera una auténtica recapitulación revelada en los fósiles embrionarios, Owen con Von Baer tomó tales semejanzas como puras analogías, ocupando los fósiles huecos de una serie lineal hasta los organismos actuales.

27.3. El desarrollo de la geología

Tras el giro historicista de Werner y su escuela neptunista, se fueron investigando distintas formaciones geológicas bajo el criterio de superposición y a las que se suponía una composición química ordenada en altura y en componentes, lo que los datos desmintieron:

o Los estratos parecían difíciles de ordenar y muchas veces no encajaban ni en altura ni en composición, lo que condujo a considerar los fósiles contenidos en el estrato, incorporando así todos los problemas de la interpretación del registro fósil.

o Otra de las líneas fue la producción volcánica en su papel sobre la formación del relieve: frente a la creencia de Werner, al basalto se le atribuyó un origen ígneo, con lo que Von Buch pudo hablar de cráteres de erupción y cráteres de elevación.

o Beamount por su parte propuso una teoría de enfriamiento de la Tierra, apoyado en las ideas de la nebulosa de Laplace o la evidencia del aumento de temperatura en las minas de Fourier, sugiriendo que vendría acompañado de una contracción del núcleo que arrugaría la corteza formando el relieve, lo que encajaba con las tesis catastrofistas (Cuvier) y los registros fósiles que apuntaban a climas más cálidos en el pasado.

En paleontología estratigráfica el catastrofismo de Cuvier pareció predominar, aunque las concepciones transformistas no desaparecieron.

o Cuvier, Brongniart y Smith contribuyeron al nacimiento de la paleontología estratigráfica, bajo la clasificación de Lamarck en la que los fósiles – no empleados para respaldar su transformismo – habían sido incluidos.

Page 97: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 97

El descubrimiento progresivo de fósiles invertebrados dio lugar a la consideración de especies análogas como las llamaba Lamarck a las especies actuales.

Pero los registros eran insuficientes, lo que permitió especulaciones como la del catastrofista d’Orbigny que estimaba la secuencia de 28 estratos provocados por otras tantas catástrofes, independientes y con re-creaciones completas de la fauna.

Con el tiempo, sin embargo, todos moderaron sus supuestos, limitando los cataclismos, relativizando su impacto en el mundo orgánico, y facilitando la consideración de una creación única.

o El catastrofismo se fue moderando, aproximándose al actualismo, y más cuando en éste, como apuntaba Prévost podían contemplarse cotidianos efectos violentos como erupciones volcánicas, inundaciones o terremotos.

Pero si las especies actuales son idénticas a las originales, no existía una historia de la vida, y los fósiles serían un criterio discutible en datar las formaciones geológicas.

Sin embargo, como señalaba el transformista Omalius d’Halloy, no podía explicarse por qué los fósiles de los seres más diferentes se hubieran fosilizado en las capas más antiguas.

El progresivo descubrimiento de fósiles fue aupando a las tesis transformistas sobre las que Geoffroy de Saint-Hilaire desarrollaría una teoría basada en las ideas de Lamarck y de su padre sobre la domesticación y aclimatación de animales.

o En Gran Bretaña, la teología natural acogió de buen grado las ideas de Cuvier respecto de una única y perfecta creación, de carácter catastrofista y opuesta al transformismo que aplaudieron Paley, Jameson, o Buckland que interpretaría a la luz de las Escrituras los hallazgos, atribuyendo la extinción de especies al Diluvio bíblico, aunque acabaría aceptando la alternativa a la ola diluvial de una antigua glaciación de Charpentier y Agassiz.

Lyell entonces atacó la geología diluvial con los antecedentes de Scrope y Fleming, opuestos a las ideas de Buckland (Noé habría salvado a aquellas especies, más bien extintas a manos del hombre primitivo):

o Desde su actualismo aceptó sólo los fenómenos que operan hoy, y desde su uniformismo supuso que la intensidad tampoco habría cambiado con el tiempo.

o Esto se oponía a la direccionalidad del enfriamiento terrestre, apoyado por la teoría desarrollista que evidenciaba la fauna y flora en regiones tropicales similar a la antigua europea.

o Desarrolló en su lugar una teoría de fluctuaciones climáticas de gran escala que explicaría la diversa implantación de flora y fauna dando cuenta de la diferente distribución de fósiles, dando relevancia a la biogeografía histórica.

Su uniformismo, no obstante, le opuso a las ideas de Lamarck a quien trató de refutar con los argumentos de Cuvier, defendiendo la estabilidad de las especies.

Admitió la extinción de algunas especies por causas climatológicas y por presión poblacional, idea que ya había señalado Candolle en lo referente al estado de guerra en el que se hallaban las plantas.

Lyell salvó el equilibrio dinámico apelando a una creación continua de especies nuevas, sin justificar este proceso difícil de observar.

o Diluvistas aparte, catastrofistas y continuistas se encaminaban a un encuentro, multiplicando los primeros el número de cataclismos moderados y reconociendo los segundos que las

Page 98: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 98

circunstancias y la acumulación de efectos actuales podría tener un carácter catastrófico y Lyell, que no se oponía a esto, recibió críticas más por su oposición a la teoría del enfriamiento de la Tierra de Beaumont y a las evidencias del desarrollo progresivo de la vida (aunque no se aceptase el transformismo).

27.4. La evolución por selección natural: Darwin

A mediados de siglo se consolidó la división temporal a escala geológica en el paleozoico, mesozoico y cenozoico, y apareció una obra de Chambers, un librero, con amplia difusión y mala acogida por parte de los especialistas con ideas evolucionistas.

o En esta obra se recogían ideas sobre la generación espontánea de la vida como fenómeno químico-eléctrico, el paralelismo con la embriología y el registro fósil, el desarrollo jerárquico y lineal de especies y la concepción materialista de un desarrollo inmanente hasta la aparición del hombre.

o Aunque una obra poco sólida, contribuyó a poner de actualidad la cuestión de la evolución:

B. Powell estaba convencido de la posibilidad de establecer una analogía con el uniformismo de Lyell para las leyes orgánicas.

H. Spencer unió la teoría de Lyell con el transformismo de Lamarck extendiendo una teoría evolutiva del grado de perfeccionamiento humano, hacia cotas más altas de organización, al estilo de Von Baer, culminadas por el hombre blanco inglés.

T. Malthus elaboró su teoría sobre la sobrepoblación debida a un crecimiento geométrico incapaz de ser respondido por uno aritmético de los recursos: recomendaría evitar el proteccionismo de Estado, pero su postura no sería tan pesimista como a veces se presenta, pues gracias a esta presión de población se habría dado el progreso.

o En los años inmediatamente anteriores a la obra de Darwin el pensamiento evolucionista se vio fuertemente ligado a las ideas de progreso y desarrollo, y para una propuesta documentada de la ley natural resultó vital la obra de Wallace:

En ella confirmó la ley empírica de que toda especie nueva coincidía con otra preexistente extremadamente relacionada con ella.

Gracias a la lectura del libro de Malthus concibió que los recursos limitados forzarían la selección de los organismos mejor preparados, haciendo perecer a las variedades (subespecies) no aptas.

Darwin recibió esta obra y a ella añadió un extracto de sus escritos que llevaba dos décadas gestando.

Darwin viajó como naturalista en el Beagle inspirado por las ideas de su abuelo Erasmus de corte lamarckiano y de R. E. Grant partidario de éste, aunque no mantenía una postura especial.

o En el transcurso del viaje leyó la obra de Lyell y se convirtió al uniformismo, y enfrentado al problema de la creación de nuevas especies, a la vuelta se convirtió al evolucionismo.

o Sus observaciones pudieron inducirle a esta conversión, evidenciando la coexistencia de nuevas especies muy similares a las ya vistas conforme iba transitando hacia el sur o especialmente en las islas galápagos (avestruces, armadillos, pinzones, sinsontes…).

Separándose de Lyell consideró que estas nuevas especies habrían partido de variedades de las anteriores, por mecanismos de reproducción y de herencia.

Page 99: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 99

Supuso, como Lamarck, que los caracteres modificados se heredarían, pero lo harían de forma simultánea por todos los individuos de la especie dando lugar a pocas variaciones adaptativas individuales (inicialmente pensó que todas las variaciones eran adaptativas).

También concibió una inercia hereditaria que consolidaría caracteres de difícil modificación brusca.

o La lectura de la obra de Malthus y otras le sirvieron para perfilar su teoría incorporando nuevos elementos:

Las variaciones surgirían aleatoriamente, por lo que la influencia del medio y la transmisión hereditaria pasaban a un segundo plano.

Otro elemento sería la evolución permanente sostenida por una selección sin intermitencias, que le permitiría hablar de una lucha por la existencia y de una selección natural en sentido amplio y metafórico que no fue bien entendido.

Darwin quiso distanciarse del nivel especulativo del libro de Chambers aportando criterios de cientificidad propios de su época.

o El principio de verae causae de J. Herschel (si de dos fenómenos semejantes se conoce la causa de uno, la causa del otro será análoga) favoreció la aproximación de Darwin para comparar análogamente la selección natural con la artificial de la cría.

Wallace había renunciado a emplearla porque precisamente la selección artificial se había tomado por inestable, y sus variaciones tenderían a diluirse tras la recuperación por parte de la especie del estado natural.

Sin embargo, Geoffroy de Saint-Hilaire reforzaría la idea de esta analogía defendiendo la mayor intensidad con que operaría la selección artificial, siendo el retorno al estado natural prueba del efecto del medioambiente.

o El ataque más fuerte vino de manos de la física contra su uniformismo geológico

W. Thomson – Lord Kelvin – calculó con el enfriamiento de la Tierra una edad máxima de veinte millones de años

Esto era una cantidad corta para los geólogos – que podían esquivar el problema un tanto pensando en un desarrollo más rápido o abandonar el uniformismo sin dejar de ser actualistas – pero sobre todo para evolucionistas.

o El darwinismo fue ganando adeptos principalmente de entre los naturalistas frente al milagroso creacionismo continuo y arbitrario bajo criterio divino.

Pero admitirla no suponía admitir la selección natural, que fue en general rechazada.

Esta selección sería ciega y sin direccionalidad, producto del azar, lo que no era visto con buenos ojos, suponiendo además el desalojo de la especie humana de cualquier tipo de privilegio.

De aquella época fue la polémica entre Huxley – que había refutado la exclusividad del hippocampus minor de los seres humanos como distintivo frente a los primates de Owen – frente al obispo anglicano Wilbeforce a quien al parecer respondió a su ataque afirmando que preferiría descender de un mono antes que de un obispo anglicano.

A pesar de ello, Darwin seguiría coqueteando con algunas ideas de los desarrollistas que no aceptaban el paulatino efecto de la selección natural en el caso humano, reteniendo

Page 100: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 100

posturas como las de Wallace o Lyell que consideraban saltos evolutivos más bruscos y ventajas adaptativas inalcanzables por la selección (como el sentido musical o la capacidad matemática) que apuntasen hacia algún tipo de intervención sobrenatural.

o Algunos darwinistas como Gray o Huxley intentaron reconciliar las tesis darwinistas con el pensamiento religioso, manifestando que la adaptación mostraba la existencia de un designio o que en la línea evolutiva – plagada todavía de numerosas lagunas – se habrían podido dar saltos evolutivos.

o Otros como Haeckel reemplazaron la especulación arquetípica por otra de tipo evolutivo reconstruyendo genealogías con creatividad y resucitando la teoría de la recapitulación con los términos de ontogenia – desarrollo individual desde el germen al adulto – y filogenia – desarrollo evolutivo de la especie: su ley biogenética consideraría que la ontogenia recapitula la filogenia.

o Si la teoría de Darwin supone la selección natural de variantes aleatorias, Darwin no fue suficientemente darwinista:

Consideró diversos tipos de variaciones (espontáneas, provocadas por el medio, provocadas por el uso,…) pero sólo consideró que la selección natural actuaría sobre las provocadas por el medio que no fueran definidas (adaptativas) sino aleatorias.

Así que la selección natural era el mecanismo principal pero no el único de la evolución.

Para explicar la transmisión de las variaciones recurrió a la pangénesis según la cual las células del cuerpo desprenderían gémulas, partículas que contendrían los caracteres de cada parte del cuerpo y que se verían afectadas por los cambios del individuo, a recopilar en las células sexuales con cuya mezcla entre sexos – a veces dispar – la heredaría el nuevo individuo.

o La teoría de la evolución – polémica de la selección natural aparte – tuvo un papel explicativo muy amplio, dando cuenta de datos de la biogeografía, de la clasificación ahora desde el punto de vista genealógico, del arquetipo entendido ahora como un ancestro común, de los órganos atrofiados en otro tiempo funcionales, etc.

Page 101: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 101

28. TEMA XXVIII: EL ESTUDIO DEL SER VIVO: GENERACIÓN, DESARROLLO, FUNCIÓN

Importan la teoría celular y los problemas de la generación y el desarrollo. Para el resto del tema, basta con una idea general.

28.1. La teoría celular

A principios del siglo XIX, Treviranus logró aislar una célula vegetal, más conspicua que la animal, su individualidad fue reafirmada por Link al tratar de colorearlas manteniéndose incomunicadas salvo rotura de sus paredes y Brown logró describir el núcleo observado en ellas.

o Considerada ya como una unidad fisiológica, aún no estaba clara su relación con el entorno ni el proceso de su multiplicación: Treviranus sugeriría que la célula era una coagulación, Raspail y Turpin sugerirían que la nueva célula surgiría en el interior de la madre y Mohl observaría que la célula se dividía en dos.

o La primera teoría celular vino formulada por Schleiden y Schwann:

Un primer trabajo de Schleiden mostraba el relevante papel del núcleo (al que llamó citoblasto) en la formación de nuevas células.

Schwann logró establecer la igualdad en la estructura entre las células vegetales y animales así como el mecanismo de reproducción.

Declararon así a la célula como principio constituyente de todos los tejidos, desarrollada tanto en el interior como en el exterior de otras células.

o Ambos rechazaron el vitalismo distintivo de lo orgánico:

Schleiden creía en una fuerza formativa fundamento de los procesos de formación, regeneración y crecimiento, rechazando el vitalismo por las indagaciones de Schwann.

Creía que en las células actuaban dos fuerzas, plásticas (generación y desarrollo, análogas a la de formación de cristales en el ámbito inorgánico) y metabólicas (transformación química de las sustancias en el citoblastema interno de la célula).

Aun queriendo dejar la teleología fuera de la indagación científica, centrada en las causas eficientes, para explicar la coordinación celular en la constitución de los organismos Schwann recurrió a una armonía preestablecida en la Creación divina.

Al no presentar las células animales una pared tan contundente como las vegetales, y frente a la consideración de Schwann sobre la importancia de la pared, cobró más importancia el fluido interior que recibió la denominación de sarcoda o sustancia contráctil (Dujardin) y protoplasma (Purkyne), términos que Von Mohl identificaría, pasando a constituirse como el centro de la actividad celular.

Remak y Virchow afirmaron de forma independiente la procedencia celular a partir de procesos de división, desechando tanto la teoría endogenética de Schleiden como la exogenética de Schwann: toda célula surgiría a partir de otra anterior, sin generación espontánea.

Con la mejora de los microscopios, se analizaron la estructura del protoplasma y el núcleo, atribuyéndose a aquél funciones que en su día Schleiden había conferido a las paredes.

Page 102: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 102

o Pero la ausencia de confines a la célula no convencía, hasta que Overton basado en las propiedades osmóticas distinguió claramente entre la pared, el protoplasma y la membrana, difícil de apreciar pero constituyente de todas las células.

o La división nuclear sería sucesivamente estudiada por diversos investigadores, pasando por la descripción detallada de Von Baer hasta la caracterización de los cromosomas de Kovalevsky.

Russow descubrió su forma y Schneider observó su disposición en el momento de la mitosis celular.

Bütschli describió dos de las fases de la mitosis que serían ampliadas por Strasburger quien consideró al proceso como universal en la multiplicación celular, y que finalmente serían completadas por W. Flemming y Rabl.

28.2. La generación y el desarrollo

La transmisión hereditaria de caracteres se distingue del mecanismo que la gobierna, de forma que la indagación de Mendel es novedosa, aunque no fuera apreciado hasta su redescubrimiento ya en el siglo XX: en realidad, en el XIX, la transmisión hereditaria de caracteres no aparentaba estar sometida a regularidades, hasta que la embriología experimental y las técnicas de investigación permitieran penetrar en este problema.

Los tipos de reproducción en los reinos vegetal y animal son múltiples: sexuales (heterosexual o hermafrotida), asexuales (escisión, gemación, esporulación), alternante, etc.

o Con la consolidación del ovismo, en la reproducción sexual se interpretaba que el concurso del esperma era de carácter estimulante o excitador del huevo, en el que verdaderamente residía el desarrollo del nuevo ser.

Spallanzani, Prévost y Dumas mostraron la participación activa de los espermatozoides en la fecundación.

Von Baer aisló el óvulo de los mamíferos distinguiéndolo del folículo, e identificó correctamente el núcleo de un huevo no fecundado.

Kolliker identificó la naturaleza celular de los espermatozoides, y sin embargo, se les siguió otorgando un papel meramente estimulante.

Finalmente Hertwig y Fol descubrieron la penetración del espermatozoide y la fusión de su núcleo con el del óvulo en el nuevo embrión, lo que Pringsheim, Goroyankine y Strasburger observaron a su vez en el reino vegetal.

o Así, la teoría celular vino a sumarse a los estudios embriológicos en las sucesivas fases por las que atravesaba la célula fecundada en su división (mórula, blástula, gástrula,…).

Von Baer superó el carácter meramente descriptivo para comparar las estructuras análogas en los distintos procesos embrionarios animales

Así la embriología se adelantaba a la anatomía comparada y permitía desarrollar paralelismos ancestroembrionarios propios del evolucionismo.

o Al convertir la embriología en una disciplina experimental, gracias a los trabajos de Chabry y Roux, el estudio de la función sustituyó al de la forma, y la explicación análoga a la de la física o la química reemplazó a la explicación histórica o genética, de reminiscencia causal.

Page 103: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 103

Ambos comprobaron experimentalmente que la variación de las condiciones externas – la mecánica que después se llamaría fisiología embrionaria – afectaba considerablemente al desarrollo del embrión.

Al matar un blastómero y observar que el otro desarrollaba sólo una parte del embrión, Roux enunció su teoría del mosaico sobre la creciente especialización celular para el desarrollo de los diferentes tejidos.

A esto se opuso el trabajo de Driesch quien observó que en el embrión como sistema equipotencial armonioso cada célula presentaba la misma potencialidad para reproducir al individuo completo: aislado cada blastómero, se desarrollaría normalmente, aunque más tarde se distinguiría según el animal y el estadio entre huevos de regulación y huevos en mosaico.

Todo ello sugería que las células tenían capacidad para adaptarse y responder a los cambios de su ambiente, con lo que Driesch desarrolló una posición neovitalista frente al mecanicismo de Roux, contraponiendo la autodiferenciación a la determinación.

La escuela de Spemann trataría de conciliar ambas posturas otorgando un carácter funcional a la determinación de Roux.

Antes del evolucionismo, la herencia se investigó poco, preocupada la investigación más en la generación:

o En este sentido, antes de Mendel, las aportaciones fueron escasas:

Maupertius indagó sobre la polidactilia concluyendo que al menos en uno de los progenitores debía estar presente para transmitirla.

Frente a la idea de Linné de que las especies podrían haberse formado por hibridación fue desmentida experimentalmente por la inestabilidad de los caracteres de los pocos híbridos fértiles que Kölreuter halló, corroborado por las investigaciones de Gärtner y Naudin.

Sageret advirtió que los híbridos presentaban caracteres que no eran la mezcla de sus progenitores sino que los presentaban de forma alternativa entre los distintos híbridos.

o Mendel realizó un trabajo sobre hibridación de plantas que le valió ser llamado padre de la genética clásica.

Estableció las proporciones en que se transmitían los caracteres de especies puras de guisantes.

El trabajo estaría inspirado por la teoría de la evolución que sostenía su profesor Unger en una tendencia hacia la diversificación que conduciría al surgimiento de nuevas especies, aunque hoy no existe acuerdo sobre sus intenciones.

o A partir de líneas genéticas puras, Mendel observó siete caracteres de fácil identificación (forma de la semilla y de la vaina, color de cotiledones, tegumento y vaina inmadura, disposición de flores y longitud del tallo) a lo largo de siete generaciones.

Denominó dominantes a los caracteres que se manifestaban y recesivos a los que no aparecían, confirmando la que sería su primera ley o ley de uniformidad: todos los híbridos de primera generación son iguales.

Los caracteres recesivos aparecerían en la segunda generación en una proporción de uno a tres, como su segunda ley o ley de segregación.

Page 104: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 104

Se revelaba así que el carácter recesivo se transmitía aunque no se manifestase (lo que derivaría en las nociones actuales de genotipo y fenotipo).

o Al tratar de saltar de los híbridos entre variedades a los híbridos entre especies obtuvo resultados contradictorios, a causa de la gran variabilidad de este género, sus caracteres poligénicos y su capacidad para reproducirse sin fertilización, lo que probablemente le indujo a no seguir difundiendo su trabajo.

o En su lugar se siguieron manteniendo las ideas lamarckistas de herencia de los caracteres adquiridos por los progenitores próximas al desarrollismo y progresismo que encontraba en la recapitulación del embrión la cadena a la que vendrían a añadirse, ideas a las que se añadiría la pangénesis de Darwin similar a las ideas de Buffon.

o Galton, primo de Darwin, experimentó sobre la pangénesis transfundiendo sangre entre conejos, vehículo de las supuestas gémulas, y al no obtener resultados – aunque Darwin insistió en que las gémulas no tenían por qué transmitirse por la sangre – abandonó la teoría.

Entonces formuló su ley de la herencia ancestral por la que la herencia se extendía no sólo a los progenitores sino a toda una sucesión de antepasados, haciendo que el stirp o linaje fuese la suma de todas las aportaciones desde los padres (1/4) en adelante.

Con esto sustentó las ideas eugenésicas sobre la determinación de los caracteres por la naturaleza y no por el ambiente o la educación de los individuos.

Los caracteres de las células germinales vendrían impresos en partículas indefinidamente divisibles combinándose sin perder su individualidad en diferentes proporciones dando cuenta de las características de un individuo y de la transmisión de otros caracteres ocultos.

Al encontrar la variabilidad en la población y no en el individuo, se rompía la analogía entre la evolución y el desarrollo embrionario.

Galton estudió la distribución de individuos en amplias muestras de población constatando la distribución normal o campana de Gauss, confirmando la estabilidad de las especies y reconduciendo su concepción a la de una evolución discontinua que haría que la media se fuera viendo alterada.

o Galton y Pearson fundaron la escuela biométrica que se erigió en bastión del darwinismo, pues Pearson y otros no compartieron las ideas de la evolución discontinua de Galton estimando que la selección podía actuar desplazando gradualmente los valores medios de los distintos caracteres, además en una concepción continuista de la herencia.

El estudio de la estructura fue un requisito previo a la indagación de la función de forma que las investigaciones comenzaron centrándose en el proceso de la división del núcleo de las células.

o E. Van Beneden describió el proceso de la meiosis

En él, el número de cromosomas en los gametos es la mitad del número ordinario para que al unirse completen la carga cromosómica del embrión.

El proceso de división es similar a la mitosis pero en él se originan cuatro células en lugar de dos.

o No era fácil identificar este proceso con el de la transmisión hereditaria:

Roux sí sugirió que los cromosomas podían ser los portadores de la herencia y así su división longitudinal aseguraba la aportación repartida en cada célula.

Page 105: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 105

Por su parte Nägeli publicó una teoría imaginativa que estimaba que sólo una parte del citoplasma, el idioplasma, participaba de la transmisión hereditaria, que sería inmune a la influencia ambiental y que prescindía de los núcleos celulares, asegurando la espontaneidad de la generación a partir de él.

Weismann, desde una postura preformista, elaboró su teoría del plasma germinal, que como el idioplasma, transmitiría la herencia, distinguiéndose del plasma corporal o soma: la reproducción de los organismos unicelulares los haría potencialmente inmortales frente a la reproducción sexual de los organismos superiores aunque en estos los gametos se producirían de forma completamente independiente.

Al conocer el trabajo de Van Beneden, Weismann ligó al plasma germinal con los cromosomas: el germoplasma estaría compuesto por unidades discretas que denominó determinantes de los caracteres.

o Weismann refutó, cortando la cola a numerosas generaciones de ratones sin hallar nuevos ratones sin cola, la herencia de caracteres adquiridos (aunque Lamarck había dejado fuera el caso de las mutilaciones) consolidando la selección natural como único mecanismo evolutivo consolidando lo que se conocería como neodarwinismo.

Mientras, De Vries situaba los pangenes de Darwin en el los cromosomas de cada célula, y su carácter discreto indicaba una herencia discontinua que le condujo a formular una teoría del surgimiento de nuevas especies por mutaciones.

Ya en el siglo XX, Boveri demostró que los cromosomas eran los portadores de la herencia, transportando cada uno de ellos una dotación distinta (principio de individualidad de los cromosomas) conectando sus ideas con los descubrimientos de Mendel.

28.3. El estudio de la función animal

El método experimental en fisiología contaba con el precedente de Laplace y Lavoisier aunque difería de los procedimientos tradicionales basados en la observación.

o Magendie defendió este método emulando a la económica física, y frente a Bichat y sus propiedades vitales distintivas de los tejidos orgánicos, defendió la reductibilidad a la física, que otorgaría a los órganos y grupos de órganos una función alimentada por nutrientes y productora de residuos.

o La química también mostró su candidatura para realizar aportaciones a la fisiología, como mostraba el campo de la respiración y en el que tantas sustancias orgánicas contenían carbono, hidrógeno y oxígeno, aunque la dificultad de esta composición, e incluso la creencia de que no podrían ser sintetizados le impidió destacarse.

o El vitalismo perdió fuerza aunque la síntesis de compuestos orgánicos no lo mató del todo, pues la fuerza vital podría seguir alojándose al fondo de esa estructura distintiva de la vida tras de afinidades similares a las de la química inorgánica, lo que reforzaría el acorralamiento de las explicaciones finalistas por las experimentales y cuantitativas de la química como sostuvo Liebig, aunque no descartó la existencia de una fuerza vital orientadora que podría llegar a conocerse por sus efectos.

Page 106: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 106

o Los reduccionistas fisiológicos (Bois-Reymond, Brücke, Helmholtz y Ludwig) rechazaron taxativamente cualquier concepción vitalista reduciendo todo organismos a fuerzas y materia bajo el dominio de la física y la química.

En estos años se enunció el principio de conservación de la energía, al que Mayer llegó partiendo de consideraciones fisiológicas.

Helmholtz también sostendría una concepción energética de la vida, anticipando que la fisiología llegaría un día en que se vería absorbida por la física y la química.

o Frente a este reduccionismo alemán, Bernard en Francia adoptó una posición más moderada defendiendo la especificidad de la fisiología, sentando las bases metodológicas de la disciplina – aunque no tanto como para hacerle, como a veces se hace, padre de la fisiología experimental.

Propuso un racionalismo experimental dentro del espíritu positivista como observación controlada de resultados experimentales repetibles gracias al determinismo biológico.

También contribuyó con su idea de medio interior como sustancia que bañaría todos los órganos, tejidos y células regulado por mecanismos compensadores como la termorregulación para garantizar las condiciones de la vida frente a cambios exteriores.

La indagación fisiológica además de reducir los distintos procesos a la física y a la química, también centró su interés en los procesos celulares con notables progresos en la respiración, la transmisión nerviosa, la digestión o la secreción glandular.

o La teoría de la respiración de Lavoisier adolecía de dos problemas:

Los pulmones no presentaban una temperatura sensiblemente superior al resto del cuerpo.

Dejaba en la oscuridad el mecanismo de la producción de calor.

o Tardó tiempo en observarse que la combustión se realizaría por todo el cuerpo en los tejidos gracias al transporte de oxígeno en sangre:

Crawford, desde las ideas de Black, comprobó que la sangre arterial frente a la venosa tenía mayor capacidad calorífica que repartía por el cuerpo tornándose en venosa.

J. Bostock desde las ideas de Lavoisier consideró la mezcla del oxígeno con la sangre con la pérdida de calórico en los pulmones y su combinación posterior con carbono.

o El desconocido proceso de intercambio de oxígeno y dióxido de carbono a través de las membranas y los experimentos de Bride sobre que la respiración en animales muertos aceleraba su enfriamiento sembraron dudas sobre la respiración y generación de calor animal.

Investigaciones de Liebig, sin embargo, observaron la presencia de un compuesto de hierro en los glóbulos rojos que identificó como el transporte de oxígeno, pensando así que la generación de ácido carbónico no se daría en los pulmones sino en los tejidos y que la sangre venosa lo transportaría hasta los pulmones.

Liebig también advirtió que las cantidades de carbono e hidrógeno que se combinaban con todo el oxígeno inspirado para formar dióxido de carbono y agua no podían sino provenir de la nutrición, con la que la respiración quedó vinculada.

Liebig consideró los diferentes tipos de compuestos que entraban en las reacciones, detectando a partir de trabajos anteriores, papeles ejercidos por grasas e hidratos de

Page 107: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 107

carbono (consumidos para generar calor) y proteínas (descompuestas en la acción muscular), liberando los desechos por la orina y la respiración.

Helmholtz evidenció reacciones químicas en los músculos al aplicarles corrientes así como su calentamiento.

Frankland refutó la teoría de la acción muscular de Liebig al no encontrar relación entre los residuos de nitrógeno de la urea (desecho de las proteínas) y la acción muscular, evidenciando además que para el esfuerzo muscular la energía almacenada en ellos era netamente insuficiente, requiriendo de otra fuente.

o Respiración y nutrición se fundieron en el metabolismo celular al que ya apuntó Schwann y Bernard, con los que Pflüger defendió la principal actividad celular en la descomposición interna de sustancias para la generación de energía gracias al consumo de oxígeno.

o Buchner realizó el descubrimiento de lo que denominó zimasa y que se identificó como un catalizador semejante al de los procesos de fermentación, que al cabo fue denominado enzima, de la cual fueron descubriéndose diferentes tipos, constituyendo el primer programa de la joven bioquímica.

Como la fisiología sucedió complementándola a la anatomía, la fisiología patológica hizo lo propio con la anatomía patológica, adquiriendo además el sesgo experimental de la medicina de hospital a la medicina de laboratorio.

o El método inicial fue el anatomoclínico de Bichat: relacionar los datos de la observación clínica (apreciación de síntomas del paciente, fundamentalmente) con las alteraciones o lesiones anatómicas a través de diversos instrumentos (estetoscopio, oftalmoscopio, laringoscopio, uretroscopio, otoscopio,… con el culmen de los rayos X a finales de siglo).

o El laboratorio complementó a este método, con el anatomopatológico experimentando a partir de la teoría celular, de manos de Virchow: las células eran unidades últimas de la vida y también de la enfermedad.

Las enfermedades podían ser comprendidas dinámicamente a través de procesos físico-químicos observando las disfunciones en animales de laboratorio.

Así se desarrollaron diferentes instrumentos como el quimógrafo, el espirómetro o el esfigmógrafo, antecesores del electrocardiograma y el electroencefalograma.

o Traube y Wunderlich estudiaron un indicador fundamental como es la fiebre describiendo patrones y curvas de temperatura vinculados con multitud de enfermedades.

También sangre y la orina sirvieron de indicadores: especialmente relevante fue ésta para detectar con su sabor dulce el caso de la diabetes, o las enfermedades de riñón como la nefritis o enfermedad de Bright.

En el análisis de ambas destacaron Becquerel, Andral y Virchow en el estudio de sus diferentes componentes y su correlación con las enfermedades (células de pus, glóbulos blancos, leucemia,…).

o Uno de los test pioneros fue el de la medida de concentración de glucosa en sangre, para estudiar el caso de la diabetes:

Langerhans descubrió tejido endocrino en el páncreas, los islotes de Langerhans.

Con la extirpación del páncreas a un perro, se detectó el desarrollo de la enfermedad, asociándola con la sustancia generada en los islotes llamada insulina que Banting y Best

Page 108: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 108

encontraron responsable de la recuperación de otro perro diabético, comenzando a administrarse a los humanos.

28.4. La microbiología y la generación espontánea

Dos concepciones distintas se dieron sobre la fermentación: la biológica (que atribuía la fermentación y putrefacción a la actividad de organismos vivos, como en el caso de las levaduras consideradas por organismos por Latour, Schwann y Kützing) y la química (que consideraba a esas sustancias como catalizadores, tal y como hicieron Berzelius, Wöhler y Liebig, aunque éste lo achacaba a la muerte de un fermento vivo).

o Pasteur comenzó a estudiar la fermentación láctica y alcohólica, obteniendo resultados mucho más complejos que los considerados por los químicos, y comprobando que en un entorno nutritivo la levadura generaba más alcohol: el proceso era consecuencia de la actividad vital del fermento.

Observando al microscopio los bastoncitos animados que parecían generar la fermentación, comprobó que sobrevivían mejor en ausencia de aire.

Con ello distinguió dos tipos de respiración, la aerobia y la anaerobia, con la obtención respectiva del oxígeno del aire o de la descomposición de sustancias orgánicas.

o Pasteur también estudió la putrefacción defendiendo la existencia de un ciclo gobernado por microorganismos: Responsables de la descomposición de los organismos en sustancias aptas para otros seres vivos, los microorganismos serían transportados por el aire.

Pasteur no creía en la generación espontánea (requerida por las teorías evolucionistas), que desde la refutación de Spallanzani a los resultados de Needham no había quedado resuelta, con experimentos concluyentes en sentidos opuestos de Schulze o Shroeder y Von Dusch.

Pouchet publicó una obra en defensa de la generación espontánea que ganó un concurso en el que también participaba Pasteur con una obra contraria a su postura, generándose un debate durante años: las condiciones de experimentación de Pouchet no habrían sido lo suficientemente extremas como para evitar la permanencia de microorganismos.

Para tratar de dilucidarlo, la Academia nombró una comisión cuyas condiciones de prueba Pouchet no aceptó, obteniendo el crédito Pasteur, aunque la generación espontánea nunca se podría refutar por vía experimental (con otros episodios polémicos con Bastian) entre la postura de la teoría celular – Omnis cellula ex cellula – y la teoría evolucionista – que estimaba que en ciertas condiciones se podría haber generado.

o Pasteur también contribuyó decisivamente con la etiología de enfermedades infecciosas y su tratamiento por calentamiento (pasteurización)

Pasteur contaba con los antecedentes de Bassi, Henle, Gordon, Holmes y la famosa confirmación del caso del Hospital General de Viena detectado por el médico Semmelweis.

A partir de su estudio sistemático de diversas enfermedades, como el cólera en las aves, advirtió el efecto de las vacunas, confirmando la práctica empírica de la vacunación para la viruela de Jenner.

Page 109: Hc - Apuntes Segundo Cuatrimestre 2009-2010

Historia General de la Ciencia – Javier Jurado González 109

Con la homóloga escuela alemana de Koch se consolidaron dos microbiologías que fueron progresivamente descubriendo los agentes responsables de las enfermedades.

Ambas escuelas se opusieron en su diferente concepción de la inmunidad humoral alemana y la inmunidad celular de Metchnikoff parte del grupo de Pasteur que observaría por primera vez la fagocitosis de los leucocitos.

28.5. La fisiología vegetal: fotosíntesis y respiración

Al final del XVIII gracias a los experimentos de Hales se concebía que el aire, agua, sales, el humus y la luz eran los nutrientes de las plantas.

o Priestley encontró que las plantas no solo no viciaban el aire como los animales, sino que eran capaces de regenerarlo, eliminando el aire fijo y restaurando el aire desflogistizado (oxígeno) lo que sugería que el flogisto era uno más de los nutrientes.

o Ingenhousz encontró que esta emisión se daba sólo en las partes verdes de la planta, y dependía de la luz aunque no del calor, limitándose a emitir dióxido de carbono en el caso de hallarse en la oscuridad.

o Senebier halló que la producción de oxígeno dependía del dióxido de carbono que fuera capaz de tomar la planta del medio.

Desde la química de Lavoisier, Saussure ampliaba sistemática y experimentalmente el esquema metabólico de las plantas.

o Las plantas realizaban una respiración en la oscuridad idéntica a la respiración animal que Lavoisier había descrito, y que consideró continua, enmascarada cuando se daba el proceso inverso en presencia de luz.

o Con la liberación de oxígeno en presencia de luz – lo que se conocería como fotosíntesis – se fijaba el carbono, procedente sólo del aire atmosférico, y no del disuelto en el agua como creía Senebier, siendo el nitrógeno tomado exclusivamente del suelo.

A mediados de siglo las investigaciones se retomaron y avanzaron:

o Liebig mostró que la teoría del humus era insostenible, subrayó el papel de los minerales en la nutrición y adjudicó la fuente de nitrógeno al amoniaco atmosférico (que sobrevaloró).

o Con ello, no logró un gran avance, pero suscitó polémicas fecundas, con nuevos adelantos como los de Garreau y Von Mohl que establecieron la independencia entre fotosíntesis y respiración (continua y en todas las partes de la planta).

o También Boussingault confirmó la procedencia en el suelo del nitrógeno, cuyo ciclo resultó desconcertante hasta que se descubrieron las bacterias que lo fijaban a partir del nitrógeno atmosférico gracias a los trabajos de Voronin, Hellriegel, Wilfarth y Vinogradsky.

La figura más influyente del siglo en fisiología vegetal fue J. von Sachs quien clarificó la asimilación del carbono, a partir del almidón como primer producto en acumularse en las plantas o en su caso del azúcar, formulando la ecuación clásica de la fotosíntesis. También elaboró una técnica de cultivo que permitió avanzar en el conocimiento de la nutrición vegetal.