Augustus De Morgan

5
¿Quien fue Augustus De Morgan? Augustus De Morgan (27 de junio de 1806 - 18 de marzo de 1871) fue un matemático y lógico inglés nacido en la India. Profesor de matemáticas en el Colegio Universitario de Londres entre 1828 y 1866; primer presidente de la Sociedad de Matemáticas de Londres. De Morgan se interesó especialmente por el álgebra. Fue tutor de Ada Lovelace. Escribió varias obras de lógica en las que se encuentra la idea de aplicar en esta esfera los métodos matemáticos, así como los primeros resultados de tal aplicación. En la moderna lógica matemática, llevan el nombre de De Morgan las siguientes leyes fundamentales del álgebra de la lógica: «lanegac ión de laconjun ción es equivalente a ladisyunc ión de lasnegaciones»; «lanegación de ladisyunción es equivalente a la conjunción de las negaciones». Autor de las Leyes de De Morgan: Su obra principal se titula La lógica formal o el cálculo de inferencias necesarias y probables(1847). Augustus De Morgan definió él termino "inducción matemática" en 1838 él colocando un proceso que ha sido usado sin claridad en una rigurosa base. El término aparece primero en el artículo de De Morgan (Induction Mathematics) en el Penny Cyclopedia. Que la Penny Cyclopedia publicó a través de Sociedad de la Difusión Útil del Conocimiento, establecido por el mismo reformador quien fundo London University, y que la Sociedad también publico como un famosotrabajo por De Morgan El cálculo integral y diferencial. Reconsidero la pureza simbólica del álgebra natural y fue consciente de la existencia de

Transcript of Augustus De Morgan

Page 1: Augustus De Morgan

¿Quien fue Augustus De Morgan?

Augustus De Morgan (27 de junio de 1806 - 18 de marzo de 1871) fue un matemático

y lógico inglés nacido en la India. Profesor de matemáticas en el Colegio Universitariode Londres entre 1828 y 1866; primer presidente de la Sociedad de Matemáticas deLondres. De Morgan se interesó especialmente por el álgebra. Fue tutor de AdaLovelace. Escribió varias obras de lógica en las que se encuentra la idea de aplicar enesta esfera los métodos matemáticos, así como los primeros resultados de tal aplicación.En la moderna lógica matemática, llevan el nombre de De Morgan las siguientes leyesfundamentales del álgebra de la lógica: «lanegac ión de laconjun ción es equivalente aladisyunc ión de lasnegaciones»; «lanegación de ladisyunción es equivalente a la

conjunción de las negaciones». Autor de las Leyes de De Morgan: Su obra principal se titula La lógica formal o el cálculo de inferencias necesarias y probables(1847).

Augustus De Morgan definió él termino "inducción matemática" en 1838 él colocandoun proceso que ha sido usado sin claridad en una rigurosa base. El término apareceprimero en el artículo de De Morgan (Induction Mathematics) en el Penny Cyclopedia.Que la Penny Cyclopedia publicó a través de Sociedad de la Difusión Útil delConocimiento, establecido por el mismo reformador quien fundo London University, yque la Sociedad también publico como un famosotrabajo por De Morgan El cálculo integral y diferencial.

Reconsidero la pureza simbólica del álgebra natural y fue consciente de la existencia deotras álgebras como álgebras ordinarias. Presenta las leyes De Morgan y su grandiosacontribución es como un reformador de la lógica matemática.

De Morgan creo y definió las leyes que llevan su nombre, las cuales son reglas de equivalencia en las que se muestran que dos proposiciones pueden ser lógicamente equivalentes.

Las Leyes de Morgan permiten: 1. El cambio del operador de conjunción en operador de disyunción y viceversa.

2. Las proposiciones conjuntivas o disyuntivas a las que se aplican. Las leyes de Morgan pueden estar afirmadas o negadas (en todo o en sus partes).

La estrategia general a seguir en la aplicación de las leyes de Morgan es el siguiente:

3. Si nos encontramos con una proposición conjuntiva totalmente negada, la ley de Morgan nos permite transformarla en una proposición disyuntiva con cada uno de sus miembros negados.

SU ESQUEMA ES EL SIGUIENTE: ¬(P ∧Q) ≡(¬P ∨ ¬Q)

Page 2: Augustus De Morgan

4. Si nos encontramos con una proposición disyuntiva totalmente negada, la ley de Morgan nos permite transformarla en una proposición disyuntiva con cada uno de sus miembros negados.

SU ESQUEMA ES EL SIGUIENTE: ¬(P ∨Q) ≡(¬P ∧ ¬Q)

5. Si nos encontramos con una proposición conjuntiva afirmada, la ley de Morgan nos permite transformarla en una proposición disyuntiva negada en su totalidad y en sus miembros.

SU ESQUEMA ES EL SIGUIENTE: (P∧ Q)≡ ¬ (¬ P∨ ¬ Q)

6. Si nos encontramos con una proposición disyuntiva afirmada, la ley de Morgan nos permite transformarla en una proposición conjuntiva negada en su totalidad y en sus miembros.

SU ESQUEMA ES EL SIGUIENTE: (P ∨Q) ≡ ¬(¬P ∧ ¬Q)

Claude Elwood Shannon (30 de abril de 1916, Míchigan - 24 de febrero de 2001), ingeniero electrónico y matemático estadounidense, recordado como "el padre de la teoría de la información".

Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en sus investigaciones.

En 1932 ingresó en la Universidad de Míchigan, siguiendo a su hermana Catherine, doctora en matemática. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida.

En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el Differential Analyzer de Vannevar Bush.

En ese momento surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra boleana pudo desarrollar esta idea durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.

En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde H. H. Goldstine, en su libro "Las computadoras desde Pascal hasta Von Neumann", citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.

Page 3: Augustus De Morgan

Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemática.

En 1940 estudió una maestría en ingeniería eléctrica y se doctoró en filosofía matemática.

Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores, Warren Weaver, quien escribió una larga y clarificadora introducción a su The Mathematical Theory of Communication y muchos otros más.

Durante este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el nombre de "Una Teoría Matemática de la Comunicación". En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etc., ...) se pueden medir y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal. Mostró también que la información se puede transmitir sobre un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.

En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.

Claude Elwood Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra la enfermedad de Alzheimer.