Post on 16-Nov-2014
description
Ciencia
¿Qué es la ciencia?Publicado el 29 abril, 2012
Esta es una pregunta de esas que alguna vez nos hemos hecho todos en algún instante. Y
es… que es ciencia es un concepto que nos acompaña todos los días en todas partes.
Por ejemplo, cuando vemos las gotas de lluvia caer durante una tormenta o cuando observamos a
un fruto caer de un árbol, realmente lo que estamos haciendo es ser testigos de un proceso
científico.
Según la Real Academia de la Lengua Española la ciencia es “un conjunto de conocimientos
obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que
se deducen principios y leyes generales“.
En otras palabras, es la suma total del saber que posee un individuo gracias a sus experiencias
adquiridas. Además, dicho conocimiento se da de manera cronológica.
La ciencia, al igual que muchas otras cosas es un aspecto que corresponde únicamente al ser
humano, dado que los animales no son entes racionales.
En cambio, el hombre al ser pensante siente la necesidad de conocer su entorno y manipular los
eventos que ocurren dentro de éste.
La ciencia a grosso modo cuenta con las siguientes características:
Emplea distintos procedimientos e instrumentos para obtener y organizar la información
obtenida sobre un acontecimiento en particular. Los datos deben ser obtenidos dejando de
lado el pensamiento subjetivo, para que de ese modo otras personas que tengan acceso a
esa información puedan formarse su propia opinión.
Establece parámetros confiables que permitan la comprobación de los resultados obtenidos.
Homologa los criterios de evaluación, de acuerdo con los de los otros miembros de la
comunidad científica. De esa forma se crea un proceso confiable de estandarización de
resultados.
Trata, en la medida de lo posible, de originar conocimientos nuevos basados en resultados
concretos de acontecimientos que ocurrieron en el pasado. Esto con el fin de prever
fenómenos futuros.
Intenta que sus postulados sean puestos a prueba por personas expertas pertenecientes al
área correspondiente.
Trata de difundir las investigaciones científicas en medios especializados o dependientes del
ramo. Como son: centros de estudio, laboratorios, periódicos, revistas, programas de
televisión, sitios de internet etc.
Está al pendiente de que la manera en que se difunde la información sea la correcta.
OBJETIVOS DE LA CIENCIA
Son dos los objetivos centrales de la investigación científica y consisten en:
a).Descubrir respuestas y soluciones a problemas de investigación mediante la aplicación de procedimientos científicos
b).La descripción, explicación, predicción y control de fenómenos: Uno de los objetivos básicos consiste en la identificación de problemas y en descubrir las relaciones entre las variables que permitan describir, explicar, pronosticar y controlar fenómenos, para ello descubre leyes científicas y desarrolla teorías científicas
TIPOS DE CIENCIA
No todas las ciencias son exactamente iguales, de ahí la dificultad de elaborar una definición de ciencia que valga para todas. Los distintos tipos de ciencias se distinguen por el objeto de estudio, el método que emplean, las teorías con que se aproximan a la investigación y los resultados que obtienen.
Las ciencias formales son aquellas que no pueden comprobarse experimentalmente en la realidad. Trabajan con conceptos abstractos como los números. Las ciencias empíricas sí tienen un correlato real en el mundo. En ellas, el conocimiento proviene de fenómenos observables y capaces de ser evaluados por otros investigadores que trabajen bajo las mismas condiciones. Las ciencias sociales estudian el comportamiento humano y las sociedades. En ellas no es posible utilizar método tan riguroso, los fenómenos son más difusos y el punto de vista cambia bastante. Las ciencias naturales (física, química, biología) estudian fenómenos naturales, incluyendo la vida. Trabajan con el método científico y nos dicen cosas acerca del mundo desde un punto de vista riguroso y ateniéndose a los fenómenos dados.
Las ciencias formales, especialmente las matemáticas, resultan vital para las otras ciencias. De hecho, los grandes avances en las matemáticas generalmente han conducido a avances críticos en ciencias como la física o la biología. Ciertas herramientas matemáticas son indispensables para la formulación de hipótesis, teorías y leyes, tanto para descubrir como para describir cómo funcionan las cosas (ciencias naturales) y cómo es que la gente piensa y actúa (ciencias sociales). Esta definición de ciencia a veces se dice que corresponde a la ciencia pura, para diferenciarla de la ciencia aplicada, que se refiere a la aplicación de la investigación científica ante necesidades humanas específicas.
Biografía ConsultadaBunge, Mario (1994).La Ciencia: su Método y su Filosofía, Ed. Siglo XX, Buenos Aires.2. Resumen de lo leídoCiencia Formal y Ciencia FáticaLa ciencia es la recopilación y desarrollo previa experimentación metodológica (o accidental)del conocimiento. La clasificación de la ciencia más aceptada es la de Ciencias Fácticas yFormales.La palabra fáctica viene del latín factuque significa“hecho”.Las ciencias fácticas se basan enbuscar la coherencia entre los hechos y la representación mental de los mismos. Necesita dela observación y experimentación
para poder adecuar sus hipótesis. Tiene racionalidad, quese da con la coherencia (que es necesaria pero insuficiente en el campo de los hechos). Lasciencias fácticas trabajan con objetos reales que ocupan un espacio y un tiempo. Sesubdividen en ciencias naturales y ciencias sociales.Las ciencias Formales abarcan la lógica y la matemática y otros que estén relacionad estosúltimos. Es racional, sistemática y verificable. Su campo de estudio está dado solo en lo idealy está influida por los objetos reales. Trabajan con formas, es decir, con objetos ideales, queson creados por el hombre, que existen en su mente y son obtenidos por abstracción. Lesinteresan las formas y no los contenidos, no les importa lo que se dice sino como se dice.Ambas ciencias están divididas. Mientras los enunciados formales consisten en relacionesentre signos, los enunciados de las ciencias fácticas se refieren a sucesos y procesos. Lasciencias formales se conforman con la lógica para comprobar sus teoremas, las cienciasfácticas recurren a la observación y al experimento. Las ciencias formales demuestran oprueba; las fácticas verifican hipótesis. La demostración es completa y final; la verificaciónes incompleta y temporaria.
Ciencias formales
En las ciencias formales las proposiciones analíticas o contradictorias recogen los
enunciados de las matemáticas y la lógica que en general constituyen las ciencias
formales. El positivismo lógico considera a estas ciencias no empíricas.
Las ciencias formales están divididas de una forma radical, por un lado las ciencias
reales y por otro lado las ciencias empíricas. Las empíricas deben satisfacer
determinados requisitos lógicos en sus inferencias y deben adaptarse a las
formalizaciones derivadas de la lógica matemática.
Las expresiones y formulas de la lógica y de las matemáticas no deben verificarse por
ser analíticas, pero el resto de los enunciados científicos deben ser comprobados en la
realidad o por observación.
La lógica y la matemática son ciencias formales, por ocuparse de inventar entes
formales y establecer relaciones entre ellos. Estos objetos no son cosas ni procesos,
sino formas en las que se puede verter un surtido ilimitado de contenidos, tanto
facticos como empíricos.
Se pueden establecer correspondencias entre estas formas u objetos formales
relacionándolas con objetos o procesos pertenecientes a cualquier nivel de la realidad.
Los teoremas formales solo deben ser probados apoyados en la lógica.
Las ciencias formales no se refieren a nada que se encuentre en la realidad, por eso no
pueden utilizar nuestros contactos con la realidad para convalidar sus formulas.
Estas ciencias estudian conceptos abstractos, además de las leyes lógicas, es decir las
leyes que permiten inferir proposiciones a partir de enunciados verdaderos. Su
característica típica es que demuestran o prueban sus enunciados con base en
principios lógicos o matemáticos, pero no los confirman experimentalmente.
De esta forma las ciencias formales no dan información acerca de la naturaleza,
conformándose con ser recursos o instrumentos meramente formales, que el científico
necesariamente tendrá que manejar en la practica de investigaciones, comprobaciones
y verificaciones.
La lógica.
Como ciencia del razonamiento se ha visto modificada en varios aspectos a través de la
historia, hasta tal punto que actualmente se habla de varias lógicas. Estas son,
Las lógicas extendidas: se llaman así porque se consideran extensiones de la lógica
clásica, como en el caso de la lógica modal.
Las lógicas divergentes: llevan este nombre puesto que no están de acuerdo en
algunas tesis sustantivas de la lógica clásica, como en el caso de la lógica trivalente.
La matemática.
Consta de la teoría de conjuntos y las geometrías no euclidianas, instrumentos
matemáticos descubiertos y formulados para auxiliar y entender los nuevos aspectos
del universo que surgen a los ojos de las nuevas teorías físicas.
Bibliografía.
Chávez Calderón, Pedro. Historia de las doctrinas filosóficas
Ciencias formalesLas ciencias formales son las ramas de la ciencia que estudian sistemas formales. Las ciencias formales validan sus teorías con base en proposiciones, definiciones, axiomas y reglas de inferencia, todas ellas son analíticas, a diferencia de las ciencias sociales y las ciencias naturales, que las comprueban de manera empírica, es decir, observando el mundo rea
Ciencia computacional teóricaLas ciencias de la computación teórica (TCS) es una división o un subconjunto de las ciencias de la
computación y lasmatemáticas que se enfoca en aspectos más abstractos o matemáticos de la computación.
Estas divisiones y subconjuntos incluyen análisis de algoritmos y semántica formal de lenguajes de programación.
Técnicamente, además de estos dos, hay cientos de divisiones y subconjuntos. Cada una de las múltiples partes
tienen sus propios líderes personales individuales (de popularidad) y hay muchas asociaciones y grupos sociales
profesionales y publicaciones de distinción.
Contenido
[ocultar]
1 Ámbito o 1.1 Historia
2 Organizaciones 3 Revistas y boletines 4 Conferencias 5 Lectura adicional 6 Referencias 7 Véase también 8 Enlaces externos
[editar]Ámbito
No es fácil circunscribir las áreas de teoría precisamente el Special Interest Group on Algorithms and Computation
Theory (SIGACT) de la ACM describe a su misión como la promoción de la ciencias de la computación teórica y
nota:1
El campo de la ciencias de la computación teórica es interpretado ampliamente para
incluir algoritmos, estructuras de datos, teoría de la complejidad computacional, computación
distribuida, computación paralela, VLSI, aprendizaje de máquina, biología computacional, geometría
computacional, teoría de la información, criptografía, computación cuántica, teoría computacional de
números y álgebra, semántica de programa y verificación, teoría de autómatas y el estudio de
la aleatoriedad. A menudo el trabajo en este campo es distinguido por su énfasis en la técnica
y rigor matemáticos.
A esta lista, revista Transactions on Computation Theory de la ACM agrega teoría de la codificación, teoría del
aprendizaje computacional y aspectos de ciencias de la computación teórica de áreas tales como bases de
datos, recuperación de información, modelos económicos y redes.2 A pesar de esta amplitud, la "gente de
teoría" en ciencias de la computación se identifica a sí misma como diferente de la "gente de aplicaciones".
Algunos se caracterizan como haciendo la "(más fundamental) 'ciencia' subyacente en el campo de la
computación".3 Otra "gente de teoría aplicada" sugiere que es imposible separar teoría y aplicación. Esto
significa, que la llamada "gente de teoría" usa regularmente science experimental hecha en áreas menos
teóricas como investigación de sistema de software. Esto también significa, que existe una cooperación más
que una competencia mutuamente excluyente entre la teoría y aplicación.
Lógica matemática
Teoría de autómatas
Teoría de números Teoría de grafos
Teoría de tiposTeoría de categorías
Geometría computacional
Teoría de computación cuántica
[editar]HistoriaArtículo principal: Historia de las ciencias de la computación.
Mientras que los algoritmos formales han existido durante milenios (en computación todavía se usa
el algoritmo de Euclides para determinar el máximo común divisor de dos números), no fue sino hasta 1936
que Alan Turing, Alonzo Church y Stephen Kleeneformalizaron la definición de un algoritmo en términos de
computación. Mientras que los sistemas binario y lógico de las matemáticas habían existido antes de 1703,
cuando Gottfried Leibniz formalizó la lógica con los valores binarios para verdadero y falso. Mientras que la
inferencia lógica y prueba matemática habían existido en la antigüedad, en 1931 Kurt Gödel demostró con
su teorema de incompletitud que hubieron limitaciones fundamentales sobre qué sentencias, incluso si
verdaderas, podrían probarse.
Estos desarrollos han llevado a los estudios modernos de la lógica y computabilidad, y de hecho al campo de
las ciencias de la computación teórica como un todo. La teoría de la información fue agregada al campo con
una teoría matemática de 1948 sobre la comunicación por Claude Shannon. En la misma década, Donald
Hebb introdujo un modelo matemático de aprendizaje en el cerebro. Con montaje de datos biológicos
soportando esta hipótesis con algunas modificaciones, fueron establecidos los campos de [[red neuronal|redes
neuronales] y procesamiento distribuido paralelo.
Con el desarrollo de la mecánica cuántica al principio del siglo XX llegó el concepto que operaciones
matemáticas pudieran ser realizadas en una función de onda de una partícula. En otras palabras, se podrían
calcular funciones en varios Estados simultáneamente. Esto llevó al concepto de un ordenador cuántico en la
segunda mitad del siglo XX que despegó en la década de 1990 cuando Peter Shor demostró que tales
métodos podrían utilizarse para factorizar números grandes en tiempo polinómico, lo que, si se aplican, haría
más modernos sistemas de criptografía de clave pública inútilmente insegura.
Investigación de ciencias de la computación teórica moderna se basa en estos desarrollos básicos, pero
incluye muchos otros problemas matemáticos e interdisciplinarios que han sido planteados.
EstadísticaPara análisis, datos y gráficas sobre Wikipedia, véase Wikipedia:Estadísticas.
La estadística es una ciencia formal que estudia la recolección, análisis e interpretación de datos de una muestra
representativa, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de
algún fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin embargo, la estadística es
más que eso, es decir, es el vehículo que permite llevar a cabo el proceso relacionado con la investigación
científica.
Distribución normal
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde las ciencias
de la salud hasta elcontrol de calidad. Se usa para la toma de decisiones en áreas denegocios o
instituciones gubernamentales.
La estadística se divide en dos grandes áreas:
La estadística descriptiva, se dedica a la descripción, visualización y resumen de datos originados a partir de
los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos
de parámetros estadísticosson: la media y la desviación estándar. Algunos ejemplos gráficos
son: histograma, pirámide poblacional, clústers, entre otros.
La estadística inferencial, se dedica a la generación de losmodelos, inferencias y predicciones asociadas a los
fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa
para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias
pueden tomar la forma de respuestas a preguntas si/no (prueba de hipótesis), estimaciones de unas
características numéricas (estimación), pronósticos de futuras observaciones, descripciones de asociación
(correlación) o modelamiento de relaciones entre variables (análisis de regresión). Otras técnicas
de modelamiento incluyen anova, series de tiempo y minería de datos.
Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay también una disciplina
llamada estadística matemática, la que se refiere a las bases teóricas de la materia. La palabra «estadísticas»
también se refiere al resultado de aplicar un algoritmo estadístico a un conjunto de datos, como en estadísticas
económicas, estadísticas criminales, entre otros.
Contenido
[ocultar]
1 Historia o 1.1 Origen o 1.2 Orígenes en probabilidad o 1.3 Estado actual
2 Métodos estadísticos o 2.1 Estudios experimentales y observacionales o 2.2 Niveles de medición o 2.3 Técnicas de análisis estadístico
3 Disciplinas especializadas 4 Computación estadística 5 Críticas a la estadística 6 Estadísticos famosos 7 Notas 8 Bibliografía 9 Enlaces externos
[editar]Historia
[editar]OrigenEl término alemán Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refería al análisis
de datos del Estado, es decir, la "ciencia del Estado" (o más bien, de la ciudad-estado). También se
llamó aritmética política de acuerdo con la traducción literal del inglés. No fue hasta el siglo XIX cuando el
término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el
militar británico Sir John Sinclair (1754-1835).
En su origen, por tanto, la Estadística estuvo asociada a los Estados o ciudades libres, para ser utilizados por el
gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y
localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En
particular, los censos comenzaron a suministrar información regular acerca de la población de cada país. Así pues,
los datos estadísticos se referían originalmente a los datos demográficos de una ciudad o estado determinados. Y
es por ello por lo que en la clasificación decimal de Chester Dewey empleada en las bibliotecas, todas las obras
sobre estadística se encuentran ubicadas al lado de las obras de o sobre la demografía.
Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de madera y paredes de cuevas
para controlar el número de personas, animales o ciertas mercancías. Hacia el año 3000 a. C. los babilonios
usaban ya pequeños envases moldeados de arcilla para recopilar datos sobre la producción agrícola y de los
géneros vendidos o cambiados. Los egipcios analizaban los datos de la población y la renta del país mucho antes
de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números y Crónicasincluyen en algunas partes
trabajos de estadística. El primero cona están ubicadas al lado de las demográficas. La estadística tiene dos
censos de la población de la Tierra de Israel y el segundo describe el bienestar material de las diversas tribus
judías. En Chinaexistían registros numéricos similares con anterioridad al año 2000 a. C. Los antiguos griegos
realizaban censos cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.
[editar]Orígenes en probabilidadLos métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la
correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer tratamiento
científico que se conoce a la materia. El Ars coniectandi(póstumo, 1713) de Jakob Bernoulli y la Doctrina de
posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemáticas.1 En la era
moderna, el trabajo de Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la Teoría de
Probabilidades, el cual es usado a través de la estadística.
La teoría de errores se puede remontar a la Ópera miscellánea (póstuma, 1722) de Roger Cotes y al trabajo
preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de la discusión
de errores de observación. La reimpresión (1757) de este trabajo incluye el axioma de que errores positivos y
negativos son igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se encuentran
todos los errores; se describen errores continuos y una curva de probabilidad.
Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de observaciones
desde los principios de la teoría de probabilidades. Laplace representó la Ley de probabilidades de errores
mediante una curva y dedujo una fórmula para la media de tres observaciones. También, en 1871, obtiene la
fórmula para la ley de facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones
inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las probabilidades de un
sistema de errores concurrentes.
Fotografía de Ceres por el telescopio espacial Hubble. La posición fue estimada por Gauss
mediante el método de mínimos cuadrados.
El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado
independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), yCarl Friedrich Gauss (1809). Gauss
había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas
adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel (1838),W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros
contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La
fórmula de Peters para , el probable error de una observación simple es bien conocido.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860),
Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson.Augustus De Morgan y George
Boole mejoraron la presentación de la teoría. Adolphe Quetelet(1796-1874), fue otro importante fundador de la
estadística y quien introdujo la noción del «hombre promedio» (l’homme moyen) como un medio de entender los
fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios.
[editar]Estado actualDurante el siglo XX, la creación de instrumentos precisos para asuntos de salud
pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de desempleo, econometría,
etc.) necesitó de avances sustanciales en las prácticas estadísticas.
Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al gobierno.
Personas y organizaciones usan la estadística para entender datos y tomar decisiones en ciencias naturales y
sociales, medicina, negocios y otras áreas. La estadística es entendida generalmente no como un sub-área de las
matemáticas sino como una ciencia diferente «aliada». Muchas universidades tienen departamentos académicos
de matemáticas y estadística separadamente. La estadística se enseña en departamentos tan diversos
como psicología, educación y salud pública.
Regresión lineal - Gráficos de dispersión en estadística.
Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser
estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca o de bienes
manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado
en varios ascos instantes y los datos recogidos de esta manera constituyen una serie de tiempo.
Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto
seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera
observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos:
descripción e inferencia.
El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar
que dos variables (esto es, dos propiedades de la población bajo consideración) tienden a variar conjuntamente,
como si hubiera una conexión entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte podría
resultar en que personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos
variables se dicen que están correlacionadas. Sin embargo, no se puede inferir inmediatamente la existencia de
una relación de causalidad entre las dos variables. El fenómeno correlacionado podría ser la causa de una tercera,
previamente no considerada, llamada variable confusora.
Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser
extendidas a la población completa. Un problema mayor es el de determinar que tan representativa es la muestra
extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de
recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño
experimental.
El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística
matemática(también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de
probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.
El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración satisface
los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción
e interpretación, afectando las políticas sociales, la práctica médica y la calidad de estructuras tales como puentes
y plantas de reacción nuclear.
Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por
un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que mide el grado al cual la
tendencia puede ser causada por una variación aleatoria en la muestra, puede no estar de acuerdo con el sentido
intuitivo. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para
manejar información en el día a día se refiere como «cultura estadística».
[editar]Métodos estadísticos
[editar]Estudios experimentales y observacionalesUn objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en particular extraer
una conclusión en el efecto que algunos cambios en los valores de predictores o variables independientes tienen
sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios estadísticos para estudiar
causalidad: estudios experimentales y observacionales. En ambos tipos de estudios, el efecto de las diferencias de
una variable independiente (o variables) en el comportamiento de una variable dependiente es observado. La
diferencia entre los dos tipos es la forma en que el estudio es conducido. Cada uno de ellos puede ser muy
efectivo.
[editar]Niveles de mediciónHay cuatro tipos de mediciones o escalas de medición en estadística. Los cuatro tipos de niveles de
medición (nominal, ordinal,intervalo y razón) tienen diferentes grados de uso en la investigación estadística. Las
medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor
flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos. Las medidas de intervalo
tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de
coeficiente intelectual o temperatura en grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre
valores consecutivos, pero un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango
interpretable entre sus valores.
La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en
clases. La escala ordinal, por su parte, recurre a la propiedad de «orden» de los números. La escala de intervalos
iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero
en las escalas de intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la magnitud que
estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la
magnitud de los intervalos (distancia) entre todos los elementos de la escala. La escala de coeficientes o Razones
es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un
punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que
estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el
efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo
presente en el objeto de estudio.
LógicaLa lógica es una ciencia formal que estudia los principios de la demostración e inferencia válida. La palabra deriva
del griego antiguoλογική (logike), que significa «dotado de razón, intelectual, dialéctico, argumentativo», que a su
vez viene de λόγος (logos), «palabra,pensamiento, idea, argumento, razón o principio».
La lógica examina la validez de los argumentos en términos de su estructura lógica, independientemente
del contenido específico deldiscurso y de la lengua utilizada en su expresión y de los estados reales a los que
dicho contenido se pueda referir.
Esto es exactamente lo que quiere decir que la lógica es una ciencia «formal».
Tradicionalmente ha sido considerada como una parte de la filosofía. Pero en su desarrollo histórico, a partir del
final del siglo XIX, y suformalización simbólica ha mostrado su íntima relación con las matemáticas; de tal forma
que algunos la consideran como Lógica matemática.
En el siglo XX la lógica ha pasado a ser principalmente la lógica simbólica. Un cálculo definido por unos símbolos y
unas reglas de inferencia.1 Lo que ha permitido un campo de aplicación fundamental en la actualidad:
la informática.
Hasta entonces la lógica no tuvo este sentido de estructura formal estricta. La
tradición aristotélica y estoica,2 mantuvo siempre una relación con los argumentos del lenguaje natural,
concediendo por tanto a los argumentos una transmisión de contenidos verdaderos. Por ello aún siendo formales,
no eran formalistas.3
Hoy, tras los progresos científicos relativos a la lingüística, y el concepto semántico de verdad en su relación con el
lenguaje,4 tal relación se trata bajo un punto de vista completamente diferente.
La formalización estricta ha mostrado las limitaciones de la lógica tradicional interpretada actualmente como una
particularidad de lalógica de clases.5
Contenido
[ocultar]
1 Diferentes acepciones del término «lógica» o 1.1 Ciencia argumentativa y propedéutica o 1.2 Ciencia del pensar o 1.3 Ciencia formal o 1.4 La lógica informal
2 Sistemas lógicos o 2.1 Lógicas clásicas o 2.2 Lógicas no clásicas o 2.3 Lógicas modales
3 Metalógica o 3.1 Consistencia o 3.2 Decidibilidad o 3.3 Completitud
4 Falacias o 4.1 Falacias formales o 4.2 Falacias informales
5 Paradojas 6 Historia de la lógica o 6.1 Edad Antigua o 6.2 Edad Media o 6.3 La Edad Moderna o 6.4 Siglo XIX o 6.5 Siglo XX
7 Notas y referencias 8 Bibliografía adicional 9 Véase también 10 Enlaces externos
[editar]Diferentes acepciones del término «lógica»
[editar]Ciencia argumentativa y propedéuticaEl término «lógica», se encuentra en los antiguos peripatéticos y estoicos como una teoría de la argumentación o
argumento cerrado;6De este modo la forma argumentativa responde al principio de conocimiento que supone que
representa adecuadamente la realidad.7Por ello, sin perder su condición de formalidad, no son formalistas y no
acaban de desprenderse de las estructuras propias dellenguaje.3
Con el nombre de Dialéctica, en la Edad Media, la Lógica mantiene la condición de ciencia propedéutica. Así se
estudia en la estructura de las enseñanzas del Trivium como una de las artes liberales.
En la Edad Moderna la lógica tradicional aristotélica adquiere un nuevo enfoque en las interpretaciones
racionalistas de Port Royal, en el siglo XVII, pero tampoco supusieron un cambio radical en el concepto de la
Lógica como ciencia.
[editar]Ciencia del pensar
Gottfried Leibniz (1646-1716).
Los filósofos racionalistas, sin embargo, al situar el origen de la reflexión filosófica en la conciencia, aportaron, a
través del desarrollo del análisis como método científico delpensar,8 los temas que van a marcar el desarrollo
de la lógica formal. Son de especial importancia la idea de Descartes de una Mathesis universalis9 y de Leibniz
que, con suCharacteristica Universalis supone la posibilidad de un lenguaje universal, especificado con precisión
matemática sobre la base de que la sintaxis de las palabras debería estar encorrespondencia con
las entidades designadas como individuos o elementos metafísicos, lo que haría posible
un cálculo o computación mediante algoritmo en el descubrimiento de la verdad.10 11
Aparecen los primeros intentos y realizaciones de máquinas de cálculo, (Pascal, Leibniz) y, aunque su desarrollo
no fue eficaz, sin embargo la idea de una Mathesis Universal oCaracterística Universal, es el antecedente
inmediato del desarrollo de la lógica simbólica a partir del siglo XX.
La palabra «lógica» ha sido utilizada como lógica trascendental por Kant, en el sentido de investigar
los conceptos puros a priori del entendimiento o categorías trascendentales.
Hegel considera la lógica dentro del absoluto como proceso dialéctico del Absoluto, entendido éste como Principio
Absoluto, Espíritu Absoluto, y Sujeto, como Sujeto Absoluto.12 13 La lógica, la epistemología y la ontología van
unidas y son expuestas en la filosofía entendida ésta como Sistema Absoluto.
[editar]Ciencia formalEn el último tercio del siglo XIX la Lógica va a encontrar su transformación más profunda de la mano de las
investigaciones matemáticas y lógicas, junto con el desarrollo de la investigación de las estructuras profundas del
lenguaje, la lingüística, convirtiéndose definitivamente en una ciencia formal.
[editar]La lógica informalEn el lenguaje cotidiano, expresiones como «lógica» o «pensamiento lógico», aporta también un sentido alrededor
de un «pensamiento lateral» comparado, haciendo los contenidos de la afirmación coherentes con un contexto,
bien sea del discurso o de una teoría de laciencia, o simplemente con las creencias o evidencias transmitidas por
la tradición cultural.
Del mismo modo existe el concepto sociológico y cultural de lógica como, p.e. «la lógica de las mujeres», «lógica
deportiva», etc. que, en general, podríamos considerar como «lógica cotidiana» - también conocida como «lógica
del sentido común».
En estas áreas la «lógica» suele tener una referencia lingüística en la pragmática.
Un argumento en este sentido tiene su «lógica» cuando resulta convincente, razonable y claro; en definitiva cuando
cumple una función de eficacia. La habilidad de pensar y expresar un argumento así corresponde a la retórica,
cuya relación con la verdad es una relaciónprobable.14
[editar]Sistemas lógicos
Artículo principal: Sistema formal.
Existe un debate sobre si es correcto hablar de una lógica, o de varias lógicas, pero en el siglo XX se han
desarrollado no uno, sino varios sistemas lógicos diferentes, que capturan y formalizan distintas partes del lenguaje
natural. Se podría definir a un sistema lógico como un conjunto de cosas, que nos ayudan en la toma de decisiones
que sean lo más convenientemente posible.
Un sistema lógico está compuesto por:
1. Un conjunto de símbolos primitivos (el alfabeto, o vocabulario).
2. Un conjunto de reglas de formación (la gramática) que nos dice cómo construir fórmulas bien formadas a
partir de los símbolos primitivos.
3. Un conjunto de axiomas o esquemas de axiomas. Cada axioma debe ser una fórmula bien formada.
4. Un conjunto de reglas de inferencia. Estas reglas determinan qué fórmulas pueden inferirse de qué
fórmulas. Por ejemplo, una regla de inferencia clásica es el modus ponens, según el cual, dada una
fórmula A, y otra fórmula A → B, la regla nos permite afirmar que B.
Estos cuatro elementos completan la parte sintáctica de los sistemas lógicos. Sin embargo, todavía no se ha dado
ningún significadoa los símbolos discutidos, y de hecho, un sistema lógico puede definirse sin tener que hacerlo.
Tal tarea corresponde al campo llamado semántica formal, que se ocupa de introducir un quinto elemento:
5. Una interpretación formal. En los lenguajes naturales, una misma palabra puede significar diversas cosas
dependiendo de la interpretación que se le dé. Por ejemplo, en el idioma español, la palabra «banco»
puede significar un edificio o un asiento, mientras que en otros idiomas puede significar algo
completamente distinto o nada en absoluto. En consecuencia, dependiendo de la interpretación, variará
también el valor de verdad de la oración «el banco está cerca». Las interpretaciones formales asignan
significados inequívocos a los símbolos, y valores de verdad a las fórmulas.
[editar]Lógicas clásicas
Los sistemas lógicos clásicos son los más estudiados y utilizados de todos, y se caracterizan por incorporar ciertos
principios tradicionales que otras lógicas rechazan. Algunos de estos principios son: el principio del tercero
excluido, el principio de no contradicción, el principio de explosión y la monoticidad de la implicación. Entre los
sistemas lógicos clásicos se encuentran:
Lógica proposicional
Lógica de primer orden
Lógica de segundo orden
[editar]Lógicas no clásicas
Los sistemas lógicos no clásicos son aquellos que rechazan uno o varios de los principios de la lógica clásica.
Algunos de estos sistemas son:
Lógica difusa : Es una lógica plurivalente que rechaza el principio del tercero excluido y propone un número
infinito de valores de verdad.
Lógica relevante : Es una lógica paraconsistente que evita el principio de explosión al exigir que para que un
argumento sea válido, las premisas y la conclusión deben compartir al menos una variable proposicional.
Lógica cuántica : Desarrollada para lidiar con razonamientos en el campo de la mecánica cuántica; su
característica más notable es el rechazo de la propiedad distributiva.
Lógica no monotónica : Una lógica no monotónica es una lógica donde, al agregar una fórmula a una teoría
cualquiera, es posible que el conjunto de consecuencias de esa teoría se reduzca.
Lógica intuicionista : Enfatiza las pruebas, en vez de la verdad, a lo largo de las transformaciones de las
proposiciones.
[editar]Lógicas modales
Las lógicas modales están diseñadas para tratar con expresiones que califican la verdad de los juicios. Así por
ejemplo, la expresión «siempre» califica a un juicio verdadero como verdadero en cualquier momento, es
decir, siempre. No es lo mismo decir «está lloviendo» que decir «siempre está lloviendo».
Lógica modal : Trata con las nociones de necesidad, posibilidad, imposibilidad y contingencia.
Lógica deóntica : Se ocupa de las nociones morales de obligación y permisibilidad.
Lógica temporal : Abarca operadores temporales como «siempre», «nunca», «antes», «después», etc.
Lógica epistémica : Es la lógica que formaliza los razonamientos relacionados con el conocimiento.
Lógica doxástica : Es la lógica que trata con los razonamientos acerca de las creencias.
[editar]Metalógica
Mientras la lógica se encarga, entre otras cosas, de construir sistemas lógicos, la metalógica se ocupa de estudiar
las propiedades de dichos sistemas. Las propiedades más importantes que se pueden demostrar de los sistemas
lógicos son:
[editar]Consistencia
Artículo principal: Consistencia (lógica).
Un sistema tiene la propiedad de ser consistente cuando no es posible deducir una contradicción dentro del
sistema. Es decir, dado un lenguaje formal con un conjunto de axiomas, y un aparato deductivo (reglas de
inferencia), no es posible llegar a una contradicción.
[editar]Decidibilidad
Artículo principal: Decidibilidad.
Se dice de un sistema que es decidible cuando, para cualquier fórmula dada en el lenguaje del sistema, existe
un método efectivo para determinar si esa fórmula pertenece o no al conjunto de las verdades del sistema. Cuando
una fórmula no puede ser probada verdadera ni falsa, se dice que la fórmula es independiente, y que por lo tanto el
sistema es no decidible. La única manera de incorporar una fórmula independiente a las verdades del sistema es
postulándola como axioma. Dos ejemplos muy importantes de fórmulas independientes son el axioma de
elección en la teoría de conjuntos, y el quinto postulado de la geometría euclidiana.
[editar]Completitud
Artículo principal: Completitud (lógica).
Se habla de completitud en varios sentidos, pero quizás los dos más importantes sean los de completitud
semántica y completitud sintáctica. Un sistema S en un lenguaje L es semánticamente completo cuando todas
las verdades lógicas de L son teoremas de S. En cambio, un sistema S es sintácticamente completo si, para toda
fórmula A del lenguaje del sistema, A es un teorema de S o ¬A es un teorema de S. Esto es, existe una prueba
para cada fórmula o para su negación. La lógica proposicional y la lógica de predicados de primer orden son
ambas semánticamente completas, pero no sintácticamente completas. Por ejemplo, nótese que en la lógica
proposicional, la fórmula p no es un teorema, y tampoco lo es su negación, pero como ninguna de las dos es una
verdad lógica, no afectan a la completitud semántica del sistema. El segundo teorema de incompletitud de
Gödel demuestra que ningún sistema (definido recursivamente) con cierto poder expresivo puede ser a la vez
consistente y completo.
[editar]Falacias
Artículo principal: Falacia.
Una falacia es un argumento que si bien puede ser convincente o persuasivo,15 no es lógicamente válido. Esto no
quiere decir que la conclusión de los argumentos falaces sea falsa, sino que el argumento mismo es malo, no
es válido.16
Existen varias maneras de clasificar a la gran cantidad de falacias conocidas, pero quizás la más neutral y general
(aunque tal vez un poco amplia), sea la que divide a las falacias en formales e informales.
[editar]Falacias formales
Las falacias formales son aquellas cuyo error reside en la forma o estructura de los argumentos. Algunos ejemplos
conocidos de falacias formales son:
Afirmación del consecuente : Un ejemplo de esta falacia podría ser:
1. Si María estudia, entonces aprobará el examen.
2. María aprobó el examen.
3. Por lo tanto, María estudió.
Esta falacia resulta evidente cuando advertimos que puede haber muchas otras razones de por qué María
aprobó el examen. Por ejemplo, pudo haber copiado, o quizá tuvo suerte, o quizá aprobó gracias a lo que
recordaba de lo que escuchó en clase, etc. En tanto es una falacia formal, el error en este argumento reside
en la forma del mismo, y no en el ejemplo particular de María y su examen. La forma del argumento es la
siguiente:
4. Si p, entonces q.
5. q
6. Por lo tanto, p.
Generalización apresurada : En esta falacia, se intenta concluir una proposición general a partir de un número
relativamente pequeño de casos particulares. Por ejemplo:
1. Todos las personas altas que conozco son rápidas.
2. Por lo tanto, todas las personas altas son rápidas.
El límite entre una generalización apresurada y un razonamiento inductivo puede ser muy delgado, y encontrar
un criterio para distinguir entre uno y otro es parte del problema de la inducción.
[editar]Falacias informales
Las falacias informales son aquellas cuya falta está en algo distinto a la forma o estructura de los argumentos. Esto
resulta más claro con algunos ejemplos:
Falacia ad hominem : se llama falacia ad hominem a todo argumento que, en vez de atacar la posición y las
afirmaciones del interlocutor, ataca al interlocutor mismo. La estrategia consiste en descalificar la posición del
interlocutor, al descalificar a su defensor. Por ejemplo, si alguien argumenta: «Usted dice que robar está mal,
pero usted también lo hace», está cometiendo una falacia ad hominem (en particular, una falacia tu quoque),
pues pretende refutar la proposición «robar está mal» mediante un ataque al proponente. Si un ladrón dice que
robar está mal, quizás sea muy hipócrita de su parte, pero eso no afecta en nada a la verdad o la falsedad de
la proposición en sí.
Falacia ad verecundiam : se llama falacia ad verecundiam a aquel argumento que apela a la autoridad o al
prestigio de alguien o de algo a fin de defender una conclusión, pero sin aportar razones que la justifiquen.
Falacia ad ignorantiam : se llama falacia ad ignorantiam al argumento que defiende la verdad o falsedad de
una proposición porque no se ha podido demostrar lo contrario.
Falacia ad baculum : Se llama falacia ad baculum a todo argumento que defiende una proposición basándose
en la fuerza o en la amenaza.
Falacia circular : se llama falacia circular a todo argumento que defiende una conclusión que se verifica
recíprocamente con la premisa, es decir que justifica la vericidad de la premisa con la de la conclusión y
viceversa, cometiendo circularidad.
Falacia del hombre de paja : Sucede cuando, para rebatir los argumentos de un interlocutor, se distorsiona su
posición y luego se refuta esa versión modificada. Así, lo que se refuta no es la posición del interlocutor, sino
una distinta que en general es más fácil de atacar. Tómese por ejemplo el siguiente diálogo:
Persona A: Sin duda estarás de acuerdo en que los Estados Unidos tienen el sistema legal más justo y el
gobierno más organizado.
Persona B: Si los Estados Unidos son el mejor país del mundo, eso sólo significa que las opciones son
muy pocas y muy pobres.
En este diálogo, la persona B puso en la boca de la persona A algo que ésta no dijo: que los Estados
Unidos son el mejor país del mundo. Luego atacó esa posición, como si fuera la de la persona A.
[editar]Paradojas
Artículo principal: Paradoja.
Una paradoja es un razonamiento en apariencia válido, que parte de premisas en apariencia verdaderas,
pero que conduce a una contradicción o a una situación contraria al sentido común.17 Los esfuerzos por
resolver ciertas paradojas han impulsado desarrollos en la lógica, la filosofía, la matemática y
las ciencias en general.
[editar]Historia de la lógica
Artículo principal: Historia de la lógica.
Históricamente la palabra «lógica» ha ido cambiando de sentido. Comenzó siendo una modelización de
los razonamientos, propuesta por los filósofos griegos, y posteriormente ha evolucionado hacia
diversos sistemas formales. Etimológicamente la palabra lógica deriva del término griego Λογικός logikós,
que a su vez deriva de λόγος logos 'razón, palabra, discurso'.18
En un principio la lógica no tuvo el sentido de estructura formal estricta.
[editar]Edad AntiguaLa lógica, como un análisis explícito de los métodos de razonamiento, se desarrolló originalmente en tres
civilizaciones de la historia antigua: China, India y Grecia, entre el siglo V y el siglo I a. C.
En China no duró mucho tiempo: la traducción y la investigación escolar en lógica fue reprimida por
la dinastía Qin, acorde con la filosofía legista. En India, la lógica duró bastante más: se desarrolló (por
ejemplo con la nyāya) hasta que en el mundo islámico apareció la escuela de Asharite, la cual suprimió
parte del trabajo original en lógica. A pesar de lo anterior, hubo innovaciones escolásticas indias hasta
principios del siglo XIX, pero no sobrevivió mucho dentro de la India colonial. El tratamiento sofisticado y
formal de la lógica moderna aparentemente proviene de la tradición griega.
Se considera a Aristóteles el fundador de la lógica como propedéutica o herramienta básica para todas las
ciencias. Aristóteles fue el primero en formalizar los razonamientos, utilizando letras para representar
términos. También fue el primero en emplear el término «lógica» para referirse al estudio de
los argumentos dentro del «lenguaje apofántico» como manifestador de la verdad en la ciencia. Sostuvo
que la verdad se manifiesta en el juicio verdadero y el argumento válido en el silogismo: «Silogismo es un
argumento en el cual, establecidas ciertas cosas, resulta necesariamente de ellas, por ser lo que son, otra
cosa diferente».19 Se refirió en varios escritos de su Órganon a cuestiones tales como concepto,
la proposición, definición, prueba y falacia. En su principal obra lógica, losPrimeros analíticos, desarrolló
el silogismo, un sistema lógico de estructura rígida. Aristóteles también formalizó el cuadro de oposición
de los juicios y categorizó las formas válidas del silogismo. Además, Aristóteles reconoció y estudió los
argumentos inductivos, base de lo que constituye la ciencia experimental, cuya lógica está estrechamente
ligada al método científico. La influencia de los logros de Aristóteles fue tan grande, que en el siglo
XVIII, Immanuel Kant llegó a decir que Aristóteles había prácticamente completado la ciencia de la
lógica.20
Los filósofos estoicos introdujeron el silogismo hipotético y anunciaron la lógica proposicional, pero no
tuvo mucho desarrollo.
Por otro lado, la lógica informal fue cultivada por la retórica, la oratoria y la filosofía, entre otras ramas del
conocimiento. Estos estudios se centraron principalmente en la identificación de falacias y paradojas, así
como en la construcción correcta de los discursos.
En el periodo romano la lógica tuvo poco desarrollo, más bien se hicieron sumarios y comentarios a las
obras recibidas, siendo los más notables: Cicerón, Porfirio y Boecio. En el período bizantino, Filopón.
[editar]Edad Media
Averroes, uno de los principales árabes en rescatar la lógica aristotélica y regresarla a
Occidente.
Con el nombre de Dialéctica en la Edad Media la Lógica mantiene la condición de cienciapropedéutica.
Así se estudia en la estructura de las enseñanzas del Trivium como una de las artes liberales pero sin
especiales aportaciones en la Alta Edad Media.
En su evolución hacia la Baja Edad Media son importantes las aportaciones árabes de Al-
Farabí; Avicena 21 y Averroes, pues fueron los árabes quienes reintrodujeron los escritos de Aristóteles en
Europa.
En la Baja Edad Media su estudio era requisito para entrar en cualquier universidad. Desde mediados del
siglo XIII se incluyen en la lógica tres cuerpos separados del texto. En lalogica vetus y logica nova es
tradicional escritos lógicos, especialmente el Órganon de Aristóteles y los comentarios
de Boecio y Porfirio. La parva logicalia puede ser considerada como representativa de la lógica medieval.
La evolución crítica que se va desarrollando a partir de las aportaciones de Abelardodinamizaron la
problemática lógica y epistemológica a partir del siglo XIII (Pedro Hispano;Raimundo Lulio 22 Lambert de
Auxerre Guillermo de Sherwood) que culminaron en toda la problemática del siglo XIV: Guillermo de
Ockham; Jean Buridan; Alberto de Sajonia.
Aquí están tratados una cantidad de nuevos problemas en la frontera de la lógica y la semántica que no
fueron tratados por los pensadores antiguos. De especial relevancia es la problemática respecto a la
valoración de los términos del lenguaje en relación con los conceptos universales, así como el estatuto
epistemológico y ontológico de éstos.
[editar]La Edad ModernaUn nuevo enfoque adquiere esta lógica en las interpretaciones racionalistas de Port Royal, en el siglo
XVII, (Antoine Arnauld; Pierre Nicole) pero tampoco supusieron un cambio radical en el concepto de la
Lógica como ciencia.
Los filósofos racionalistas, sin embargo, aportaron a través del desarrollo del análisis y su desarrollo en
las matemáticas (Descartes,Pascal y Leibniz) los temas que van a marcar el desarrollo posterior. Son de
especial importancia la idea de Descartes de unaMathesis universalis23 y de Leibniz en la búsqueda de
un lenguaje universal, especificado con precisión matemática sobre la base de que la sintaxis de
las palabras debería estar en correspondencia con las entidades designadas como individuos o
elementosmetafísicos, lo que haría posible un cálculo o computación mediante algoritmo en el
descubrimiento de la verdad.24
Aparecen los primeros intentos y realizaciones de máquinas de cálculo, (Pascal, Leibniz) y, aunque su
desarrollo no fue eficaz, sin embargo la idea de una Mathesis Universal o «Característica Universal», es
el antecedente inmediato del desarrollo de la lógica a partir del siglo XX.
Artículo principal: Kant.
Kant consideraba que la lógica por ser una ciencia a priori había encontrado su pleno desarrollo
prácticamente con la lógica aristotélica, por lo que apenas había sido modificada desde entonces.25
Pero hace un uso nuevo de la palabra «lógica» como lógica trascendental, en el sentido de investigar
los conceptos puros delentendimiento o categorías trascendentales.
Artículo principal: Idealismo.
La lógica del pensar trascendental acaba situándose en un proceso dialéctico como idealismo
subjetivo en Fichte; idealismo objetivoen Schelling y, finalmente un idealismo absoluto en
Artículo principal: Hegel.
Hegel considera la lógica dentro del Absoluto como un proceso dialéctico del Espíritu Absoluto26 que
produce sus determinaciones como concepto y su realidad como resultado en el devenir de la Idea del
Absoluto como Sujeto27 cuya verdad se manifiesta en elresultado del movimiento mediante
la contradicción en tres momentos sucesivos, tesis-antítesis-síntesis. La epistemología y laontología van
unidas y expuestas en la Filosofía entendida ésta como Sistema Absoluto.
[editar]Siglo XIXA partir de la segunda mitad del siglo XIX, la lógica sería revolucionada profundamente. En 1847, George
Boole publicó un breve tratado titulado El análisis matemático de la lógica, y en 1854 otro más importante
titulado Las leyes del pensamiento. La idea de Boole fue construir a la lógica como un cálculo en el que
los valores de verdad se representan mediante el 0 (falsedad) y el 1 (verdad), y a los que se les
aplican operaciones matemáticas como la suma y la multiplicación.
Al mismo tiempo, Augustus De Morgan publica en 1847 su obra Lógica formal, donde introduce las leyes
de De Morgan e intenta generalizar la noción de silogismo. Otro importante contribuyente inglés fue John
Venn, quien en 1881 publicó su libro Lógica Simbólica, donde introdujo los famosos diagramas de Venn.
Charles Sanders Peirce y Ernst Schröder también hicieron importantes contribuciones.
Sin embargo, la verdadera revolución de la lógica vino de la mano de Gottlob Frege, quien
frecuentemente es considerado como el lógico más importante de la historia, junto con Aristóteles. En su
trabajo de 1879, la Conceptografía, Frege ofrece por primera vez un sistema completo de lógica de
predicados. También desarrolla la idea de un lenguaje formal y define la noción de prueba. Estas ideas
constituyeron una base teórica fundamental para el desarrollo de las computadoras y las ciencias de la
computación, entre otras cosas. Pese a esto, los contemporáneos de Frege pasaron por alto sus
contribuciones, probablemente a causa de la complicada notación que desarrolló el autor. En 1893 y
1903, Frege publica en dos volúmenes Las leyes de la aritmética, donde intenta deducir toda
la matemática a partir de la lógica, en lo que se conoce como el proyecto logicista. Su sistema, sin
embargo, contenía una contradicción (la paradoja de Russell).
[editar]Siglo XXEl siglo XX sería uno de enormes desarrollos en lógica. A partir del siglo XX, la lógica pasó a estudiarse
por su interés intrínseco, y no sólo por sus virtudes como propedéutica, por lo que estudió a niveles
mucho más abstractos.
En 1910, Bertrand Russell y Alfred North Whitehead publican Principia mathematica, un trabajo
monumental en el que logran gran parte de la matemática a partir de la lógica, evitando caer en las
paradojas en las que cayó Frege. Los autores reconocen el mérito de Frege en el prefacio. En contraste
con el trabajo de Frege, Principia mathematica tuvo un éxito rotundo, y llegó a considerarse uno de los
trabajos de no ficción más importantes e influyentes de todo el siglo XX. Principia mathematica utiliza una
notación inspirada en la de Giuseppe Peano, parte de la cual todavía es muy utilizada hoy en día.
Si bien a la luz de los sistemas contemporáneos la lógica aristotélica puede parecer equivocada e
incompleta, Jan Łukasiewicz mostró que, a pesar de sus grandes dificultades, la lógica aristotélica era
consistente, si bien había que interpretarse como lógica de clases, lo cual no es pequeña modificación.
Por ello la silogística prácticamente no tiene uso actualmente.
Además de la lógica proposicional y la lógica de predicados, el siglo XX vio el desarrollo de muchos otros
sistemas lógicos; entre los que destacan las muchas lógicas modales.
Matemáticas(Redirigido desde «Matemática»)
Euclides, matemático griego, del siglo III a. C., tal como fue imaginado por Rafael. Detalle de La
Escuela de Atenas.1
Las matemáticas o matemática (del lat. mathematĭca, y este del gr. μαθηματικά, derivado de
μάθημα, conocimiento) es una ciencia formal que, partiendo de axiomas y siguiendo el razonamiento lógico,
estudia las propiedades y relaciones entre entes abstractos (números,figuras geométricas, símbolos). Las
matemáticas se emplean para estudiar relaciones cuantitativas, estructuras, relaciones geométricas y
las magnitudes variables. Losmatemáticos buscan patrones,2 3 formulan nuevas conjeturas e intentan alcanzar
la verdad matemática mediante rigurosas deducciones. Éstas les permiten establecer los axiomas y
las definiciones apropiados para dicho fin.4 Algunas definiciones clásicas restringen las matemáticas al
razonamiento sobre cantidades,5 aunque sólo una parte de las matemáticas actuales usan números, predominando
el análisis lógico de construcciones abstractas no cuantitativas.
Existe cierto debate acerca de si los objetos matemáticos, como los números y puntos, realmente existen o si
provienen de la imaginación humana. El matemático Benjamin Peircedefinió las matemáticas como "la ciencia que
señala las conclusiones necesarias".6 Por otro lado, Albert Einstein declaró que "cuando las leyes de la matemática
se refieren a la realidad, no son exactas; cuando son exactas, no se refieren a la realidad".7
Mediante la abstracción y el uso de la lógica en el razonamiento, las matemáticas han evolucionado basándose en
las cuentas, elcálculo y las mediciones, junto con el estudio sistemático de la forma y el movimiento de los objetos
físicos. Las matemáticas, desde sus comienzos, han tenido un fin práctico.
Las explicaciones que se apoyaban en la lógica aparecieron por primera vez con la matemática helénica,
especialmente con losElementos de Euclides. Las matemáticas siguieron desarrollándose, con continuas
interrupciones, hasta que en el Renacimiento las innovaciones matemáticas interactuaron con los nuevos
descubrimientos científicos. Como consecuencia, hubo una aceleración en la investigación que continúa hasta la
actualidad.
Hoy en día, las matemáticas se usan en todo el mundo como una herramienta esencial en muchos campos, entre
los que se encuentran las ciencias naturales, la ingeniería, la medicina y las ciencias sociales, e incluso disciplinas
que, aparentemente, no están vinculadas con ella, como la música (por ejemplo, en cuestiones de resonancia
armónica). Las matemáticas aplicadas, rama de las matemáticas destinada a la aplicación de los conocimientos
matemáticos a otros ámbitos, inspiran y hacen uso de los nuevos descubrimientos matemáticos y, en ocasiones,
conducen al desarrollo de nuevas disciplinas. Los matemáticos también participan en las matemáticas puras, sin
tener en cuenta la aplicación de esta ciencia, aunque las aplicaciones prácticas de las matemáticas puras suelen
ser descubiertas con el paso del tiempo.8
Contenido
[ocultar]
1 Etimología 2 La inspiración, las matemáticas puras y aplicadas y la estética 3 Notación, lenguaje y rigor 4 La matemática como ciencia 5 Conceptos erróneos 6 Ramas de estudio de las matemáticas 7 Campos de estudio de la matemática 8 Véase también 9 Referencias o 9.1 Bibliografía o 9.2 Enlaces externos
[editar]Etimología
La palabra "matemática" (del griego μαθηματικά, «cosas que se aprenden») viene del griego antiguo μάθημα
(máthēma), que quiere decir «campo de estudio o instrucción». El significado se contrapone a μουσική (musiké) «lo
que se puede entender sin haber sido instruido», que refiere a poesía, retórica y campos similares, mientras que
μαθηματική se refiere a las áreas del conocimiento que sólo pueden entenderse tras haber sido instruido en las
mismas (astronomía, aritmética).9 Aunque el término ya era usado por lospitagóricos (matematikoi) en el siglo
VI a. C., alcanzó su significado más técnico y reducido de "estudio matemático" en los tiempos de Aristóteles (siglo
IV a. C.). Su adjetivo es μαθηματικός (mathēmatikós), "relacionado con el aprendizaje", lo cual, de manera similar,
vino a significar "matemático". En particular, μαθηματική τέχνη (mathēmatikḗ tékhnē; en latín ars mathematica),
significa "el arte matemática".
La forma más usada es el plural matemáticas, que tiene el mismo significado que el singular5 y viene de la forma
latina mathematica(Cicerón), basada en el plural en griego τα μαθηματικά (ta mathēmatiká), usada por Aristóteles y
que significa, a grandes rasgos, "todas las cosas matemáticas". Algunos autores, sin embargo, hacen uso de la
forma singular del término; tal es el caso de Bourbaki, en el tratado Élements de mathématique (Elementos de
matemática), (1940), destaca la uniformidad de este campo aportada por la visión axiomática moderna, aunque
también hace uso de la forma plural como en Éléments d'histoire des mathématiques (Elementos de historia de las
matemáticas) (1969), posiblemente sugiriendo que es Bourbaki quien finalmente realiza la unificación de las
matemáticas.10 Así mismo, en el escrito L'Architecture des mathématiques (1948) plantea el tema en la sección
"Matemáticas, singular o plural" donde defiende la unicidad conceptual de las matemáticas aunque hace uso de la
forma plural en dicho escrito.11 Es importante señalar también que Bourbaki no hace referencia a una sola persona,
sino que en realidad consistía de un colectivo de diferentes matemáticos escribiendo bajo un pseudónimo.
[editar]La inspiración, las matemáticas puras y aplicadas y la estética
Véase también: Belleza matemática.
Sir Isaac Newton (1643-1727), comparte con Leibniz la autoría del desarrollo delcálculo integral y
diferencial.
Es muy posible que el arte del cálculo haya sido desarrollado antes incluso que la escritura,12 relacionado
fundamentalmente con la contabilidad y la administración de bienes, el comercio, en la agrimensura y,
posteriormente, en la astronomía.
Actualmente, todas las ciencias aportan problemas que son estudiados por matemáticos, al mismo tiempo que
aparecen nuevos problemas dentro de las propias matemáticas. Por ejemplo, el físico Richard Feynman propuso
la integral de caminos como fundamento de lamecánica cuántica, combinando el razonamiento matemático y el
enfoque de la física, pero todavía no se ha logrado una definición plenamente satisfactoria en términos
matemáticos. Similarmente, la teoría de las cuerdas, una teoría científica en desarrollo que trata de unificar las
cuatro fuerzas fundamentales de la física, sigue inspirando a las más modernas matemáticas.13
Algunas matemáticas solo son relevantes en el área en la que estaban inspiradas y son aplicadas para otros
problemas en ese campo. Sin embargo, a menudo las matemáticas inspiradas en un área concreta resultan útiles
en muchos ámbitos, y se incluyen dentro de los conceptos matemáticos generales aceptados. El notable hecho de
que incluso la matemática más pura habitualmente tiene aplicaciones prácticas es lo que Eugene Wignerha
definido como la irrazonable eficacia de las matemáticas en las Ciencias Naturales.14
Como en la mayoría de las áreas de estudio, la explosión de los conocimientos en la era científica ha llevado a la
especialización de las matemáticas. Hay una importante distinción entre las matemáticas puras y las matemáticas
aplicadas. La mayoría de los matemáticos que se dedican a la investigación se centran únicamente en una de
estas áreas y, a veces, la elección se realiza cuando comienzan su licenciatura. Varias áreas de las matemáticas
aplicadas se han fusionado con otras áreas tradicionalmente fuera de las matemáticas y se han convertido en
disciplinas independientes, como pueden ser la estadística, la investigación de operaciones o lainformática.
Aquellos que sienten predilección por las matemáticas, consideran que prevalece un aspecto estético que define a
la mayoría de las matemáticas. Muchos matemáticos hablan de la elegancia de la matemática, su
intrínseca estética y su belleza interna. En general, uno de sus aspectos más valorados es la simplicidad. Hay
belleza en una simple y contundente demostración, como la demostración de Euclides de la existencia de
infinitos números primos, y en un elegante análisis numérico que acelera el cálculo, así como en latransformada
rápida de Fourier. G. H. Hardy en A Mathematician's Apology (Apología de un matemático) expresó la convicción
de que estas consideraciones estéticas son, en sí mismas, suficientes para justificar el estudio de las matemáticas
puras.15 Los matemáticos con frecuencia se esfuerzan por encontrar demostraciones de los teoremas que son
especialmente elegantes, el excéntrico matemático Paul Erdős se refiere a este hecho como la búsqueda de
pruebas de "El Libro" en el que Dios ha escrito sus demostraciones favoritas.16 17 La popularidad de la matemática
recreativa es otra señal que nos indica el placer que produce resolver las preguntas matemáticas.
[editar]Notación, lenguaje y rigor
Artículo principal: Notación matemática.
Leonhard Euler. Probablemente el más prolífico matemático de todos los tiempos.
La mayor parte de la notación matemática que se utiliza hoy en día no se inventó hasta el siglo XVIII.18 Antes de
eso, las matemáticas eran escritas con palabras, un minucioso proceso que limita el avance matemático. En el
siglo XVIII, Euler, fue responsable de muchas de las notaciones empleadas en la actualidad. La notación moderna
hace que las matemáticas sean mucho más fácil para los profesionales, pero para los principiantes resulta
complicada. La notación reduce las matemáticas al máximo, hace que algunos símbolos contengan una gran
cantidad de información. Al igual que la notación musical, la notación matemática moderna tiene una sintaxis
estricta y codifica la información que sería difícil de escribir de otra manera.
El símbolo de infinito en diferentes tipografías.
El lenguaje matemático también puede ser difícil para los principiantes. Palabras tales como o y sólo tiene
significados más precisos que en lenguaje cotidiano. Además, palabras como abierto y cuerpo tienen significados
matemáticos muy concretos. La jerga matemática, o lenguaje matemático, incluye términos técnicos
como homeomorfismo ointegrabilidad. La razón que explica la necesidad de utilizar la notación y la jerga es que el
lenguaje matemático requiere más precisión que el lenguaje cotidiano. Los matemáticos se refieren a esta
precisión en el lenguaje y en la lógica como el "rigor".
El rigor es una condición indispensable que debe tener una demostración matemática. Los matemáticos quieren
que sus teoremas a partir de los axiomas sigan un razonamiento sistemático. Esto sirve para
evitar teoremas erróneos, basados en intuiciones falibles, que se han dado varias veces en la historia de esta
ciencia.19 El nivel de rigor previsto en las matemáticas ha variado con el tiempo: los griegos buscaban argumentos
detallados, pero en tiempos de Isaac Newton los métodos empleados eran menos rigurosos. Los problemas
inherentes de las definiciones que Newton utilizaba dieron lugar a un resurgimiento de un análisis cuidadoso y a las
demostraciones oficiales del siglo XIX. Ahora, los matemáticos continúan apoyándose entre ellos mediante
demostraciones asistidas por ordenador.20
Un axioma se interpreta tradicionalmente como una "verdad evidente", pero esta concepción es problemática. En el
ámbito formal, un axioma no es más que una cadena de símbolos, que tiene un significado intrínseco sólo en el
contexto de todas las fórmulas derivadas de un sistema axiomático.
[editar]La matemática como ciencia
Carl Friedrich Gauss, apodado el "príncipe de los matemáticos", se refería a la matemática como
"la reina de las ciencias".
Carl Friedrich Gauss se refería a la matemática como "la reina de las ciencias".21 Tanto en el latín
original Scientiarum Regina, así como en alemán Königin der Wissenschaften, la palabra ciencia debe ser
interpretada como (campo de) conocimiento. Si se considera que la ciencia es el estudio del mundo físico,
entonces las matemáticas, o por lo menosmatemáticas puras, no son una ciencia.
Muchos filósofos creen que las matemáticas no son experimentalmente falseables, y, por tanto, no es una ciencia
según la definición de Karl Popper.22 No obstante, en la década de 1930 una importante labor en la lógica
matemática demuestra que las matemáticas no puede reducirse a la lógica, y Karl Popper llegó a la conclusión de
que "la mayoría de las teorías matemáticas son, como las de física y biología, hipotético-deductivas. Por lo tanto,
las matemáticas puras se han vuelto más cercanas a las ciencias naturales cuyas hipótesis son conjeturas, así ha
sido hasta ahora".23 Otros pensadores, en particular Imre Lakatos, han solicitado una versión
de Falsacionismo para las propias matemáticas.
Una visión alternativa es que determinados campos científicos (como la física teórica) son matemáticas con
axiomas que pretenden corresponder a la realidad. De hecho, el físico teórico, J. M. Ziman, propone que la ciencia
es conocimiento público y, por tanto, incluye a las matemáticas.24 En cualquier caso, las matemáticas tienen mucho
en común con muchos campos de las ciencias físicas, especialmente la exploración de las consecuencias lógicas
de las hipótesis. La intuición y la experimentación también desempeñan un papel importante en la formulación
de conjeturas en las matemáticas y las otras ciencias. Las matemáticas experimentales siguen ganando
representación dentro de las matemáticas. El cálculo y simulación están jugando un papel cada vez mayor tanto en
las ciencias como en las matemáticas, atenuando la objeción de que las matemáticas se sirven del método
científico. En 2002 Stephen Wolframsostiene, en su libro Un nuevo tipo de ciencia, que la matemática
computacional merece ser explorada empíricamente como un campo científico.
Las opiniones de los matemáticos sobre este asunto son muy variadas. Muchos matemáticos consideran que
llamar a su campociencia es minimizar la importancia de su perfil estético, además supone negar su historia dentro
de las siete artes liberales. Otros consideran que hacer caso omiso de su conexión con las ciencias supone ignorar
la evidente conexión entre las matemáticas y sus aplicaciones en la ciencia y la ingeniería, que ha impulsado
considerablemente el desarrollo de las matemáticas. Otro asunto de debate, que guarda cierta relación con el
anterior, es si la matemática fue creada (como el arte) o descubierta (como la ciencia). Este es uno de los muchos
temas de incumbencia de la filosofía de las matemáticas.
Los premios matemáticos se mantienen generalmente separados de sus equivalentes en la ciencia. El más
prestigioso premio dentro de las matemáticas es la Medalla Fields,25 26 fue instaurado en 1936 y se concede cada 4
años. A menudo se le considera el equivalente del Premio Nobel para la ciencia. Otros premios son el Premio Wolf
en matemática, creado en 1978, que reconoce el logro en vida de los matemáticos, y el Premio Abel, otro gran
premio internacional, que se introdujo en 2003. Estos dos últimos se conceden por un excelente trabajo, que puede
ser una investigación innovadora o la solución de un problema pendiente en un campo determinado. Una famosa
lista de esos 23 problemas sin resolver, denominada los "Problemas de Hilbert", fue recopilada en 1900 por el
matemático alemán David Hilbert. Esta lista ha alcanzado gran popularidad entre los matemáticos y, al menos,
nueve de los problemas ya han sido resueltos. Una nueva lista de siete problemas fundamentales, titulada
"Problemas del milenio", se publicó en2000. La solución de cada uno de los problemas será recompensada con 1
millón de dólares. Curiosamente, tan solo uno (la Hipótesis de Riemann) aparece en ambas listas.
[editar]Conceptos erróneos
Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Matemáticas}} ~~~~
Lo que cuenta como conocimiento en matemática no se determina mediante experimentación, sino
mediante demostraciones. No es la matemática, por lo tanto, una rama de la física (la ciencia con la que
históricamente se encuentra más emparentada), puesto que la física es una ciencia empírica. Por otro lado, la
experimentación desempeña un papel importante en la formulación de conjeturasrazonables, por lo que no se
excluye a ésta de la investigación en matemáticas.
La matemática no es un sistema intelectualmente cerrado, donde todo ya esté hecho. Aún existen gran cantidad de
problemas esperando solución, así como una infinidad esperando su formulación.
Matemática no significa contabilidad. Si bien los cálculos aritméticos son importantes para los contables, los
avances en matemática abstracta difícilmente cambiarán su forma de llevar los libros.
Matemática no significa numerología. La numerología es una pseudociencia que utiliza la aritmética modular para
pasar de nombres y fechas a números a los que se les atribuye emociones o significados esotéricos, basados en la
intuición.
El lenguaje formal no es una simple extensión de los lenguajes naturales humanos que utiliza una gramática y un
vocabulario definidos con extrema precisión, cuyo propósito es la descripción y exploración de relaciones
conceptuales y físicas. Recientemente, los avances en el estudio del lenguaje humano apuntan en una dirección
diferente: los lenguajes naturales (como el español o el francés, por ejemplo) y los lenguajes formales (como el
matemático o los lenguajes de programación) son estructuras de naturaleza básicamente diferente.
[editar]Ramas de estudio de las matemáticas
Artículo principal: Áreas de las matemáticas.
Véase también: Categoría:Áreas de las matemáticas.
La Sociedad Americana de Matemáticas distingue unas 5.000 ramas distintas de matemáticas.27 Dichas ramas
están muy interrelacionadas. En una subdivisión amplia de las matemáticas, se distinguen cuatro objetos de
estudio básicos: la cantidad, la estructura, el espacio y el cambio.[cita requerida]
Los diferentes tipos de cantidades (números) han jugado un papel obvio e importante en todos los aspectos
cuantitativos y cualitativos del desarrollo de la cultura, la ciencia y la tecnología.
El estudio de la estructura comienza al considerar las diferentes propiedades de los números, inicialmente
los números naturales y los números enteros. Las reglas que dirigen las operaciones aritméticas se estudian
en el álgebra elemental, y las propiedades más profundas de los números enteros se estudian en la teoría de
números. Después, la organización de conocimientos elementales produjo los sistemas axiomáticos (teorías),
permitiendo el descubrimiento de conceptos estructurales que en la actualidad dominan esta ciencia (e.g.
estructuras categóricas). La investigación de métodos para resolver ecuaciones lleva al campo del álgebra
abstracta. El importante concepto de vector, generalizado a espacio vectorial, es estudiado en el álgebra
lineal y pertenece a las dos ramas de la estructura y el espacio.
El estudio del espacio origina la geometría, primero la geometría euclídea y luego la trigonometría. En su
faceta avanzada el surgimiento de la topología da la necesaria y correcta manera de pensar acerca de las
nociones de cercanía y continuidad de nuestras concepciones espaciales.
Derivada.
La comprensión y descripción del cambio en variables mensurables es el tema central de las ciencias
naturales y del cálculo. Para resolver problemas que se dirigen en forma natural a relaciones entre una
cantidad y su tasa de cambio, se estudian las ecuaciones diferenciales y de sus soluciones. Los números
usados para representar las cantidades continuas son los números reales. Para estudiar los procesos de
cambio se utiliza el concepto de función matemática. Los conceptos de derivada e integral, introducidos
porNewton y Leibniz, representan un papel clave en este estudio, y son objetos del Cálculo diferencial e
integral y, en cuanto al rigor, se ocupa el Análisis matemático. Es conveniente para muchos fines introducir
función, derivación, integración en el conjunto C de los números complejos, así surgen el cálculo de variable
compleja y el análisis complejo. El análisis funcional consiste en estudiar los espacios vectoriales de
dimensión infinita, problemas cuya incógnita es una función.
[editar]Campos de estudio de la matemática
Se ha sugerido que este artículo o sección sea fusionado con Áreas de las matemáticas(discusión).Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales aquí.
Artículo principal: Áreas de las matemáticas.
Aritmética . Estudio de los números, sus propiedades y las operaciones que pueden hacerse con ellos.
Álgebra . Estudio de las estructuras, las relaciones y las cantidades.
Conjuntos . Es uno de los actuales fundamentos de la matemática, junto con la teoría de categorías.
Geometría . Estudio de los segmentos, las medidas y las relaciones entre estas. Aquí se encuentra
la trigonometría, que estudia las medidas, raciones y relaciones de los triángulos.
Cálculo infinitesimal . Estudia la variación de infinitésimos mediante derivadas e integrales.
Estadística . Analiza e interpreta datos recolectados mediante entrevistas o experimentos de laboratorio.
En la matemática superior:
Topología . Estudia las propiedades de cuerpos geométricos que permanecen inalteradas mediante
transformaciones continuas.
Análisis matemático . Estudia los conceptos del cálculo infinitesimal en espacios más generales, como los
de Hilbert o Banach.
Geometría diferencial . Aplicaciones del cálculo infinitesimal a la geometría.
Geometrías no euclidianas . Geometrías donde el axioma de las paralelas28 de Euclides no es válido.
Teoría de la decisión(Redirigido desde «Teoría de decisiones»)
La teoría de la decisión es una área interdisciplinaria de estudio, relacionada con casi todos los participantes en
ramas de la ciencia, la ingeniería y, principalmente, la psicología del consumidor (basados en perspectivas
cognitivo-conductuales). Concierne a la forma y al estudio del comportamiento y fenómenos psíquicos de aquellos
que toman las decisiones (reales o ficticios), así como las condiciones por las que deben ser tomadas las
decisiones óptimas.
Contenido
[ocultar]
1 Partes de la teoría 2 Tipos de decisiones o 2.1 Elección entre mercancías inconmensurables o 2.2 Elección bajo incertidumbre o 2.3 Elección atemporal
3 Decisiones complejas 4 Paradoja de la elección 5 Referencias o 5.1 Otras referencias
6 Véase también 7 Enlaces externos
[editar]Partes de la teoría
La mayor parte de la teoría de la decisión es normativa o prescriptiva, es decir concierne a la identificación de la
mejor decisión que pueda ser tomada, asumiendo que una persona que tenga que tomar decisiones (decision
maker) sea capaz de estar en un entorno de completa información, capaz de calcular con precisión y
completamente racional. La aplicación práctica de esta aproximación prescriptiva (de como la gente debería hacer
y tomar decisiones) se denomina análisis de la decisión y proporciona una búsqueda de herramientas,
metodologías y software para ayudar a las personas a tomar mejores decisiones. Las herramientas
de softwareorientadas a este tipo de ayudas se desarrollan bajo la denominación global de Sistemas para la ayuda
a la decisión (decision support systems, abreviado en inglés como DSS).
Como parece obvio que las personas no se encuentran en estos entornos óptimos y con la intención de hacer la
teoría más realista, se ha creado un área de estudio relacionado que se encarga de la parte de la disciplina
más positiva o descriptiva, intentando describir qué es lo que la gente realmente hace durante el proceso de toma
de decisiones. Se pensó en esta teoría debido a que la teoría normativa, trabaja sólo bajo condiciones óptimas de
decisión y a menudo crea hipótesis, para ser probadas, algo alejadas de la realidad cotidiana. Los dos campos
están íntimamente relacionados; no obstante, es posible relajar algunas presunciones de la información perfecta
que llega al sujeto que toma decisiones, se puede rebajar su racionalidad y así sucesivamente, hasta llegar a una
serie de prescripciones o predicciones sobre el comportamiento de la persona que toma decisiones, permitiendo
comprobar qué ocurre en la práctica de la vida cotidiana.
[editar]Tipos de decisiones
Existen tipos de decision que son interesantes desde el punto de vista del desarrollo de una teoría, estos son:
Decisión sin riesgo entre mercancías inconmensurables (mercancías que no pueden ser medidas bajo las
mismas unidades)
Elección bajo impredecibilidad
Elección intertemporal - estudio del valor relativo que la gente asigna a dos o más bienes en diferentes
momentos del tiempo
Decisiones sociales: decisiones tomadas en grupo o bajo una estructura organizativa
[editar]Elección entre mercancías inconmensurablesEsta área es importante cuando se ha de tomar la decisión de elegir, por ejemplo, entre comprar una tonelada
de cañones.
[editar]Elección bajo incertidumbreEsta área representa el principal esfuerzo de investigación en la teoría de la decisión. El procedimiento se basa en
el valor esperado ya conocido en el siglo XVII. El filósofo francés Blaise Pascal ya lo enunciaba en sus famosas
dudas, contenidas en su Pensamientos, publicado en 1670. La idea del valor esperado consiste en que cuando
afrontamos con un número de acciones, cada una de ellas con un número de resultados asociados a una
probabilidad diferente, el procedimiento racional es identificar todos los posibles resultados de las acciones,
determinar sus valores (positivos o negativos) y sus probabilidades asociadas que resultan de cada acción y, al
multiplicar los dos valores, se obtiene el valor esperado. La acción elegida deberá ser aquella que proporcione el
mayor valor esperado. En 1738, Daniel Bernoulli publicó un documento influyente denominado Exposición de una
nueva Teoría sobre la Medida del Riesgo, en la que emplea la paradoja de San Petersburgo para mostrar que el
valor esperado debe ser normativamente erróneo. Proporciona un ejemplo con un mercante holandés que intenta
decidir si asegurar la carga que quiere enviar desde Ámsterdam a San Petersburgo en invierno, cuando se sabe
que hay un 5% de posibilidad de perder la carga durante el viaje. En su solución, define por primera vez lafunción
de utilidad y calcula la utilidad esperada en vez del valor financiero.
En el siglo XX el interés por este tema fue reiniciado por un artículo de Abraham Wald en 1939 señalando los dos
temas centrales de la estadística ortodoxa de aquel tiempo: los test de hipótesis estadísticas y la teoría de la
estimación estadística, que podrían ser aspectos especiales del problema general de la decisión. Este artículo
introduce muchos de los ingredientes actuales de la moderna teoría de la decisión, incluyendo funciones de
pérdida, función de riesgo, reglas de decisión admisibles, distribuciones a priori, teoría de Bayes de la decisión, y
reglas minimax para la toma de decisión. La frase "teoría de la decisión" fue empleada por primera vez en el
año 1950 por E. L. Lehmann.
El crecimiento de la teoría de probabilidad subjetiva, procedente del trabajo de Frank Ramsey, Bruno de
Finetti, Leonard Savage y otros, extendiendo el ámbito de la teoría de la utilidad a situaciones donde sólo la teoría
de la probabilidad subjetiva puede ser empleada. En este tiempo se asume que en economía la gente se comporta
como agentes racionales humanos que toman decisiones bajo riesgo. El trabajo de Maurice Allais y Daniel
Ellsberg mostró que no es tan fácilmente formalizar estas situaciones. La teoría prospectiva de Daniel
Kahneman y Amos Tversky dio lugar a la economía comportacional. En esta teoría se enfatiza en las capacidades
humanas (opuestas a lo normativamente correcto) en la toma de decisiones basada en "perdidas y ganancias", la
gente es más focalizada en los cambios en sus estados de utilidad y en la estimación subjetiva a
menudo sesgada por anclaje.
La Apuesta de Pascal es un ejemplo clásico de elección ante incertidumbre. La incertidumbre, de acuerdo
con Pascal, está en saber si Dios existe. Las creencias o escepticismos personales sobre la elección de creer en
su existencia.
[editar]Elección atemporalEsta área concierne a un tipo de tomas de decisión donde intervienen una serie de acciones en diferentes
instantes de tiempo. Por ejemplo, si recibiera una gran cantidad de euros en un instante de tiempo, podría
gastarlos en unas vacaciones de lujo, proporcionándome un placer inmediato, o por el contrario podría invertirlo en
un plan de pensiones, que me proporcionaría un beneficio en el futuro. Surge la pregunta de cuál es la decisión
óptima, la respuesta depende parcialmente de factores tales como el valor deesperanza de vida, la inflación, el
interés, la confianza en el sistema de pensiones, etc. Sin embargo aunque todos estos factores fueran tomados en
cuenta a la hora de tomar la decisión, el comportamiento humano se desvía de las predicciones de la teoría
prescriptiva, dando lugar a modelos alternativos en los que, por ejemplo, el interés objetivo se reemplaza por
un descuento subjetivo.
[editar]Decisiones complejas
Otras áreas de la teoría de la decisión conciernen con la dificultad de tomar decisiones debido en parte a la
"complejidad" de cálculo de las expectativas, o bien por la complejidad de la propia organización que tiene que
tomar las decisiones. En tales casos la teoría no se fija tanto en obtener un cálculo basado en como se desvía una
decisión real de una óptima, sino en la medida de la dificultad de determinar el comportamiento óptimo a la hora de
tomar la decisión. Un ejemplo de esta teoría puede encontrarse en el Club de Roma, que ha desarrollado un
modelo de crecimiento económico y de recursos basado en un modelo que puede ayudar a los políticos a tomar
decisiones en situaciones complejas.
[editar]Paradoja de la elección
Se ha observado en muchos casos que existe la paradoja de que muchas capacidades de elegir puede dar lugar a
una pobre decisión o incluso a una elección errónea. En algunas ocasiones se ha analizado el problema desde
una parálisis del análisis, real o percibido, o incluso desde una ignorancia racional. Un gran número de
investigadores incluido Sheena S. Iyengar y Mark R. Lepper ha publicado estudios basados en este
fenómeno.1 Una popularización de este análisis fue realizado por Barry Schwartz en su libro The Paradox of
Choice2
Teoría de la informaciónLa teoría de la información también conocida como teoría matemática de la comunicación (Mathematical
Theory of Communication) o teoría matemática de la información, es una propuesta teórica presentada
por Claude E. Shannon y Warren Weaver a finales de la década de los 40. Esta teoría está relacionada con las
leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la
información y de la representación de la misma así como también de la capacidad de los sistemas de
comunicación para transmitir y procesar información.1 La Teoría de la Información es una rama de la
teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con
ella: canales, compresión de datos, criptografía y temas relacionados.
Contenido
[ocultar]
1 Historia 2 Desarrollo de la teoría 3 Finalidad 4 Teoría aplicada a la tecnología 5 Elementos de la Teoría o 5.1 Fuente o 5.2 Tipo de Fuentes o 5.3 Mensaje o 5.4 Código o 5.5 Información
6 Entropía e información o 6.1 Entropía de una fuente
7 Otros tópicos de la teoría 8 Véase también 9 Referencias
[editar]Historia
La teoría de la información surgió a finales de la Segunda Guerra Mundial en los años cuarenta. Fue iniciada
por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una
teoría matemática de la comunicación (texto completo en inglés). En esta época se buscaba utilizar de manera
más eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal y
midiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es el resultado de trabajos
comenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue el
precursor del lenguaje binario. A su vez, Alan Turing en 1936, realizó el esquema de una máquina capaz de tratar
información con emisión de símbolos, y finalmente Shannon, matemático, ingeniero electrónico y criptógrafo
americano conocido como "el padre de la teoría de la información” junto a Warren Weaver contribuyeron en la
culminación y el asentamiento de la Teoría Matemática de la Comunicación de 1949 –que hoy es mundialmente
conocida por todos como la Teoría de la Información-. Weaver consiguió darle un alcance superior al
planteamiento inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje canal/descodificador/destino.
La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de
la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de
comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y
almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en
las computadoras y en la grabación óptica de datos e imágenes. La idea es garantizar que el transporte masivo de
datos no sea en modo alguno una merma de la calidad, incluso si los datos se comprimen de alguna manera.
Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos, sin
embargo, el objetivo es permitir que los datos de alguna forma se convierten para la transmisión en masas, se
reciban en el punto de destino, y convertidos fácilmente a su formato original, sin perder ninguna de la información
transmitida.2
[editar]Desarrollo de la teoría
El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de
información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo
largo de su viaje puede ser interferida por algúnruido. La señal sale del canal, llega a un receptor que decodifica
la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría
de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje,
sin que la presencia de algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal
correctamente, el problema es que aunque exista un mismo código de por medio, esto no significa que el
destinatario va captar el significado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la
transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para
asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información
contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la
cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea
recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos
probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de
información es 0. 3
[editar]Finalidad
Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y
segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. Para esto, el
destinatario debe comprender la señal correctamente, el problema es que aunque exista un mismo código de por
medio, esto no significa que el destinatario va captar el significado que el emisor le quiso dar al mensaje. Otro
aspecto importante dentro de esta teoría es la resistencia a la distorsión que provoca el ruido, la facilidad de
codificación y descodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene
muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un
mismo código en común. La teoría de la información tiene ciertas limitantes como lo es la acepción del concepto
del código, el significado que se quiere transmitir no cuenta tanto como el número de alternativas necesario para
definir el hecho sin ambigüedad. Si la selección del mensaje se plantea únicamente entre dos alternativas
diferentes, la teoría de Shannon postula arbitrariamente que el valor de la información es uno. esta unidad de
información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben ser
igual de probables y estar disponibles. Es importante saber si la fuente de información tiene el mismo grado de
libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La
cantidad de información crece cuando todas las alternativas son igual de probables o cuando mayor sea el número
de alternativas. Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual
contribuye un tipo de proceso estocástico denominado Markoff. el subtipo de Markoff dice que la cadena de
símbolos está configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena
completa.
[editar]Teoría aplicada a la tecnología
La teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en boga,
el Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales ya que
ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más ricas
de información digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados
Unidos llamado DARPANET (Defense Advanced Research Project Network) iniciado en 1969 y cuyo propósito
principal era la investigación y desarrollo de protocolos de comunicación para redes de área amplia para ligar redes
de transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más difíciles, y
continuar funcionando aún con la pérdida de una parte de la red (por ejemplo en caso de guerra). Estas
investigaciones dieron como resultado el protocolo TCP/IP, (Transmission Control Protocol/Internet Protocol) un
sistema de comunicaciones muy sólido y robusto bajo el cual se integran todas las redes que conforman lo que se
conoce actualmente como Internet. El enorme crecimiento de Internet se debe en parte a que es una red basada
en fondos gubernamentales de cada país que forma parte de Internet, lo que proporciona un servicio prácticamente
gratuito. A principios de 1994 comenzó a darse un crecimiento explosivo de las compañías con propósitos
comerciales en Internet, dando así origen a una nueva etapa en el desarrollo de la red. Descrito a grandes rasgos,
TCP/IP mete en paquetes la información que queremos enviar y la saca de los paquetes para utilizarla cuando la
recibimos. A estos paquetes los podemos comparar con sobres de correo; TCP/IP guarda la información, cierra el
sobre y en la parte exterior pone la dirección a la cual va dirigida y la dirección de quien la envía. Mediante este
sistema, los paquetes viajan a través de la red hasta que llegan al destino deseado; una vez ahí, la computadora
de destino quita el sobre y procesa la información; en caso de ser necesario envía una respuesta a la computadora
de origen usando el mismo procedimiento. Cada máquina que está conectada a Internet tiene una dirección única,
esto hace que la información que enviamos no equivoque el destino. Existen dos formas de dar direcciones, con
letras o con números. Realmente, las computadoras utilizan las direcciones numéricas para mandar paquetes de
información, pero las direcciones con letras fueron implementadas para facilitar su manejo a los seres humanos.
Una dirección con letras consta de dos a cuatro partes. Una dirección numérica está compuesta por cuatro partes.
Cada una de estas partes está dividida por puntos.
Ejemplo: sedet.com.mx 107.248.185.1 microsoft.com198.105.232.6
Una de las aplicaciones de la teoría de la información son los archivos ZIP, documentos que se comprimen para su
transmisión a través de correo electrónico o como parte de los procedimientos de almacenamiento de datos. La
compresión de los datos hace posible completar la transmisión en menos tiempo. En el extremo receptor, un
software se utiliza para la liberación o descompresión del archivo, restaurando los documentos contenidos en el
archivo ZIP a su formato original. La teoría de la información también entra en uso con otros tipos de archivos; por
ejemplo, los archivos de audio y video que se reproducen en un reproductor de MP3 se comprimen para una fácil
descarga y almacenamiento en el dispositivo. Cuando se accede a los archivos se amplían para que estén
inmediatamente disponibles para su uso.4
[editar]Elementos de la Teoría
Esquema de la comunicación ideado por Claude E. Shannon.
[editar]FuenteUna fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes
sus archivos, una fuente puede ser un dispositivo de transmisión de datos y mensajes los datos enviados, etc. Una
fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente.
En compresión de datos tomaremos como fuente al archivo a comprimir y como mensajes a los caracteres que
conforman dicho archivo.
[editar]Tipo de FuentesPor la naturaleza generativa de sus mensajes una fuente puede ser aleatoria o determinística. Por la relación entre
los mensajes emitidos una fuente puede ser estructurada o no estructurada (o caótica).
Existen varios tipos de fuentes. Para la teoría de la información interesan las fuentes aleatorias y estructuradas.
Una fuente es aleatoria cuando no es posible predecir cual es el próximo mensaje a emitir por la misma. Una
fuente es estructurada cuando posee un cierto nivel de redundancia, una fuente no estructurada o de información
pura es aquella en que todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente,
este tipo de fuente emite mensajes que no se pueden comprimir, un mensaje para poder ser comprimido debe
poseer un cierto nivel de redundancia, la información pura no puede ser comprimida sin que haya una perdida de
conocimiento sobre el mensaje.5
[editar]MensajeUn mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier
cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica
también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos
casi siempre a mensajes binarios.
[editar]CódigoUn código es un conjunto de unos y ceros que se usan para representar a un cierto mensaje de acuerdo a reglas o
convenciones preestablecidas. Por ejemplo al mensaje 0010 lo podemos representar con el código 1101 usando
para codificar la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos
representarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo
codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits, definimos entonces a la
información contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje.
[editar]InformaciónLa información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para
representar al mensaje. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo.
Supongamos que estamos leyendo un mensaje y hemos leído "string of ch", la probabilidad de que el mensaje
continúe con "aracters" es muy alta por lo tanto cuando realmente leemos "aracters" del archivo la cantidad de
información que recibimos es muy baja pues estabamos en condiciones de predecir que era lo que iba a ocurrir. La
ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes
menos probables. Si luego de "string of ch" leemos "imichurri" la cantidad de información que recibimos es mucho
mayor.
[editar]Entropía e información
La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos
utilizando la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen
las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que
se pueda enviar a través de un canal.
La información necesaria para especificar un sistema físico tiene que ver con su entropía. En concreto en ciertas
áreas de la física extraer información del estado actual de un sistema requiere reducir su entropía, de tal manera
que la entropía del sistema y la cantidad de información extraible están relacionadas por:
[editar]Entropía de una fuenteArtículo principal: Entropía (información).
De acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según la entropía de
la misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben
principalmente a C. E. Shannon, existen a su vez un gran número de propiedades respecto de la entropía de
variables aleatorias debidas a A. Kolmogorov. Dada una fuente "F" que emite mensajes, resulta frecuente observar
que los mensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia
dependiendo del mensaje. Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de
bits para los mensajes más probables y mayor cantidad de bits para los mensajes menos probables de forma tal
que el promedio de bits utilizados para codificar los mensajes sea menor a la cantidad de bits promedio de los
mensajes originales. Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de
orden-0 pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores, a las fuentes de
orden superior se las puede representar mediante una fuente de orden-0 utilizando técnicas de modelización
apropiadas. Definimos a la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de
apariciones de dicho mensaje dividido el total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia
del mensaje-i de una fuente, y supongamos que Li es la longitud del código utilizado para representar a dicho
mensaje, la longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
Promedio ponderado de las longitudes de los códigos de acuerdo a sus probabilidades de ocurrencia, al
número "H" se lo denomina "Entropía de la fuente" y tiene gran importancia. La entropía de la fuente determina
el nivel de compresión que podemos obtener como máximo para un conjunto de datos, si consideramos como
fuente a un archivo y obtenemos las probabilidades de ocurrencia de cada carácter en el archivo podremos
calcular la longitud promedio del archivo comprimido, se demuestra que no es posible comprimir
estadísticamente un mensaje/archivo más allá de su entropía. Lo cual implica que considerando únicamente la
frecuencia de aparición de cada carácter la entropía de la fuente nos da el límite teórico de compresión,
mediante otras técnicas no-estadísticas puede, tal vez, superarse este límite.
El objetivo de la compresión de datos es encontrar los Li que minimizan a "H", además los Li se deben
determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de
ocurrencia de los mismos (los más ocurrentes queremos codificarlos en menos bits). Se plantea pues:
A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por Shannon
oportunamente se llega a que H es mínimo cuando f(Pi) = log2 (1/Pi). Entonces:
La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto
da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su
probabilidad de ocurrencia. Reemplazando Li podemos escribir a H como:
De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de ocurrencia de cada
mensaje de la misma, por ello la importancia de los compresores estadísticos (aquellos que se basan en la
probabilidad de ocurrencia de cada carácter). Shannon demostró, oportunamente que no es posible comprimir una
fuente estadísticamente más allá del nivel indicado por su entropía. 6 7
Teoría de sistemasLa teoría de sistemas (TGS) o teoría de sistemas o enfoque sistémico es un esfuerzo de
estudio interdisciplinario que trata de encontrar las propiedades comunes a entidades llamadas sistemas. Éstos se
presentan en todos los niveles de la realidad, pero que tradicionalmente son objetivos de disciplinas académicas
diferentes. Su puesta en marcha se atribuye al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la
denominación a mediados del siglo XX.
Contenido
[ocultar]
1 Historia 2 Contextos o 2.1 Filosofía o 2.2 Pensamiento y Teoría General de Sistemas (TGS)
3 Desarrollos 4 Ámbito metamórfico de la teoría o 4.1 Descripción del propósito o 4.2 Descripción del uso
5 Aplicación 6 Ejemplo de aplicación de la TGS: Teoría del caos o 6.1 Enumeración de principios o 6.2 Proceso de estudio o 6.3 Negentropía
7 Véase también 8 Referencias 9 Enlaces externos
[editar]Historia
Entre Sou G a y W. Ross Ashby y Norbert Wiener desarrollaron la teoría matemática de la comunicación y control
de sistemas a través de la regulación de la retroalimentación (cibernética), que se encuentra estrechamente
relacionada con la Teoría de control. En 1950 Ludwig von Bertalanffy plantea la Teoría general de sistemas. En
1970 René Thom y E.C. Zeeman plantean la Teoría de las catástrofes, rama de las matemáticas de acuerdo con
bifurcaciones en sistemas dinámicos, que clasifica los fenómenos caracterizados por súbitos desplazamientos en
su conducta.
En 1980 David Ruelle, Edward Lorenz, Mitchell Feigenbaum, Steve Smale y James A. Yorke describen la Teoría
del Caos, una teoría matemática de sistemas dinámicos no lineales que describe bifurcaciones, extrañas
atracciones y movimientos caóticos. John H. Holland, Murray Gell-Mann, Harold Morowitz, W. Brian Arthur, y otros
en 1990 plantean el Sistema adaptativo complejo (CAS), unanueva ciencia de la complejidad que describe
surgimiento, adaptación y auto-organización. Fue establecida fundamentalmente por investigadores del Instituto de
Santa Fe y está basada en simulaciones informáticas. Incluye sistemas de multiagente que han llegado a ser una
herramienta importante en el estudio de los sistemas sociales y complejos. Es todavía un activo campo de
investigación.
[editar]Contextos
Véase también: Emergencia (filosofía).
Como ciencia urgente, plantea paradigmas diferentes de los de la ciencia clásica. La ciencia de sistemas observa
totalidades, fenómenos, isomorfismos, causalidades circulares, y se basa en principios como la subsidiariedad,
pervasividad, multicausalidad, determinismo, complementariedad, y de acuerdo con las leyes encontradas en otras
disciplinas y mediante el isomorfismo, plantea el entendimiento de la realidad como un complejo, con lo que logra
su transdisciplinariedad, y multidisciplinariedad.
[editar]FilosofíaLa Teoría General de los Sistemas (TGS), propuesta más que fundada, por L. von Bertalanffy (1945) aparece
como una metateoría, una teoría de teorías (en sentido figurado), que partiendo del muy abstracto concepto
de sistema busca reglas de valor general, aplicables a cualquier sistema y en cualquier nivel de la realidad.
La TGS surgió debido a la necesidad de abordar científicamente la comprensión de los sistemas concretos que
forman la realidad, generalmente complejos y únicos, resultantes de una historia particular, en lugar de sistemas
abstractos como los que estudia laFísica. Desde el Renacimiento la ciencia operaba aislando:
Componentes de la realidad, como la masa.
Aspectos de los fenómenos, como la aceleración gravitatoria.
Pero los cuerpos que caen lo hacen bajo otras influencias y de manera compleja. Frente a la complejidad de la
realidad hay dos opciones:
Negar carácter científico a cualquier empeño por comprender otra cosa que no sean los sistemas abstractos,
simplificados, de la Física.
Conviene recordar aquí la rotunda afirmación de Rutherford: «La ciencia es la Física; lo demás es coleccionismo
de estampillas».
O si no:
Comenzar a buscar regularidades abstractas comunes a sistemas reales complejos, pertenecientes a distintas
disciplinas.
La TGS no es el primer intento histórico de lograr una metateoría o filosofía científica capaz de abordar muy
diferentes niveles de la realidad. El materialismo dialéctico busca un objetivo equivalente combinando el realismo y
el materialismo de la ciencia natural con ladialéctica hegeliana. La TGS surge en el siglo XX como un nuevo
esfuerzo en la búsqueda de conceptos y leyes válidos para la descripción e interpretación de toda clase
de sistemas reales o físicos.
[editar]Pensamiento y Teoría General de Sistemas (TGS)TGS puede ser vista también como un intento de superación, en el terreno de la Biología, de varias de las disputas
clásicas de la Filosofía, en torno a la realidad y en torno al conocimiento:
Materialismo frente a vitalismo.
Reduccionismo frente a perspectivismo.
Mecanicismo frente a teleología.
En la disputa entre materialismo y vitalismo la batalla estaba ganada desde antes para la posición monista que ve
en el espíritu una manifestación de la materia, un epifenómeno de su organización (adquisición de forma). Pero en
torno a la TGS y otras ciencias sistémicas se han formulado conceptos, como el de propiedades emergentes, que
han servido para reafirmar la autonomía de fenómenos, como la conciencia, que vuelven a ser vistos como objetos
legítimos de investigación científica.
Parecido efecto encontramos en la disputa entre reduccionismo y holismo, en la que la TGS aborda sistemas
complejos, totales, buscando analíticamente aspectos esenciales en su composición y en su dinámica que puedan
ser objeto de generalización.
En cuanto a la polaridad entre mecanicismo/causalismo y teleología, la aproximación sistémica ofrece una
explicación, podríamos decir que mecanicista, del comportamiento orientado a un fin de una cierta clase de
sistemas complejos. Fue Norbert Wiener, fundador de la Cibernética quien llamó sistemas teleológicos a los que
tienen su comportamiento regulado por retroalimentación negativa.1 Pero la primera y fundamental revelación en
este sentido es la que aportó Darwin con la teoría de selección natural, mostrando cómo un mecanismo ciego
puede producir orden y adaptación, lo mismo que un sujeto inteligente.2
[editar]Desarrollos
Aunque la TGS surgió en el campo de la Biología, pronto se vio su capacidad de inspirar desarrollos en disciplinas
distintas y se apreció su influencia en la aparición de otras nuevas. Así se ha ido constituyendo el amplio campo de
la sistémica o de las ciencias de los sistemas, con especialidades como la cibernética, la teoría de la información,
la teoría de juegos, la teoría del caos o la teoría de las catástrofes. En algunas, como la última, ha seguido
ocupando un lugar prominente la Biología.
Más reciente es la influencia de la TGS en las Ciencias Sociales. Destaca la intensa influencia del sociólogo
alemán Niklas Luhmann, que ha conseguido introducir sólidamente el pensamiento sistémico en esta área.
[editar]Ámbito metamórfico de la teoría
[editar]Descripción del propósitoLa teoría general de sistemas en su propósito más amplio, contempla la elaboración de herramientas que
capaciten a otras ramas de la ciencia en su investigación práctica. Por sí sola, no demuestra ni deja de mostrar
efectos prácticos. Para que una teoría de cualquier rama científica esté sólidamente fundamentada, ha de partir de
una sólida coherencia sostenida por la TGS. Si se cuenta con resultados de laboratorio y se pretende describir su
dinámica entre distintos experimentos, la TGS es el contexto adecuado que permitirá dar soporte a una nueva
explicación, que permitirá poner a prueba y verificar su exactitud. Por esto se la ubica en el ámbito de las
metateorías.
La TGS busca descubrir isomorfismos en distintos niveles de la realidad que permitan:
Usar los mismos términos y conceptos para describir rasgos esenciales de sistemas reales muy diferentes; y
encontrar leyes generales aplicables a la comprensión de su dinámica.
Favorecer, primero, la formalización de las descripciones de la realidad; luego, a partir de ella, permitir la
modelización de las interpretaciones que se hacen de ella.
Facilitar el desarrollo teórico en campos en los que es difícil la abstracción del objeto; o por su complejidad, o
por su historicidad, es decir, por su carácter único. Los sistemas históricos están dotados de memoria, y no se
les puede comprender sin conocer y tener en cuenta su particular trayectoria en el tiempo.
Superar la oposición entre las dos aproximaciones al conocimiento de la realidad:
La analítica, basada en operaciones de reducción.
La sistémica, basada en la composición.
La aproximación analítica está en el origen de la explosión de la ciencia desde el Renacimiento, pero no
resultaba apropiada, en su forma tradicional, para el estudio de sistemas complejos.
[editar]Descripción del usoEl contexto en el que la TGS se puso en marcha, es el de una ciencia dominada por las operaciones de
reducción características del método analítico. Básicamente, para poder manejar una herramienta tan global,
primero se ha de partir de una idea de lo que se pretende demostrar, definir o poner a prueba. Teniendo claro
el resultado (partiendo de la observación en cualquiera de sus vertientes), entonces se le aplica un concepto
que, lo mejor que se puede asimilar resultando familiar y fácil de entender, es a los métodos matemáticos
conocidos como mínimo común múltiplo y máximo común divisor. A semejanza de estos métodos, la TGS trata
de ir desengranando los factores que intervienen en el resultado final, a cada factor le otorga un valor
conceptual que fundamenta lacoherencia de lo observado, enumera todos los valores y trata de analizar todos
por separado y, en el proceso de la elaboración de un postulado, trata de ver cuantos conceptos son comunes
y no comunes con un mayor índice de repetición, así como los que son comunes con un menor índice de
repetición. Con los resultados en mano y un gran esfuerzo de abstracción, se les asignan a conjuntos (teoría
de conjuntos), formando objetos. Con la lista de objetos completa y las propiedades de dichos objetos
declaradas, se conjeturan las interacciones que existen entre ellos, mediante la generación de un modelo
informático que pone a prueba si dichos objetos, virtualizados, muestran un resultado con unos márgenes de
error aceptables. En un último paso, se realizan las pruebas de laboratorio. Es entonces cuando las
conjeturas, postulados, especulaciones, intuiciones y demás sospechas, se ponen a prueba y nace la teoría.
Como toda herramienta matemática en la que se opera con factores, los factores enumerados que intervienen
en estos procesos de investigación y desarrollo no alteran el producto final, aunque sí pueden alterar los
tiempos para obtener los resultados y la calidad de los mismos; así se ofrece una mayor o menor resistencia
económica a la hora de obtener soluciones.
[editar]Aplicación
La principal aplicación de esta teoría está orientada a la empresa científica cuyo paradigma exclusivo venía
siendo la Física. Los sistemas complejos, como los organismos o las sociedades, permiten este tipo de
aproximación sólo con muchas limitaciones. En la aplicación de estudios de modelos sociales, la solución a
menudo era negar la pertinencia científica de la investigación de problemas relativos a esos niveles de la
realidad, como cuando una sociedad científica prohibió debatir en sus sesiones el contexto del problema de lo
que es y no es la conciencia. Esta situación resultaba particularmente insatisfactoria en Biología, una ciencia
natural que parecía quedar relegada a la función de describir, obligada a renunciar a cualquier intento de
interpretar y predecir, como aplicar la teoría general de los sistemas a los sistemas propios de su disciplina.
[editar]Ejemplo de aplicación de la TGS: Teoría del caos
Artículo principal: Teoría del caos.
Los factores esenciales de esta teoría se componen de:
Entropía : Viene del griego ἐντροπία (entropía), que significa transformación o vuelta. Su símbolo es la S, y
es una metamagnitudtermodinámica. La magnitud real mide la variación de la entropía. En el Sistema
Internacional es el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema
cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.
Entalpía : Palabra acuñada en 1850 por el físico alemán Clausius. La entalpía es una metamagnitud
de termodinámica simbolizada con la letra H. Su variación se mide, dentro del Sistema Internacional de
Unidades, en julio. Establece la cantidad de energía procesada por un sistema y su medio en un instante
A de tiempo y lo compara con el instante B, relativo al mismo sistema.
Negentropía : Se puede definir como la tendencia natural que se establece para los excedentes de energía
de un sistema, de los cuales no usa. Es una metamagnitud, de la que su variación se mide en la misma
magnitud que las anteriores.
Aplicando la teoría de sistemas a la entropía, obtenemos lo siguiente: Cuanta mayor superficie se deba de
tomar en cuenta para la transmisión de la información, esta se corromperá de forma proporcional al cuadrado
de la distancia a cubrir. Dicha corrupción tiene una manifestación evidente, en forma de calor, de enfermedad,
de resistencia, de agotamiento extremo o de estrés laboral. Esto supone una reorganización constante del
sistema, el cual dejará de cumplir con su función en el momento que le falte información. Ante la ausencia de
información, el sistema cesará su actividad y se transformará en otro sistema con un grado mayor de orden.
Dicho fenómeno está gobernado por el principio de Libertad Asintótica.
[editar]Enumeración de principios
Principio de libertad asintótica: Cuando el sistema aparenta alcanzar el estado preferente, es indicación de
que los medios por los cuales transfiere la información no están capacitados para procesar la suficiente como
para adaptarse a las nuevas necesidades impuestas por el cambio de un médio dinámico. Por lo que el medio
cambia más rápido de lo que el sistema podrá adaptarse dentro de su periodo de existencia. Esto marca el
paso del tiempo de forma relativa al sistema, observando el futuro más lejano para dicho sistema como el
estado en el que las propiedades que lo definen como sistema X dejan de expresarse, siendo de uso por otros
sistemas que demandan fragmentos de información útiles. Esto define otro principio base de los sistemas: La
simetría.
Principio de simetría discreta (TGS base): La simetría física es aquella que solo se puede conceptualizar en
la mente, pues dicho estado del sistema inhibe todo tipo de comunicación, al ser esta altamente incierta o con
un grado de incertidumbre tan extremo, que no se pueden obtener paquetes claros. Por lo que se requiere un
estudio profundo del sistema investigado en base a la estadística.
[editar]Proceso de estudio
Proceso 1: Se registra lo directamente observado, se asocia un registro de causa y efecto, y para aquellas
que han quedadeo huérfanas (solo se observa la causa pero se desconoce el efecto) se las encasilla como
propiedades diferenciales. Estas propiedades nacen de la necesidad de dar explicación al porqué lo
observado no corresponde con lo esperado. De esto nacen las propiedades emergentes.
Proceso 2: Se establecen unos métodos que, aplicados, rompen dicha simetría obteniendo resultados físicos
medibles en laboratório. Los que no se corroboran, se abandonan y se especulan otras posibilidades.
Resumen general:
La entropía está relacionada con la tendencia natural de los objetos a caer en un estado de neutralidad
expresiva. Los sistemas tienden a buscar su estado más probable, en el mundo de la física el estado más
probable de esos sistemas es simétrico, y el mayor exponente de simetría es la inexpresión de
propiedades. A nuestro nivel de realidad, esto se traduce en desorden y desorganización. En otras
palabras: Ante un medio caótico, la relación tensorial de todas las fuerzas tenderán a dar un resultado
nulo, ofreciendo un margen de expresión tan reducido que, por sí solo es inservible y despreciable.
La dinámica de estos sistemas es la de transformar y transferir la energía, siendo lo inaprovechable
energía que se transforma en una alteración interna del sistema. En la medida que va disminuyendo la
capacidad de transferencia, va aumentando la entropía interna del sistema.
Propiedad 1: Proceso mediante el cual un sistema tiende a adoptar la tendencia más económica dentro de
su esquema detransacción de cargas.
La dinámica del sistema tiende a disipar su esquema de transacción de cargas, debido a que dicho
esquema también está sometido a la propiedad 1, convirtiéndolo en un subsistema.
Lo realmente importante, no es lo despreciable del resultado, sino que surjan otros sistemas tan o más
caóticos, de los cuales, los valores despreciables que resultan de la no cancelación absoluta de sus
tensores sistemáticos, puedan ser sumados a los del sistema vecino, obteniendo así un resultado
exponencial. Por lo que se asocian los niveles de estabilidad a un rango de caos con un resultado
relativamente predecible, sin tener que estar observando la incertidumbre que causa la dinámica interna
del propio sistema.
En sistemas relativamente sencillos, el estudio de los tensores que gobiernan la dinámica interna, ha
permitido replicarlos para su utilización por el hombre. A medida que se ha avanzado en el estudio interior
de los sistemas, se ha logrado ir replicando sistemas cada véz más complejos.
Aunque la entropía expresa sus propiedades de forma evidente en sistemas cerrados y aislados, también se
evidencian, aunque de forma más discreta, a sistemas abiertos; éstos últimos tienen la capacidad de prolongar
la expresión de sus propiedades a partir de la importación y exportación de cargas desde y hacia el ambiente,
con este proceso generan neguentropía (entropía negativa), y la variación que existe dentro del sistema en el
instante A de tiempo con la existente en el B.
[editar]NegentropíaLa construcción de modelos desde la cosmovisión de la teoría general de los sistemas permite la observación
de los fenómenos de un todo, a la vez que se analiza cada una de sus partes sin descuidar la interrelación
entre ellas y su impacto sobre el fenómeno general entendiendo al fenómeno como el sistema, a sus partes
integrantes como Subsistemas y al fenómeno general como suprasistema.
Ciencia EmpíricaCIENCIAS EMPÍRICAS
Son aquellas que justifican o verifican sus hipótesis mediante la experiencia. Generalmente, los astronomos
destacan la existencia de dos facultades cognoscitivas prinipales: los sentidos (la percepción) y la razón.
Llamamos "experiencia" (del griego "empeiria") al conjunto de percepciones, y fenómeno a la realidad en tanto que
se muestra a los sentidos; así, podemos decir también que las ciencias empíricas se refieren a la realidad
fenoménica, oponiéndose ésta a la supuesta realidad trascendente de la que, por ejemplo, podría ocuparse la
filosofía. Dado que la percepción se puede dividir en externa (los cinco sentidos) e interna (o capacidad para captar
directamente la propia vida psíquica), cabe hablar de dos tipos de fenómenos, los fenómenos físicos (dados a la
percepción externa) y los fenómenos psíquicos (conocidos por percepción interna). La psicología empírica
únicamente puede tratar los fenómenos, bien sean psíquicos como es el caso de las escuelas mentalistas, bien
físicos como el conductismo, pero debe renunciar a la realidad psíquica trascendente, las almas, objeto legítimo,
en todo caso, de la filosofía. http://www.welwatches.com
Las ciencias empíricas utilizan el llamado método hipotético-deductivo: son conocimientos "científicos" por utilizar
los momentos racionales de dicho método (la "formulación de hipótesis" y la "deducción de consecuencias") y no
ser una mera acumulación de datos, y "empíricos" por descansar también en momentos empíricos (la observación
o punto de partida de la investigación y la verificación empírica o contrastación, bien merced al método
observacional o al correlacional o al experimental). Estas ciencias decimos que "empiezan en la experiencia y
terminan en la experiencia", distinguiéndose de este modo de las llamadas ciencias formales y de la filosofía, que
prefieren una mayor o total independencia de la justificación empírica y los modos de investigación y verificación
propiamente racionales. Naturalmente, no hay que identificar totalmente las ciencias experimentales con las
ciencias empíricas: todas las ciencias experimentales (la psicología experimental, por ejemplo) son ciencias
empíricas, pero no todas las ciencias empíricas son experimentales ya que pueden utilizar algún método de
verificación distinto al experimental, como los ya citados observacional y correlacional; este es el caso en gran
medida de la psicología diferencial y de otras áreas principales de la psicología científica.
Las ciencias empíricas se dividen en dos grandes grupos: ciencias naturales y ciencias humanas o también
sociales. Las ciencias naturales se ocupan del mundo físico y suelen ofrecer leyes de gran universalidad y
exactitud, presentando una idea determinista de la realidad (por lo que a veces también se les ha dado el nombre
de "ciencias duras"); la física, química y la biología son las principales. Las ciencias humanas, obviamente, se
refieren al ser humano y no consiguen ofrecer leyes tan objetivas como las anteriores, limitándose a
generalizaciones y clasificaciones de la conducta, aunque con frecuencia escondan sus deficiencias en un
sofisticado lenguaje matemático. Reciben también el calificativo de "ciencias blandas" tanto por sus deficiencias
epistemológicas como porque la idea de la realidad que ofrecen (el mundo humano) no se presenta tan
determinista como en el caso de las ciencias duras. La economía, psicología, sociología, antropología y pedagogía
son las más representativas de este grupo.
Es unánime la inclusión de la psicología en las ciencias empíricas; aunque se discute si pertenece a las ciencias
naturales o a las ciencias humanas, ciertamente la mayoría dirían que es una "ciencia humana" pero no debemos
dejar de lado la pretensión conductista de hacer de la psicología una "ciencia natural".
Lógica empírica La lógica empírica es la base del razonamiento empírico y por lo tanto del método empírico. Esta
visión de la lógica proviene de la antigua Grecia. El término empírico deriva del griego antiguo de experiencia,
έμπειρία, que a su vez deriva de έυ en y πεἳρα prueba, experimento. Su desarrollo histórico provoca la definitiva
separación entre las ciencias formales (como la Geometría o el Álgebra) de las ciencias descriptivas (como la
Zoología o la Botánica).
Método empírico-analítico
El término empírico deriva del griego antiguo (Aristóteles utilizaba la reflexión analítica y el método empírico como
métodos para construir el concimiento) de experiencia, έμπειρία, que a su vez deriva de έυ (en) y πεἳρα (prueba):
en pruebas, es decir, llevando a cabo el experimento. Por lo tanto los datos empíricos son sacados de las pruebas
acertadas y los errores, es decir, de experiencia. Su aporte al proceso de investigación es resultado
fundamentalmente de la experiencia. Estos métodos posibilitan revelar las relaciones esenciales y las
características fundamentales del objeto de estudio, accesibles a la detección sensoperceptual, a través de
procedimientos prácticos con el objeto y diversos medios de estudio. Su utilidad destaca en la entrada en campos
inexplorados o en aquellos en los que destaca el estudio descriptivo.
Características •Es un método fáctico:se ocupa de los hechos que realmente acontecen
•Se vale de la verificación empírica: no pone a prueba las hipótesis mediante el mero sentido común o el
dogmatismo filosófico o religioso, sino mediante una cuidadosa contrastación por medio de la percepción.
•Es autocorrectivo y progresivo (a diferencia del fenomenológico). La ciencia se construye a partir de la superación
gradual de sus errores. No considera sus conclusiones infalibles o finales. El método está abierto a la incorporación
de nuevos conocimientos y procedimientos con el fin de asegurar un mejor acercamiento a la verdad.
Clasificaciones
Entre los Métodos Empíricos se encuentran:
•Método experimental: Es el más complejo y eficaz de los métodos empíricos, por lo que a veces se utiliza
erróneamente como sinónimo de método empírico. Algunos lo consideran una rama tan elaborada que ha cobrado
fuerza como otro método científico independiente con su propia lógica, denominada lógica experimental.
En este método el investigador interviene sobre el objeto de estudio modificando a este directa o indirectamente
para crear las condiciones necesarias que permitan revelar sus características fundamentales y sus relaciones
esenciales bien sea:
-Aislando al objeto y las propiedades que estudia de la influencia de otros factores
-Reproduciendo el objeto de estudio en condiciones controladas
-Modificando las condiciones bajo las cuales tiene lugar el proceso o fenómeno que se estudia.
Así, los datos son sacados de la manipulación sistemática de variables en un experimento (ver método hipotético
deductivo, el cual a su vez también se considerar como un tipo de método empírico fuera del método experimental
por su relevancia y eficacia). Una diferencia clara con el método empírico en general es que éste además trata de
considerar los errores de modo que una inferencia pueda ser hecha en cuanto a la causalidad del cambio
observado (carácter autocorrectivo).
Corriente lógica
Un salto verdaderamente espectacular en este desarrollo se produce con Galileo Galilei que da sustento a una
nueva rama dentro de la lógica empírica, la lógica experimental. Ésta combina la lógica empírica de observación de
los fenómenos con dos métodos desarrollados en otras ramas del conocimiento formal: la hipótesis (ver método
hipotético deductivo y la medida.
Esta vertiente da lugar al Método experimental.
•Método de la observación científica: Fue el primer método utilizado por los científicos y en la actualidad continua
siendo su instrumento universal. Permite conocer la realidad mediante la sensopercepción directa de entes y
procesos, para lo cual debe poseer algunas cualidades que le dan un carácter distintivo. Es el más característico
en las ciencias descriptivas.
•Método de la medición: Es el método empírico que se desarrolla con el objetivo de obtener información numérica
acerca de una propiedad o cualidad del objeto, proceso o fenómeno, donde se comparan magnitudes medibles
conocidas. Es la asignación de valores numéricos a determinadas propiedades del objeto, así como relaciones
para evaluarlas y representarlas adecuadamente. Para ello se apoya en procedimientos estadísticos.
Pasos generales del método empírico-analítico Existen variadas maneras de formalizar los pasos de este
método. De entre ellas destacamos: • Forma convencional: o Identificación de un problema de investigación. o
Formulación de hipótesis o .Prueba de hipótesis. o Resultados. • Formulación de Neil J. Salkind. o Formulación de
un problema. o Identificar factores importantes. o Formulación de hipótesis de investigación. o Recopilación de la
información. o Probar la Hipótesis. o Trabajar con la hipótesis. o Reconsideración de la teoría. o Confirmación o
refutación.
Las ciencias empíricas se dividen en dos grandes grupos:
•Ciencias naturales:Las ciencias naturales se ocupan del mundo físico y suelen ofrecer leyes de gran universalidad
y exactitud, presentando una idea determinista de la realidad. Destacan: Física. Química. Biología.
•Ciencias sociales o humanas: se refieren al ser humano y no consiguen ofrecer leyes tan objetivas como las
anteriores, limitándose a generalizaciones y clasificaciones de la conducta, aunque con frecuencia escondan sus
deficiencias en un sofisticado lenguaje matemático. Destacan: Economía. Psicología. Sociología. Antropología.
Pedagogía (aunque algunos la consideran ciencia natural).
Dilthey dividió las ciencias empíricas en ciencias de la naturaleza y ciencias del espíritu; y afirmaba que cada una
de estas ciencias depende de un tipo de racionalidad; el fundamento de las ciencias de la naturaleza es la razón
instrumental, mientras que el fundamento de las ciencias del espíritu es la razón histórica. Esta distinción fue
recogida por los miembros de la Escuela de Frankfurt para afirmar que el método de conocimiento y, por tanto, las
vías para llegar a la verdad son distintos en ambos tipos de ciencias; esta postura fue rechazada por los miembros
del racionalismo crítico encabezado por K. R. Popper, dando lugar a lo que se conoce como la disputa del
positivismo en la sociología alemana
Galileo y su Método Resolutivo-Compositivo
Para la consideración de la construcción del método en el margen se expone el método aplicado por Galileo en la
descripción del movimiento de caída de los graves.
1.- Observación:
Hay que partir inevitablemente de la precisión en la consideración del objeto de la investigación, lo que únicamente
es posible por la determinación de datos de observación minuciosamente delimitados y con referencia a un
problema a resolver. Generalmente el problema que se plantea hace referencia a una teoría explicativa frente a la
cual los datos observados no pueden ser explicados por ella, bien por un cambio de concepto en el fundamento o
por simple ampliación de observaciones.
2.- Elaboración de una hipótesis explicativa:
A partir de este momento la explicación de este nuevo modo de concebir el fenómeno requiere una explicación
nueva, lo cual se hace como hipótesis o teoría provisional a la espera de una confirmación experimental.
3.- Deducción:
Sobre esta hipótesis o teoría se hace necesario extraer las consecuencias que se derivan del hecho de tenerla por
verdadera. Fundamentalmente dichas consecuencias deductivas deben ser de tipo matemático pues, como dice
Galileo, la naturaleza está escrita en lenguaje matemático
4.- Experimento o verificación
Se montan las condiciones en las que se puedan medir las consecuencias deducidas, procurando unas
condiciones ideales para que las interferencias con otros factores sean mínimos (rozamientos, vientos etc.), y
comprobar si efectivamente en todos los casos, siempre se reproducen dichas consecuencias.
Durante mucho tiempo los científicos consideraron que el experimento probaba o demostraba la verdad de la teoría
o hipótesis de forma concluyente y el método llamado ahora hipotético-deductivo vino a convertirse en la lógica
empírica que fundamentaba la ciencia.
Invención del telescopio
En mayo de 1609, Galileo recibe de París una carta del francés Jacques Badovere, uno de sus antiguos alumnos,
quien le confirma un rumor insistente: la existencia de un telescopio que permite ver los objetos lejanos.[cita
requerida] Fabricado en Holanda, este telescopio habría permitido ya ver estrellas invisibles a simple vista. Con
esta única descripción, Galileo, que ya no da cursos a Cosme II de Médicis, construye su primer telescopio. Al
contrario que el telescopio holandés, éste no deforma los objetos y los aumenta 6 veces, o sea el doble que su
oponente. También es el único de la época que consigue obtener una imagen derecha gracias a la utilización de
una lente divergente en el ocular.[cita requerida] Este invento marca un giro en la vida de Galileo.
El 21 de agosto, apenas terminado su segundo telescopio (aumenta ocho o nueve veces), lo presenta al Senado
de Venecia. La demostración tiene lugar en la cima del Campanile de la plaza de San Marco. Los espectadores
quedan entusiasmados: ante sus ojos, Murano, situado a 2 km y medio, parece estar a 300 m solamente.
Galileo ofrece su instrumento y lega los derechos a la República de Venecia, muy interesada por las aplicaciones
militares del objeto. En recompensa, es confirmado de por vida en su puesto de Padua y sus emolumentos se
duplican. Se libera por fin de las dificultades financieras.[cita requerida] Sin embargo, contrario a sus alegaciones,
no dominaba la teoría óptica y los instrumentos fabricados por él son de calidad muy variable. Algunos telescopios
son prácticamente inutilizables (al menos en observación astronómica). En abril de 1610, en Bologna, por ejemplo,
la demostración del telescopio es desastrosa, como así lo informa Martin Horky en una carta a Kepler.
Galileo reconoció en marzo de 1610 que, entre más de 60 telescopios que había construido, solamente algunos
eran adecuados. Numerosos testimonios, incluido el de Kepler, confirman la mediocridad de los primeros
instrumentos.[cita requerida]
La observación de la Luna
Durante el otoño, Galileo continuó desarrollando su telescopio. En noviembre, fabrica un instrumento que aumenta
veinte veces. Emplea tiempo para volver su telescopio hacia el cielo. Rápidamente, observando las fases de la
Luna, descubre que este astro no es perfecto como lo quería la teoría aristotélica. La física aristotélica, que poseía
autoridad en esa época, distinguía dos mundos:
•el mundo « sublunar », que comprende la Tierra y todo lo que se encuentra entre la Tierra y la Luna; en este
mundo todo es imperfecto y cambiante; •el mundo « supralunar », que comienza en la Luna y se extiende más allá.
En esta zona, no existen más que formas geométricas perfectas (esferas) y movimientos regulares inmutables
(circulares).
Galileo, por su parte, observó una zona transitoria entre la sombra y la luz, el terminador, que no era para nada
regular, lo que por consiguiente invalidaba la teoría aristotélica y afirma la existencia de montañas en la Luna.
Galileo incluso estima su altura en 7000 metros, más que la montaña más alta conocida en la época. Hay que decir
que los medios técnicos de la época no permitían conocer la altitud de las montañas terrestres sin fantasías.
Cuando Galileo publica su Sidereus Nuncius piensa que las montañas lunares son más elevadas que las de la
Tierra, si bien en realidad son equivalentes.
La cabeza pensando en las estrellas
En pocas semanas, descubrirá la naturaleza de la Vía láctea, cuenta las estrellas de la constelación de Orión y
constata que ciertas estrellas visibles a simple vista son, en verdad, cúmulos de estrellas. Galileo observa los
anillos de Saturno pero no descubre su naturaleza.
Estudia igualmente las manchas solares.
El 7 de enero 1610, Galileo hace un descubrimiento capital: remarca 3 estrellas pequeñas en la periferia de Júpiter.
Después de varias noches de observación, descubre que son cuatro y que giran alrededor del planeta. Se trata de
los satélites de Júpiter llamados hoy satélites galileanos: Calixto, Europa, Ganimedes e Io. A fin de protegerse de la
necesidad y sin duda deseoso de retornar a Florencia, Galileo llamará a estos satélites por algún tiempo los
« astros mediciens » I, II, III y IV,[14] en honor de Cosme II de Médicis, su antiguo alumno y gran duque de
Toscana. Galileo no ha dudado entre Cosmica sidera y Medicea sidera. El juego de palabras « Cosmica = Cosme »
es evidentemente voluntario y es sólo después de la primera impresión que retiene la segunda denominación (el
nombre actual de estos satélites se debe sin embargo al astrónomo Simon Marius, quien los bautizó de esta
manera a sugerencia de Johannes Kepler, si bien durante dos siglos se empleó la nomenclatura de Galileo).
El 4 de marzo 1610, Galileo publica en Florencia sus descubrimientos dentro de El mensajero de las estrellas
(Sidereus Nuncius), resultado de sus primeras observaciones estelares. Para él, Júpiter y sus satélites son un
modelo del Sistema Solar. Gracias a ellos, piensa poder demostrar que las órbitas de cristal de Aristóteles no
existen y que todos los cuerpos celestes no giran alrededor de la Tierra. Es un golpe muy duro a los aristotélicos.
Él corrige también a ciertos copernicanos que pretenden que todos los cuerpos celestes giran alrededor del Sol. El
10 de abril, muestra estos astros a la corte de Toscana. Es un triunfo. El mismo mes, da tres cursos sobre el tema
en Padua. Siempre en abril, Johannes Kepler ofrece su apoyo a Galileo. El astrónomo alemán no confirmará
verdaderamente este descubrimiento — pero con entusiasmo — hasta septiembre, gracias a una lente ofrecida por
Galileo en persona
Posición de la Iglesia en los siglos siguientes
Galileo, especialmente por su obra Diálogo sobre los principales sistemas del mundo (1633), cuestionó y
resquebrajó los principios sobre los que hasta ese momento habían sustentado el conocimiento e introdujo las
bases del método científico que a partir de entonces se fue consolidando. En filosofía aparecerieron corrientes de
pensamiento racionalista (Descartes) y empíricas (ver Francis Bacon y Robert Boyle).
Siglo XVII - La resistencia a la separación entre ciencia y teología
La teoría del heliocentrismo, suponía cuestionar que los textos bíblicos (como por ejemplo que la Tierra fuera el
centro del Universo -geocentrismo-) fueran válidos para una verdadera ciencia. Las consecuencias no solo fueron
para la teología y la ciencia incipiente, también se produjeron consecuencias metafísicas y ontológicas, que
producirán reacciones de los científicos.
Siglo XVIII - Benedicto XIV autoriza las obras sobre el heliocentrismo
El papa Benedicto XIV autoriza las obras sobre el heliocentrismo en la primera mitad del siglo XVIII, y esto en dos
tiempos:
•En 1741, delante la prueba óptica de la órbita de la Tierra, hizo que el Santo Oficio diese al impresor la primera
edición de las obras completas de Galileo.
•En 1757, las obras favorables al heliocentrismo fueron autorizadas de nuevo, por un decreto de la Congregación
del Índex, que retira estas obras del Index Librorum Prohibitorum.
Siglo XX - Homenaje sin rehabilitación
A partir de Pío XII se comienza ha rendir homenaje al gran sabio que era Galileo. En 1939 este Papa, en su primer
discurso a la Academia Pontificia de Ciencias, a pocos meses de su elección al papado, describe a Galileo "el más
audaz héroe de la investigación ... sin miedos a lo preestablecido y los riesgos a su camino, ni temor a romper los
monumentos" Su biógrafo de 40 años, el Profesor Robert Leiber escribió: "Pío XII fue muy cuidadoso en no cerrar
ninguna puerta a la Ciencia prematuramente. Fue enérgico en ese punto y sintió pena por el caso de Galileo."
En 1979 y en 1981, el papa Juan Pablo II encarga una comisión de estudiar la controversia de Ptolomeo-Copérnico
de los Siglo XVI-Siglo XVII. Juan Pablo II considera que no se trataba de rehabilitación.
El 31 de octubre de 1992, Juan Pablo II rinde una vez más homenaje al sabio durante su discurso a los partícipes
en la sesión plenaria de la Academia Pontificia de las Ciencias. En él reconoce claramente los errores de ciertos
teólogos del Siglo XVII en el asunto.
El papa Juan Pablo II pidió perdón por los errores que hubieran cometido los hombres de la Iglesia a lo largo de la
historia. En el caso Galileo propuso una revisión honrada y sin prejuicios en 1979, pero la comisión que nombró al
efecto en 1981 y que dio por concluidos sus trabajos en 1992, repitió una vez más la tesis que Galileo carecía de
argumentos científicos para demostrar el heliocentrismo y sostuvo la inocencia de la Iglesia como institución y la
obligación de Galileo de prestarle obediencia y reconocer su magisterio, justificando la condena y evitando una
rehabilitación plena. El propio cardenal Ratzinger, prefecto de la Congregación para la Doctrina de la Fe, lo
expresó rotundamente el 15 de febrero de 1990 en la universidad romana de La Sapienza[18] , cuando en una
conferencia hizo suya la afirmación del filósofo agnóstico y escéptico Paul Feyerabend.
La Iglesia de la época de Galileo se atenía más estrictamente a la razón que el propio Galileo, y tomaba en
consideración también las consecuencias éticas y sociales de la doctrina galileana. Su sentencia contra Galileo fue
razonable y justa, y sólo por motivos de oportunismo político se legitima su revisión -P.Feyerabend, Contra la
opresión del método, Frankfurt, 1976, 1983, p.206.
Estas declaraciones serán objeto de una fuerte polémica cuando en el año 2008 el ya papa Benedicto XVI tenga
que renunciar a una visita a la Universidad de Roma « La Sapienza ». Es habitual en Ratzinger la cita de autores, a
priori contrarios a las posturas de la Iglesia, para reforzar sus tesis, de la misma forma que cita a Paul Feyerabend
al que califica de filósofo agnóstico y escéptico,[21] cita también al que califica de marxista romántico Ernst Bloch
para justificar científicamente, acogiéndose a la teoría de la relatividad, la corrección de la condena a Galileo no
solamente contextualizada en su época sino desde la nuestra.
Según Bloch, el sistema heliocéntrico -al igual que el geocéntrico- se funda sobre presupuestos indemostrables. En
esta cuestión desempeña un papel importantísimo la afirmación de la existencia de un espacio absoluto, cuestión
que actualmente la teoría de la relatividad ha desmentido. Éste (Bloch) escribe textualmente: 'Desde el momento
en que, con la abolición del presupuesto de un espacio vacío e inmóvil, no se produce ya movimiento alguno en
éste, sino simplemente un movimiento relativo de los cuerpos entre sí, y su determinación depende de la elección
del cuerpo asumido como en reposo, también se podría, en el caso de que la complejidad de los cálculos
resultantes no mostrara esto como improcedente, tomar, antes o después, la tierra como estática y el sol como
móvil' -E. Bloch, El principio de la esperanza, Frankfurt, 1959, p. 290-. La ventaja del sistema free software
downloadsheliocéntrico con respecto al geocéntrico no consiste entonces en una mayor correspondencia con la
verdad objetiva, sino simplemente en una mayor facilidad de cálculo para nosotros.
Sin duda resulta más escandalosa para los científicos la aseveración, que también hace suya en esas mismas
páginas, de C.F. von Wizsäcker:
Desde las consecuencias concretas de la obra galileana, C.F. von Weizsäcker, por ejemplo, da un paso adelante
cuando ve un 'camino directísimo' que conduce desde Galileo a la bomba atómica.
Si bien Ratzinger considera que Galileo abrió la 'caja de Pandora' no se puede olvidar que será la Congregación
para la Doctrina de la Fe o Santo Oficio quien condena a Galileo. Será asimismo la Inquisición como conjunto de
instituciones dedicadas a la supresión de la herejía la que santificará la coerción, la tortura, el castigo, el
ajusticiamiento y el asesinato como modus operandi necesario para preservar la verdad y el poder de la jerarquía
católica. En este sentido, indica Savater, hay quienes intentan culpar a la ilustración, y por tanto también a la
ciencia y a sus precursores -Galileo, Descartes...- de todos los males de los últimos siglos pero hay no hay que
olvidar que:
la Inquisición inauguró unos procedimientos de buceo en la intimidad de las mentes y castigo de los disidentes que
después culminaron en el Terror revolucionario, el Gulag y demás abusos totalitarios que recientemente algunos
hagiógrafos han cargado nada menos que a cuenta ...¡de la Ilustración!.
Siglo XXI - La imposible rectificación de la condena
Si en 1633, el Santo Oficio condenó a Galileo aduciendo razones tanto bíblicas como científicas, desde el Siglo
XXI, con suficiente distancia, podemos afirmar que la Iglesia no supo admitir el cambio de paradigma científico que
suponían las aportaciones de Copérnico, Kepler y Galileo. La Iglesia católica tuvo que usar la fuerza bruta de la
Inquisición y la razón caduca del mortecino paradigma geocéntrico para prohibir sus obras y limitar la repercusión
de sus descubrimientos.
Como indica Stephen Hawking, Galileo probablemente sea el máximo responsable del nacimiento de la ciencia
moderna que cualquier otro, Albert Einstein lo llamó Padre de la ciencia moderna.
La protesta de La Sapienza en 2008
Joseph Ratzinger, ya como papa había sido invitado a participar de la ceremonia de inauguración del curso
académico prevista para el 17 de enero de 2008 pero tuvo que renunciar ante la protesta iniciada unos meses
antes por 67 profesores de la Universidad de Roma La Sapienza y apoyada después por numerosos profesores y
estudiantes para declararle persona non grata }}. El Claustro de profesores no aceptaba la posición 'medieval' del
papa ante la condena de Galileo y condenaba las afirmaciones que había realizados en el discurso público
pronunciado por el papa en la Universidad de Roma La Sapienza en 1990.
¿Qué se entiende por ciencia?
La ciencia es el conocimiento exacto y razonado del mundo, la naturaleza y el hombre, opuesto al conocimiento vulgar que se caracteriza por la utilización del método.
Al conocimiento científico se le exige que sea sistemático, general, comunicable, objetivo, legal, es decir, que mediante un método adecuado exponga ordenadamente todo su ámbito propio, y enuncie leyes generales que puedan ser comprobadas por razonamiento o verificación y que sirvan para predecir o explicar los
fenómenos de que trata. Una primera distinción divide a las ciencias en formales, como la lógica y las matemáticas queno se ocupan de cosas reales sino de formas, , y eupíricas, queestudian los hechos reales del mundo. Dentro de estas existen otrasa clasificaciones, queveremos más extensamente en el segundo punto.
Quizá el problema más usual de las ciencias, como aveces aparece en libros de texto, es el de quese habla sobre ellas como algo ya “hecho” y “terminado”. Pero la realidad no es así, todo lo contrario. Debemos aprender y comprender quela ciencia, independientemente del campo abarque, es algo provisional y las teorías solo poseen, generalmente, carácter hipotético. Por eso sería preferible queconsideráramos la ciencia como una investigación siempre en proceso de avance, y no como algo inmutable. Este razonamiento fue una propuesta de I.Lakatos: “La ciencia es solo un programa de investigación constituido por un <<núcleo sólido>> -es decir, una teoría fundamental como, por ejemplo, la teoría de la gravitación de Newton, o la teoría de la relatividad de Einstein- y luego por un conjunto de hipótesis auxiliares y reglas metódicas para el desarrollo de la investigación a partir del núcleo”. Con este razonamiento repite lo anteriormente nombrado, “la ciencia es un proceso constante de investigación.”
Clasificación de las ciencias
A.F.Chalmers: “no hay una sola categoría de ciencia... y no es posible fijar los criterios quedeben ser justificados para queun àrea de conocimientos sea considerada aceptable o científica...”
Hay ensayos de clasificación de las ciencias ya desde la época de Platón, y sobretodo en el siglo XIX a partir de Comte. Pero antes de citarlos definamos la palabra “ciencias”. Son disciplinas basadas fundamentalmente en el cálculo y la observación (por oposición a las letras ). Hay una clasificación quees aceptada por la mayoría de los autores, y quesolo tiene unas pequeñas variaciones. Es la siguiente:
Ciencia
Ciencias
Formales
Lógica
Matemáticas
Ciencias
Empíricas
Naturales
Física
Química
Biología
Psicología(?)
Humanas
Psicología(?)
Sociología
Economía
Política
Historia
Geografía, etc...
La distinción entre ciencias formales y empíricas es clara: las ciencias formales no se ocupan de hechos, por lo cual no dan información a cerca de la realidad, tratan únicamente sobre entes formales, es decir, construcciones ideales de la mente. La verdad de sus nunciados requiere solo una coherencia lógica, no la contrastación empírica (experimental) con la realidad. Las ciencias empíricas (que tratan a cerca de hechos observables) tienen carácter opuesto.
La distinción entre ciencias naturales y ciencias humanas, también llamadas”sociales” o “culturales”, es menos clara. Las ciencias naturales son aquellas formadas a partir del estudio de la naturaleza, como la botánica, la zoología, etc... Las ciencias humanas son aquellas que estudian los diferentes aspectos del hombre y de la sociedad,como la historia, la psicología, etc... Las ciencias naturales se llaman también culturales porque son ciencias cuyos principios resultan inaccesibles a la explicación científica. También se semejan las restantes (ciencias humanas-sociales) por la razón de que son ciencias cuyo objetivo son los diferentes aspectos de las sociedades humanas.
Algunos autores, en especial los neopotivistas, pretendieron crear una “ciencia unificada”, es decir, reducir todas las ciencias a una sola, tomando como modelo la física -de ahí el nombre de “fiscalismo”-. Pero tal intento parece haber fracasado: no hay una sola ciencia, sino diversas ciencias, las cuales se diferencian claramente entre sí por sus lenguajes, métodos, etc...
El método científico
-Método: camino que siguen los científicos para descubrir y justificar la explicación de un problema.
La ciencia se encarga de explicar, y así ayudar a comprender, problemas. No existe un método único, sino varios métodos los cuales a su vez pueden tener variaciones. Primero hablaremos de tres métodos:
-Inductivo: consiste en observar hechos y a partir de estos sacar leyes. Primero se observan los echos objetivamente varias veces; después se comparan y clasifican (lo que lleva a la generalización y a las leyes). Por último se deducen las consecuencias de las leyes obtenidas, lo cuál permitirá hacer predicciones. Este método tiene un par de problemas: el primero es que no existen hechos totalmente objetivos; y el segundo es quela generalización carece de justificación lógica, ya que sino registramos todos los hechos siempre habrá uno que desmienta la generalización.
-Hipotético-deductivo: a simple vista parece sencillo: primero se descubre el problema (no se parte de hechos problemáticos); después se intenta una solución inventando una hipótesis; se deducen las consecuencias de esta; se contrastan hipótesis y consecuencias; y, por último, se confirma la hipótesis convirtiéndola en ley. Pero en realidad es muy complejo. Admás de incluir complejas actividades, plantea el problema de la contrastación.
*Contrastación: es la puesta a prueba de una hipótesis confrontándola con los hechos. Existen dos formas: verificación (una hipótesis es verdadera sí los hechos observados en el mundo coinciden con los de la hipótesis) y falsación (una hipótesis puede ser admitida solo mientras no sea refrutada por los hechos). Pero ninguna de ellas permite afirmar con total certeza una ley. Por eso se llega a la conclusión de que la contrastación con la experiencia
no permite considerar una hipótesis verdadera de un modo definitivo.
-Deductivo: la deducción es un razonamiento que permite a partir de unos primeros planteamientos, llegar a una conclusión lógica derivada de estos.
El ejemplo más exacto del uso de este método es el método axiomático, usado en matemáticas y lógica. Este método se basaba, gracias a Aristóteles en los axiomas (verdades indemostrables pero evidentes y no específicamente geométricas.) Eran nociones comunes como “Él todo es mayor que la parte”.
Podría decirse que en realida solo existen dos métodos, inductivo y deductivo, y que el resto son una combinación de estos, o simplemente una forma diferente de utilizarlos. Por esto existe una constant lucha por encontrar métodos particulares adecuados a cada una de las diferentes especialidades; que cada especialidad tenga su método.
Método
Inductivo Deductivo
Ley
Generalización Deducción
Hechos Predicciones
(presente) (futuro)
Principios
Deducción
Consecuencias
Hipotético-Deductivo
Hipótesis
Deducción
Consecuencias Confirmación
Contrastación
Hechos
Valores de la ciencia
El indudable progreso de la técnica puede producir un cierto engaño a cerca del progreso de la ciencia: pensar que este es de tipo acumulativo, es decir, que los nuevos conocimientos vienen a añadirse a los antiguos, como las piedras de un interminable edificio. La historia muestra, más bien, procesos de sustitución. Un nuevo “cuerpo” de teorías sustituye al anterior, al cual se considera entonces absoleto. Por ejemplo:
-Para Thomas S.Kuhn la ciencia es obra de la comunidad de científicos, no de genios aislados. Para ingresar en dicha comunidad es preciso asimilar <<un conjunto de creencias redactadas que procesa el grupo en un momento determinado>>, es decir, vocabulario, datos, problemas, modelos de soluciones,... Todo ese conjunto es lo que Kuhn llamó un “paradigma”. Si surgen anomalias son rechazadas como cuestiones irrelebantes, Pero si estas se multiplican, sobreviene una crisis. Entonces, quizás, surge un paradigma rival que entra en conflicto con el anterior: si la sociedad científica opta por él, sobrviene una revolución científica. Lo llamativo de la tesis de Kuhn es que la elección del nuevo paradigma posee cierto carácter irracional: se debe más a razones sociológicas y psicológicas que a exigencias racionales. Rigurosamente, pues, la nueva ciencia no es mejor que la antigua, no hay progreso en sentido estricto.
-Hay autores que creen en un verdadro progreso de la ciencia. No, desde luego, por acumulación de conocimientos, sino porquie las nuevas teorías permiten explicar mejor un mayor número de problemas. Entonces las nuevas teorías son más verosímiles que las antiguas; se acercan más a la realidad. Pero esta -la verdad- se considera como el límite inalcanzable de una investigación nunca terminada.
-Hay quienes le dan a la ciencia el valor de materialista, alegando que todo es material de trabajo. Es decir, la técnica es esencialmente manipulada y no respeta al “ser” de las cosas. También lo ven como una ideología de dominación: que tienden a justificar el dominio del hombre por el hombre y de la neturaleza por el hombre.
-Hoy en día se convierte en la única forma de conocimiento, la concepción de la ciencia es micho más modesta. Se hace un flaco servicio a la ciencia esperando de ella mucho más de lo que puede
darnos. Y se deforma totalmente la imagen del científico convirtiéndola en aquel que sabe -únicamente él- “toda la verdad.”
Relación entre ciencia y técnica
-Definición de ciencia: sistema de creencias seguras gracias a las cuales el hombre puede sentir confianza.
-Definición de técnica: se puede denominar técnica al conjunto de procedimientos destinados a la elavoración y obtención de productos.
*Tecnología: conjunto de conocimientos y procedimientos, basados en la ciencia, controlados por métodos científicos y orientados a la producción, transformación o control de cosas y/o procesos naturales o sociales.
-La ciencia en la actualidad: hoy en día la ciencia conlleva ventajas e inconvenientes:
*Ventajas: gracias a la técnica podemos vivir en unas condiciones optimas. La mayoría de los usos de la técnica no son por una necesidad de supervivencia, sino para que podamos disfrutar de mayores comodidades y, por lo tanto, de una mejor calidad de vida.
*Inconvenientes: podemos nombrar cuatro grandes problemas de la técnica:
+Contaminación: el echo de haber mejorado nuestra calidad de vida, nos ha llevado a un deterioro cada vez mayor del medio en el que vivimos. A pesar de que somos conscientes de ello, no tomamos las medidas adecuadas, lo cuál tendrá resultados catastróficos a largo plazo.
+La máquina puede sustituir al hombre: en la actualidad podemos obserbar que la máquina a colavorado con el hombre, con su ayuida muchas actividades son más rápidas. Pero esto conlleva un problema. En los campos, por ejemplo, la máquina hace tan bien el trabajo y de una forma tan rápida que ha llegado a sustituir la labor del hombre. Esto no pasa en todos los ámbitos laborales, pero si con los productos manufacturados.
+Producción de armamento cada vez más peligroso: a medida que pasa el tiempo los gobiernos se preocupan más del poder que de su país. Una de las mejores formas de hacerse con el poder es
mediante el armamento. Es te es, gracias a la técnica, cada vez más preciso, potente y destructivo.
+Avance técnico contra la imaginación infantil: muchos de los nuevo juegos electrónicos quizás puedan desarrollar la mentalidad del niño, pero al estar tan sumamente detallados olvidan fomentar la imaginación.
-Relación entre ciencia y técnica: la relación es bastante compleja. Es inexacto afirmar que la técnica deriva, sin más, de la ciencia (y es posterior a ella). La relación es más bien recíproca, ya que la técnica a precediod a la ciencia en la historia de la humanidad, y con frecuencia es la técnicala que plantea los problemas y exige el desarrollo de la ciencia.
Vocabulario
-Método: camino que sigen los científicos para justificar y descubrir la explicación de un problema. Podría decirse q solo existen dos métodos (inductivo y deductivo) y q el resto son una forma diferente de utilizar ambos. Por eso existe una constante lucha por encontrar métodos particulares para cada especialidad.
-Inducción: procedimiento por el cuál se observan hechos y apartir de ellos se crean leyes.
-Leyes: enunciados que expresan relaciones constantes entre hechos.
-Predicciones: anticipación de hechos futuros basándose en experimentos.
-Hechos puros: hechos completamente objetivos.
-Problema: experiencia física o humana que necesita solución.
-Contrastación: puesta a prueba de una hipótesis.
-Deducción: razonamiento que permite derivar de una o varias proposiciones dadas, una que es su consecuencia lógica.
-Ciencia: conocimiento exacto y razonado del mundo, la naturaleza y el hombre. Es lo contrario al conocimiento vulgar, y se caracteriza por la utilización del método. Se le exige q medianteun método exponga todo su ámbito, y enuncie leyes q puedansercomprobadas por razonamiento o verificación, y q sirvan para explicarlos fenómenos de los q habla. La ciencia siempre está en proceso de avance.
-Ciencias formales: se ocupan de formas, y no d cosas reales.
-Ciencias eupíricas: estudian los hechos reales del mundo. Estas se pueden dividir en:
*Naturales: son aquellas formadas a partir del estudio de la naturaleza.
*Humanas o sociales: son aquellas q estudian los diferentes aspectos del hombre y la sociedad.
-Ciencia unificada: Algunos autores intentaron unir todas las ciencias tomando como modelo la física.
-Método inductivo: consiste en observar ellos y a partir de ellos sacar leyes. Primero se observan los hechos objetivamente, despúes se comparan y clasifican (sacando leyes), y por último se deducen las consecuencias de las leyes, lo q permite hacer predicciones.
*Problemas:no existen hechos totalmente objetivos, la generalización no tiene verificación lógica, ya q si no se observan todos los hechos puede haber alguno q la desmienta.
-Método hipotético-deductivo: primero se descubre el problema, se intenta una solución inventando una hipótesis, se deducen susu consecuencias, se contrastan hipótesis y consecuencias y se confirma la hipótesis convirtiéndola en ley.
*Problema de la contrastación: la contrastación es la puesta a prueba de una hipótesis. Existen dos formas: verificación (una hipótesis es verdadera si los hechos observados en el mundo coinciden con los descritos en la hipótesis) y falsación (una hipótesis puede ser admitida mientras no sea refrutada por los hechos). Se llega a la conclusión de q la contrastación con la experiencia no permite confirmar una hipótesis de un modo definitivo.
-Deductivo: la deducción es un razonamiento q permite a partir de unos primeros planteamiento, llegar a otro q es su conclusión lógica derivada.
-Técnica: conjunto de procedimientos destinados a la elavoración y obtención de productos.
-Tecnología: estudio de los procedimientos destinados a la elavoración y obtención de productos. Hoy en día “técnica” y “tecnología” se usan con el mismo significado.
-Ventajas de la técnica: gracias a ella tenemos una mejor calidad de vida y disponemos de muchísimas comodidades.
-Inconvenientes:
*Contaminación: devido a la aparición de las nuevas industrias cada vez se crean más residuos q perjudican a nuestro medio.
*La máquina sustituye al hombre: en algunos ámbitos laborales, como la agricultura o la ganadería, la máquina realoiza el trabajo de forma tan rápida y precisa q el hombre no es necesario. Además supone un gasto menor.
*Armamento: los gobiernos se ocupan más de conseguir poder q de su país. La forma más fácil de conseguirlo es gracias al armamento. Debido a los nuevos avances tecnológicos cada vez existen armas más rápidas, precisas y potentes.
-Relación ciencia.técnica: es más bien recíproca, ya q la técnica a precedido en muchos casos a la ciencia en la historia, y con frecuencia es ella la q plantea los problemas y exige el desarrollo de la ciencia.
-Valores de la ciencia: hay quien piensa q la ciencia es importante, y creen en su progreso alegando q cada vez se pueden explicar mejor un mayor número de problemas. Otros, sin embargo, piensas q lka ciencia es puro materialismo. Creen q deforman la esencia de las cosas. Pero hoy en día la ciencia es muy importante. Se ha convertido casi en la
única forma de dar credibilidad a algo.
Método empírico-analíticoEl método empírico es un modelo de investigación científica, que se basa en la experimentación y la lógica
empírica, que junto a la observación de fenómenos y su análisis estadístico, es el más usado en el campo de
las ciencias sociales y en las ciencias naturales.
El término empírico deriva del griego antiguo (Aristóteles utilizaba la reflexión analítica y el método empírico como
métodos para construir el conocimiento) de experiencia, έμπειρία, que a su vez deriva de έυ (en) y πεἳρα (prueba):
en pruebas, es decir, llevando a cabo el experimento. Por lo tanto los datos empíricos son sacados de las pruebas
acertadas y los errores, es decir, de experiencia.
Su aporte al proceso de investigación es resultado fundamentalmente de la experiencia. Estos métodos posibilitan
revelar las relaciones esenciales y las características fundamentales del objeto de estudio, accesibles a la
detección sensoperceptual, a través de procedimientos prácticos con el objeto y diversos medios de estudio. Su
utilidad destaca en la entrada en campos inexplorados o en aquellos en los que destaca el estudio descriptivo.
Contenido
[ocultar]
1 Corriente lógica 2 Características 3 Clasificaciones 4 Pasos generales del método empírico-analítico 5 Ciencias empíricas y ciencias formales 6 Véase también 7 Bibliografía
[editar]Corriente lógica
Artículo principal: Lógica empírica.
La lógica empírica' es la base del razonamiento empírico y por lo tanto del método empírico. Esta visión de la
lógica proviene de la antigua Grecia. El término empírico deriva del griego antiguo de experiencia, έμπειρία, que a
su vez deriva de έυ, en, y πεἳρα, prueba, experimento. Su origen se deduce a través de la observación de las
relaciones entre los objetos, lo que la convierte en la base ideal para las leyes del conocimiento. Su aparición en la
Antigua Grecia y Mundo Árabe provoca la definitiva separación entre las ciencias formales (geometría y álgebra)
de las ciencias empíricas (zoología, botánica), siendo su máximo exponente el propio Aristóteles. Su paso a través
de la historia provoca el descubrimiento de la lógica experimental y se mantiene hasta nuestros días....
[editar]Características
Es un método fáctico: se ocupa de los hechos que realmente acontecen
Se vale de la verificación empírica: no pone a prueba las hipótesis mediante el mero sentido común o el
dogmatismo filosófico o religioso, sino mediante una cuidadosa contrastación por medio de la percepción.
Es autocorrectivo y progresivo (a diferencia del fenomenológico). La ciencia se construye a partir de la
superación gradual de sus errores. No considera sus conclusiones infalibles o finales. El método está abierto a
la incorporación de nuevos conocimientos y procedimientos con el fin de asegurar un mejor acercamiento a la
verdad.
Muestra : El muestreo es una parte importante del método analítico ya que si se toma mal la muestra los
resultados serian erróneos o inservibles
[editar]Clasificaciones
Entre los Métodos Empíricos se encuentran:
experimental: Es el más complejo y eficaz de los métodos empíricos, por lo que a veces se utiliza
erróneamente como sinónimo de método empírico. Algunos lo consideran una rama tan elaborada que ha
cobrado fuerza como otro método científico independiente con su propia lógica, denominada lógica
experimental.
En este método el investigador interviene sobre el objeto de estudio modificando a este directa o
indirectamente para crear las condiciones necesarias que permitan revelar sus características
fundamentales y sus relaciones esenciales bien sea:
-Aislando al objeto y las propiedades que estudia de la influencia de otros factores
-Reproduciendo el objeto de estudio en condiciones controladas
-Modificando las condiciones bajo las cuales tiene lugar el proceso o fenómeno que se estudia.
Así, los datos son sacados de la manipulación sistemática de variables en un experimento (ver método
hipotético deductivo, el cual a su vez también se considera como un tipo de método empírico fuera del
método experimental por su relevancia y eficacia). Una diferencia clara con el método empírico en general
es que éste además trata de considerar los errores de modo que una inferencia pueda ser hecha en
cuanto a la causalidad del cambio observado (carácter autocorrectivo).
Corriente lógica
Artículo principal: Lógica experimental.
Un salto verdaderamente espectacular en este desarrollo se produce con Galileo Galilei que da sustento a
una nueva rama dentro de la lógica empírica, la lógica experimental. Ésta combina la lógica empírica de
observación de los fenómenos con dos métodos desarrollados en otras ramas del conocimiento formal:
la hipótesis (ver método hipotético deductivo y lamedida (ver Método de la medición. Esta vertiente da
lugar al Método experimental.
Método de la observación científica: Fue el primer método utilizado por los científicos y en
la actualidad continua siendo su instrumento universal. Permite conocer la realidad mediante
la sensopercepción directa de entes y procesos, para lo cual debe poseer algunas
cualidades que le dan un carácter distintivo. Es el más característico en las ciencias
descriptivas.
Método de la medición: Es el método empírico que se desarrolla con el objetivo de obtener
información numérica acerca de una propiedad o cualidad del objeto, proceso o fenómeno,
donde se comparan magnitudes medibles conocidas. Es la asignación de valores numéricos
a determinadas propiedades del objeto, así como relaciones para evaluarlas y
representarlas adecuadamente. Para ello se apoya en procedimientos estadísticos.
[editar]Pasos generales del método empírico-analítico
Existen variadas maneras de formalizar los pasos de este método. De entre ellas destacamos:
Forma convencional:
Identificación de un problema de investigación.
Formulación de hipótesis.
Prueba de hipótesis.
Resultados.
Formulación de Neil J. Salkind.
Artículo principal: Ciclo de la Investigación Científica.
Formulación de un problema.
Identificar factores importantes.
Formulación de hipótesis de investigación.
Recopilación de la información.
Probar la Hipótesis.
Trabajar con la hipótesis.
Reconsideración de la teoría.
Confirmación o refutación.
Ciencias empíricas y ciencias formales
Precisamente, es en virtud del tipo de método seguido para alcanzar el conocimiento científico como puede
establecerse una primera distinción entre las ciencias: las ciencias formales que se caracterizarían por el empleo
del así llamado método axiomático y lasciencias empíricas o fácticas, por el empleo de el método empírico-
analítico.
Estas ciencias décimos que "empiezan en la experiencia y terminan en la experiencia", distinguiéndose de este
modo de las llamadas ciencias formales y de la filosofía, que prefieren una mayor o total independencia de la
justificación empírica y los modos de investigación y verificación propiamente racionales (menos en el caso
del Positivismo lógico).
Tabla comparativa.
Naturalmente, no hay que identificar totalmente las ciencias experimentales con las ciencias empíricas: todas las
ciencias experimentales (la psicología experimental, por ejemplo) son ciencias empíricas, pero no todas las
ciencias empíricas son experimentales ya que pueden utilizar algún método de verificación distinto al experimental
(ciencia política), como los ya citados observacional y correlacional; este es el caso en gran medida de la
psicología diferencial y de otras áreas principales de la psicología científica.
Las ciencias empíricas se dividen en dos grandes grupos:
Ciencias naturales: Las ciencias naturales se ocupan del mundo físico y suelen ofrecer leyes de gran
universalidad y exactitud, presentando una idea determinista de la realidad. Destacan:
Física.
Química.
Biología.
Ciencias sociales: Las ciencias sociales estudian y analizan el más complejo de los objetos de estudio: el ser
humano. Las ciencias sociales se ocupan del mundo social, de los individuos y las colectividades. Destacan:
Economía.
Psicología.
Sociología.
Antropología.
Ciencia Política
Dilthey dividió las ciencias empíricas en ciencias de la naturaleza y ciencias del espíritu; y afirmaba que cada una
de estas ciencias depende de un tipo de racionalidad; el fundamento de las ciencias de la naturaleza es la razón
instrumental, mientras que el fundamento de las ciencias del espíritu es la razón histórica. Esta distinción fue
recogida por los miembros de la Escuela de Frankfurtpara afirmar que el método
FINES DE LA CIENCIA
>La ciencia es un conocimiento vivo cargado de valores y de sentidos sociales,
la ciencia es una sola sin embargo se han hecho varias distinciones con la
finalidad de que sea mas facil el estudio de la realidad.
>La ciencia se clasifica segun el objeto de estudio en:ciencias formales las
cuales se ocupan de los objetos ideales, se opera de forma deductiva y ciencias
facticas que se ocupan del mundo fisico ; la ciencia de igual forma se clasifica
segun el interes en la busqueda del conocimiento en ciencias basicas las cuales
elaboran teorias de amplio alcance para comprender los fenomenos a estudiar
pero sin tomar en cuenta los resultados que se puedan obtener mientras que las
ciencias aplicada llevan a la practicas las teorias generales
Fin de la cienciaEl fin de la ciencia es un asunto indudablemente controvetido, que genera interesantes y recurrentes debates
sobre el progreso científico, sobre el conocimiento, y sobre el futuro del saber científico.
Un autor como John Horgan,1 periodista científico que escribe para varias conocidas revistas, entre ellas Scientific
American, defiende así la idea de que lo esencial de los grandes descubrimientos científicos ya ha sido realizado, y
que por tanto de ahora en más, no deben esperarse nuevas e importantes revoluciones científicas.2
A la inversa, un autor como Bruno Latour responde que « no hay ni fin de la ciencia ni fin de la historia, y que no lo
habrá nunca».3
De manera general, debe señalarse que ciertos científicos han anunciado el fin inminente del progreso de la
ciencia, o al menos de algunas de sus ramas.4 Así, James Clerk Maxwell, William Thomson, y más
recientemente Stephen Hawking, especularon sobre el próximo fin de la física.5
El asunto de un posible fin de la ciencia tiene ocupados a los filósofos de las ciencias. Charles Renouvier entrevé e
intuye la posibilidad de una síntesis única de los conocimientos científicos ahora dispersos, lo que constituiría el fin
de la ciencia, o por lo menos el fin de la etapa actual de progreso
La(s) función(es) de la ciencia
Josep M. Casacuberta (jcsgmp@cid.csic.es) es vicedirector del Instituto de Biología Molecular de Barcelona (CSIC).
EL PAÍS - 27-04-2005
Parece que finalmente la idea de que la ciencia es fundamental para potenciar la competitividad de nuestra
industria ha calado en los distintos estamentos de la sociedad. Aunque la inversión pública en ciencia sigue
siendo de las más bajas de Europa, empieza a haber iniciativas para incrementarla y para potenciar la
transferencia de tecnología. Se crean parques científicos para acercar la investigación a las empresas, se
anuncian planes para recuperar científicos de prestigio, y los ministerios de Educación y Ciencia y de
Sanidad prometen inversiones en infraestructuras científicas. Pero ¿es la generación de tecnología la única
función de la ciencia?
La ciencia es, ante todo, una manera de ver el mundo, una determinada manera de intentar comprender
qué somos, entender lo que nos rodea y relacionarnos con ello. Aunque la visión científica es parcial y el
desarrollo de las sociedades modernas necesita de otras aproximaciones a la realidad, a la ciencia le
debemos muchos de los logros sociales que ahora nos parecen irrenunciables, y de las ideas que conforman
la mentalidad contemporánea.
La ciencia nos da, además, herramientas preciosas para pensar y modelos conceptuales valiosísimos para
desenvolvernos en nuestras vidas. Y deberíamos pedir a los científicos que cultivasen la ciencia y la
transmitiesen a la sociedad para que estos beneficios fueran compartidos. Ésta tendría que ser la primera
función de la ciencia y de los científicos: generar y compartir cultura científica.
Por otra parte, nuestra sociedad, e incluso nuestra vida, está cada vez más tecnificada y, aunque no sea
necesario tener conocimientos de física cuántica para utilizar un teléfono móvil, es conveniente saber hasta
qué punto una prueba genética puede ser predictiva del desarrollo de una determinada enfermedad. El
avance continuo de la técnica nos propone cada día nuevas aplicaciones de las que debemos ser capaces de
valorar los riesgos y los beneficios que nos pueden aportar. Para ello es necesario que la sociedad en
general y nuestros políticos en particular tengan un conocimiento científico suficiente para poder
participar en el debate y tomar las decisiones adecuadas. Transmitir a la sociedad el conocimiento
necesario para entender la técnica sería, pues, la segunda función de la ciencia en una sociedad avanzada.
Por último, efectivamente, la ciencia puede generar aplicaciones que en algunos casos permitirán una
mayor competitividad a las empresas del país y que pueden redundar también en una mejora del nivel de
vida de la sociedad. Sin embargo, la priorización de las investigaciones atiende cada vez más a razones de
mercado, por lo que no es extraño que empiecen a oírse voces que reclaman un cierto control de estos
desarrollos técnicos y piden contención a los científicos en sus investigaciones. Los científicos solemos
invocar la libertad de cátedra y nos escudamos en la distinción entre los descubrimientos científicos y sus
aplicaciones, pero la relación entre ciencia y técnica, entre el desarrollo científico y sus aplicaciones, es
cada vez más estrecha y empieza a ser difícil trazar una línea clara que los separe. Por otra parte, aunque
sería tan absurdo poner cortapisas a una ciencia contemplativa como limitar la expresión de cualquier
forma de pensamiento, podría ser razonable, e incluso conveniente, limitar ciertos desarrollos tecnológicos
cuyo objetivo principal es el de generar productos de mercado de gran valor añadido, máxime cuando su
generalización puede alterar sustancialmente la organización social y afectar a valores hasta ahora
comúnmente aceptados.
El enorme éxito del método científico para generar tecnología nos está haciendo olvidar las otras funciones
de la ciencia. Para mantener una ciencia capaz de crear cultura, de transmitir nuevos conceptos que nos
ayuden a pensar, es necesario desligarla en parte de objetivos finalistas. Si seguimos empeñados en ver a la
ciencia únicamente como una productora potencial de aplicaciones técnicas, perderemos la influencia de la
ELPAIS.es - versión para imprimir Página 1 de 2
http://www.elpais.es/articuloCompleto.html?xref=20050427elpepifut_8&type=Tes&a... 08/05/2005