Errores e Incertidumbre

3
INTRODUCCIÓN El resultado de toda medición siempre tiene cierto grado de incertidumbre. Esto se debe a las limitaciones de los instrumentos de medida, a las condiciones en que se realiza la medición, así como también, a las capacidades del experimentador. Es por ello que para tener una idea correcta de la magnitud con la que se está trabajando, es indispensable establecer los límites entre los cuales se encuentra el valor real de dicha magnitud. La teoría de errores establece estos límites. TIPOS DE ERRORES Error de escala : Todo instrumento de medida tiene un límite de sensibilidad. El error de escala corresponde al mínimo valor que puede discriminar el instrumento de medida. Error sistemático : Se caracteriza por su reproducibilidad cuando la medición se realiza bajo condiciones iguales, es decir siempre actúa en el mismo sentido y tiene el mismo valor. El error sistemático se puede eliminar si se conoce su causa. Error accidental o aleatorio : Se caracteriza por ser de carácter variable, es decir que al repetir un experimento en condiciones idénticas, los resultados obtenidos no son iguales en todos los casos. Las diferencias en los resultados de las mediciones no siguen ningún patrón definido y son producto de la acción conjunta de una serie de factores que no siempre están identificados. Este tipo de error se trabaja estadísticamente. El error accidental se puede minimizar aumentando el número de mediciones. El error total es igual a la suma de estos tres tipos de errores. Aún cuando el error total se pueda minimizar, es imposible eliminarlo del todo debido a que el error de escala siempre está presente. Por lo tanto, el error total no tiende a cero sino a cierto valor constante. A la par con los mencionados existen otros tipos de errores como son por ejemplo los errores estáticos y los errores dinámicos. Los errores estáticos se originan debido a las limitaciones de los instrumentos de medida o por las leyes físicas que gobiernan su comportamiento. En un micrómetro se introduce un error estático cuando se aplica al eje una fuerza excesiva. Los errores dinámicos se originan debido a que el instrumento de medida no responde lo suficientemente rápido para seguir los cambios de la variable medida. Pero cualquier tipo adicional de

description

Teoría de errores

Transcript of Errores e Incertidumbre

Page 1: Errores e Incertidumbre

INTRODUCCIÓNEl resultado de toda medición siempre tiene cierto grado de incertidumbre. Esto se debe a las limitaciones de los instrumentos de medida, a las condiciones en que se realiza la medición, así como también, a las capacidades del experimentador. Es por ello que para tener una idea correcta de la magnitud con la que se está trabajando, es indispensable establecer los límites entre los cuales se encuentra el valor real de dicha magnitud. La teoría de errores establece estos límites.

TIPOS DE ERRORES

Error de escala :Todo instrumento de medida tiene un límite de sensibilidad. El error de escala corresponde al mínimo valor que puede discriminar el instrumento de medida.Error sistemático :Se caracteriza por su reproducibilidad cuando la medición se realiza bajo condiciones iguales, es decir siempre actúa en el mismo sentido y tiene el mismo valor. El error sistemático se puede eliminar si se conoce su causa.Error accidental o aleatorio :Se caracteriza por ser de carácter variable, es decir que al repetir un experimento en condiciones idénticas, los resultados obtenidos no son iguales en todos los casos. Las diferencias en los resultados de las mediciones no siguen ningún patrón definido y son producto de la acción conjunta de una serie de factores que no siempre están identificados. Este tipo de error se trabaja estadísticamente. El error accidental se puede minimizar aumentando el número de mediciones.El error total es igual a la suma de estos tres tipos de errores. Aún cuando el error total se pueda minimizar, es imposible eliminarlo del todo debido a que el error de escala siempre está presente. Por lo tanto, el error total no tiende a cero sino a cierto valor constante.

A la par con los mencionados existen otros tipos de errores como son por ejemplo los errores estáticos y los errores dinámicos. Los errores estáticos se originan debido a las limitaciones de los instrumentos de medida o por las leyes físicas que gobiernan su comportamiento. En un micrómetro se introduce un error estático cuando se aplica al eje una fuerza excesiva. Los errores dinámicos se originan debido a que el instrumento de medida no responde lo suficientemente rápido para seguir los cambios de la variable medida. Pero cualquier tipo adicional de error se puede clasificar en uno de los grupos mencionados anteriormente.PROPAGACIÓN DE LA INCERTIDUMBRESuele ser posible estimar o medir el error aleatorio asociado a una medición particular, como la longitud de un objeto o la temperatura de una solución. La incertidumbre puede basarse en una estimación de la capacidad que se tiene para efectuar lecturas con un instrumento, o en la experiencia adquirida con un método particular. Cuando es posible, la incertidumbre se expresa habitualmente como la desviación estándar de una serie de mediciones repetida. La que sigue sólo se aplica a los errores aleatorios; se supone que cualquier error sistemático fue detectado escogido antes.En la mayoría de los experimentos es necesario efectuar operaciones aritmética con diversos números, cada uno de los cuales tiene un error aleatorio asociado. La incertidumbre más probable en el resultado no es simplemente la suma de los errores individuales, debido a que algunos de

Page 2: Errores e Incertidumbre

ellos son probablemente positivos, y otros, negativos. Puede esperarse que estos errores se cancelen en cierto grado.PROPAGACIÓN DE ERRORES

En Estadística, la propagacion de errores (o propagación de incertidumbre) es el efecto de variables de incertidumbre (o errores) en la incertidumbre de una función matemática basada en ellos. Cuando las variables son los valores de mediciones experimentales tienen incertidumbre debido a la medición de limitaciones (por ejemplo, instrumento de precisión), que se propagan a la combinación de variables en la función.La incertidumbre es normalmente definida por el error absoluto. La incertidumbre también puede ser definida por el error relativo Δx/x, que usualmente es escrito como un porcentaje.Más comúnmente, el error en una cantidad,  , está dado por la desviación estándar,  . La desviación estándar es la raíz cuadrada positiva de

la varianza,  . El valor de una cantidad y su error son, a menudo, expresados como  . Si la distribución de probabilidad estadística de la variable es conocida o puede ser asumida, es posible derivar el intervalo de confianza para describir la región dentro de la cual el valor verdadero de la variable puede ser encontrado. Por ejemplo, el intervalo de confianza de 68% de una variable perteneciente a una distribución normal es ± una desviación estándar del valor, esto es, existe un 68% de probabilidad que el valor verdadero se encuentre en la región  . Si las variables están correlacionadas, entonces la covarianza debe ser tomada en cuenta.

Incertidumbre. En la mayoría de situaciones de la vida real no se tiene un valor convencionalmente verdadero con el cual comparar el resultado de una medición. El operario que controla un producto en una línea de fabricación, el ingeniero que evalúa las propiedades de un material o el médico que mide la presión arterial de un paciente, no disponen, en sus momento, de una medida previa de mejor calidad de esa misma magnitud, que le permita comparar y evaluar su resultado. Es en este tipo de circunstancias, donde la incertidumbre es el parámetro más apropiado para evaluar la calidad del resultado de la medida.

La incertidumbre es un parámetro que establece un intervalo - alrededor del resultado de medición – de los valores que también podrían haberse obtenido durante la medición con cierta probabilidad. En la determinación de la incertidumbre deben tenerse en cuenta todas las fuentes de variación que puedan afectar significativamente a la medida.