Herramientas Confiabilidad

23
1 2.8 Herramientas Estadísticas de Confiabilidad 2.8.1 Análisis de Pareto A finales del siglo XIX, Wilfredo Pareto (1842-1923), ingeniero italiano, construyó histogramas sobre la base de la distribución de la riqueza en Italia, concluyendo que el 80% de la riqueza del país se encontraba en manos del 20% de la población total. Posterior a sus estudios, se pudo constatar que esta tendencia de distribución era representativa de una diversidad de datos poblacionales. La regla de 80/20, así como algunas variaciones como el análisis ABC (que utiliza la regla 80/15/5) o el listado de los “top ten”, son hoy en día una práctica común en muchos campos de estudio. Un ejemplo de esto es su aplicación en la ingeniería de mantenimiento, donde el análisis Pareto es comúnmente utilizado para identificar aquellos códigos de falla más críticos para las operaciones, ya sea en términos del costo de mantención o de la confiabilidad y disponibilidad de los equipos. A continuación se comentan una serie de características que ayudan a comprender la naturaleza de la herramienta. Priorización: Identifica los elementos que más peso o importancia tienen dentro de un grupo. Unificación de Criterios: Enfoca y dirige el esfuerzo de los componentes del grupo de trabajo hacia un objetivo prioritario común.

Transcript of Herramientas Confiabilidad

Page 1: Herramientas Confiabilidad

1

2.8 Herramientas Estadísticas de Confiabilidad

2.8.1 Análisis de Pareto

A finales del siglo XIX, Wilfredo Pareto (1842-1923), ingeniero italiano, construyó histogramas

sobre la base de la distribución de la riqueza en Italia, concluyendo que el 80% de la riqueza del

país se encontraba en manos del 20% de la población total. Posterior a sus estudios, se pudo

constatar que esta tendencia de distribución era representativa de una diversidad de datos

poblacionales. La regla de 80/20, así como algunas variaciones como el análisis ABC (que utiliza

la regla 80/15/5) o el listado de los “top ten”, son hoy en día una práctica común en muchos

campos de estudio.

Un ejemplo de esto es su aplicación en la ingeniería de mantenimiento, donde el análisis Pareto

es comúnmente utilizado para identificar aquellos códigos de falla más críticos para las

operaciones, ya sea en términos del costo de mantención o de la confiabilidad y disponibilidad

de los equipos.

A continuación se comentan una serie de características que ayudan a comprender la naturaleza

de la herramienta.

Priorización: Identifica los elementos que más peso o importancia tienen dentro de un grupo.

Unificación de Criterios: Enfoca y dirige el esfuerzo de los componentes del grupo de trabajo

hacia un objetivo prioritario común.

Carácter objetivo: Su utilización fuerza al grupo de trabajo a tomar decisiones basadas en

datos y hechos objetivos y no en ideas subjetivas.

2.8.1.1 Tablas y Diagramas de Pareto

Page 2: Herramientas Confiabilidad

2

Las Tablas y Diagramas de Pareto son herramientas de representación utilizadas para visualizar

el Análisis de Pareto.

El Diagrama de Pareto es la representación gráfica de la Tabla de Pareto correspondiente.

Las características fundamentales de las Tablas y los Diagramas de Pareto son:

Simplicidad: Tanto la Tabla como el Diagrama de Pareto no requieren ni cálculos complejos ni

técnicas sofisticadas de representación gráfica.

Impacto visual: El Diagrama de Pareto comunica de forma clara, evidente y de un "vistazo", el

resultado del análisis de comparación y priorización.

Figura 2.10:

Tabla y Diagrama de Pareto. [4]

2.8.2 Gráficos de Dispersión Logarítmica

La metodología de Gráficos de Dispersión Logarítmica es una metodología alternativa para la

priorización en los planes de mantenimiento.

Page 3: Herramientas Confiabilidad

3

Se sabe que el tiempo total fuera de servicio (TFS) para un determinado código de falla (que se

denomina por la letra i), es producto de dos factores: uno de ellos es el número de fallas

imprevistas asociadas a ese código (ni) y el otro es el tiempo medio asociado al diagnóstico y

reparación (MTTRi).

Ecuación 9 [2]

La figura 2.11 muestra una representación gráfica del número de fallas imprevistas y del Tiempo

Medio Para Reparar (MTTR), para distintos códigos de fallas (1,2,3,…,17):

0

20

40

60

80

100

0 20 40 60Número de Fallas

MT

TR

CURVAS DE TFS CONSTANTES: Familia de Hiperbolas

117

16

15

14

13

12

11

10

9

87

6

54

3

2

Figura 2.11: Gráfico de Dispersión x-y del MTTR vs. Número de Fallas. [4]

Un aspecto que representa una desventaja del gráfico de dispersión es que las curvas de TFS

constante son hipérbolas, que en general son muy difíciles de trazar. Para evitar lo anterior, se

propone como solución la aplicación del logaritmo de la ecuación, con lo que se obtiene lo

siguiente:

Ecuación 10 [2]

Si se construye un gráfico de dispersión x-y con los ejes ajustados a escala logarítmica, como se

aprecia en la figura 2.12, las isoclinas de TFS constante tendrán ahora la forma de rectas con

pendiente negativa.

Page 4: Herramientas Confiabilidad

4

Figura 2.12: Gráfico de Dispersión Logarítmica del MTTR vs. Número de Fallas. [4]

Esto facilita de gran manera el proceso de trazado de las curvas de TFS constante. Además,

permite determinar cuál de los factores, MTTRi o ni, es el dominante en el tiempo de detención.

Si se considera que aquellas fallas que tienen un tiempo medio de reparación muy largo son del

tipo agudas, mientras que aquellas fallas que presentan un alto nivel de ocurrencia son del tipo

crónicas, mediante la determinación de valores límites para el MTTR y n, el gráfico de dispersión

logarítmica puede ser dividido en cuatro cuadrantes, como se aprecia en la figura 2.13:

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas yCrónicasAgudas

28.9

Crónicas

15.9

Bajo Control

Figura 2.13: Gráfico de

Dispersión Logarítmica Mostrando Valores Límites.[4]

1,0

10,0

100,0

1 10 100

Número de Fallas

MT

TR

Rectas de TFS constante

Page 5: Herramientas Confiabilidad

5

Los cuadrantes superiores representan la zona de fallas agudas, mientras que los cuadrantes

del lado derecho representan una zona de fallas crónicas. El cuadrante superior derecho

representa una zona de fallas agudas y crónicas simultáneamente.

Los valores límites, denominados umbrales, pueden ser valores absolutos asignados por política

interna de la empresa o bien pueden obtenerse empíricamente, sobre la base de valores

relativos de los datos de reparación.

Una manera de definir los umbrales es a través de valores promedios. Se puede definir el tiempo

total fuera de servicio consumido por fallas imprevistas como:

Ecuación11 [2]

Donde di es el tiempo total fuera de servicio debido al i-ésimo código de falla. El número total de

fallas imprevistas es:

Ecuación 12 [2]

Sea Q el número de distintos códigos de falla utilizados para categorizar los datos de reparación.

El umbral límite para fallas crónicas puede ser definido entonces como:

Ecuación 13 [2]

El umbral límite para fallas agudas puede ser determinado como:

Ecuación 14 [2]

La clasificación de los tipos de falla en los gráficos de dispersión logarítmica provee una sencilla

manera de identificar problemas de confiabilidad, disponibilidad y mantenibilidad. Es común

utilizar al tiempo medio entre fallas (TMEF) como un índice de la confiabilidad. Por otro lado, la

disponibilidad, confiabilidad y mantenibilidad de los equipos se encuentran relacionados a través

de la siguiente aproximación:

Page 6: Herramientas Confiabilidad

6

Ecuación 15 [2]

Esta relación muestra que la disponibilidad de los equipos que puede ser mejorada

incrementando el TMEF, disminuyendo el MTTR, o mediante una combinación de ambas

acciones.

Las fallas crónicas son aquellas que más contribuyen al número de fallas observadas (N). Estas

son entonces las fallas que más afectan la confiabilidad del procesos que se analizará (figura

2.14). Encontrar soluciones a la causa raíz de estas fallas sería la manera más eficiente de

incrementar el TMEF del equipo o proceso y por lo tanto podría esperarse que se viera mejorada

la disponibilidad del proceso. Si fuese posible eliminar estas fallas, el TMPR resultante del resto

de los códigos de falla se vería incrementado. Luego, de acuerdo a la ecuación de

disponibilidad, el efecto de incrementar el TMEF se vería opacado por el incremento del TMPR,

lo que produciría un efecto reducido en términos de mejorar la disponibilidad.

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

Crónicas

15.9

Confiabilidad

MTTR

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

AgudasAgudas

28.9

Crónicas

15.9

CrónicasCrónicas

15.9

Confiabilidad

MTTR

Figura 2.14: Problemas de confiabilidad de equipos. [4]

Similarmente, la figura 2.15 muestra aquellas fallas que más afectan la disponibilidad del

proceso o equipo. En este caso el umbral queda establecido por un límite en el tiempo fuera de

servicio, que se representa a través de una de sus isoclinas. Al igual que los umbrales antes

establecidos, este valor puede ser absoluto o relativo a los datos. En este caso se ha escogido el

límite que pasa por la intersección de los umbrales de frecuencia de falla y del TMPR, que

corresponde a:

Page 7: Herramientas Confiabilidad

7

Ecuación 16 [2].

Encontrando solución a la causa raíz de las fallas situadas por sobre este límite incrementará la

disponibilidad del proceso.

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

Crónicas

15.9

MTTR

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

AgudasAgudas

28.9

Crónicas

15.9

CrónicasCrónicas

15.9

MTTR

Figura 2.15: Problemas de disponibilidad de equipo. [4]

La figura 2.16 representa las fallas agudas del proceso que más afectan la mantenibilidad,

mientras que la figura 2.17 muestra el efecto combinado de los límites de confiabilidad,

disponibilidad y mantenibilidad. Aquí se puede ver que si bien, eliminar los códigos de falla 15,

16 y 17 puede reducir el TMEF, la disponibilidad del proceso no se verá mayormente afectada,

pues estos códigos de falla no ocurren de manera frecuente.

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

Crónicas

15.9

Mantenibilidad

MTTR

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

AgudasAgudas

28.9

Crónicas

15.9

CrónicasCrónicas

15.9

Mantenibilidad

MTTR

Figura 2.16: Problemas de mantenibilidad de equipos. [4]

Page 8: Herramientas Confiabilidad

8

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

Crónicas

15.9

MTTR

1,0

10,0

100,0

1 10 100

Número de Fallas

TM

FS

1716

15

14

13

12

11

10

9

87

6

5

4

3

2

1

Agudas y Crónicas

Agudas

28.9

AgudasAgudas

28.9

Crónicas

15.9

CrónicasCrónicas

15.9

MTTR

Figura 2.17: Problemas de confiabilidad, disponibilidad y mantenibilidad de equipos. [4]

Existe otra buena razón para identificar las fallas agudas aparte del criterio de tiempo fuera de

servicio, y es que la reparación de estas fallas son generalmente más caras. Es más, no sólo el

costo directo de reparación es mayor sino que también el Costo de Oportunidad por Pérdida de

Producción por falla.

De esta manera, al separar los problemas de tipo crónico de los de tipo agudo, el departamento

de mantenimiento de una compañía minera puede contestar más fácilmente qué tipos de falla se

deben priorizar para mejorar óptimamente el negocio minero.

En algunas industrias, las consecuencias económicas (costo de oportunidad, extensión de

costos fijos, costo de niveles de inventario subóptimos y costo de sobredimensionamiento) de

una detención imprevista pueden ser relativamente más importantes que los costos directos de

reparación y mantenimiento. En la industria minera, por ejemplo, para ciclos de alto precio del

metal, el costo de oportunidad por pérdida de producción puede ser más significativo que los

costos de reparación. En este caso es deseable priorizar la producción, es decir la confiabilidad

y disponibilidad del equipo, por sobre la mantenibilidad (asociada a los costos).

Sin embargo, cuando el precio del cobre cae, el costo de producción pasa a ser un factor de

mayor importancia en cuanto a los márgenes de venta alcanzables por la empresa. En este

escenario, los esfuerzos de mantenimiento deben dirigirse tanto a controlar y reducir los costos

de mantenimiento y reparación como a asegurar una buena confiabilidad y disponibilidad.

2.8.2.1 Evolución de Falla

Page 9: Herramientas Confiabilidad

9

Este método permite graficar la evolución de un código de falla en particular, para más de un

período de tiempo (ver ejemplo en figura 2.18), lo que es muy útil para identificar códigos de falla

que presentarían prioridad en los planes de mantenimiento programado, además permite

evaluar la gestión del departamento de mantenimiento.

Figura 2.18: Gráfico de Evolución de Fallas. [4]

Para realizar esta priorización se deben realizar los siguientes pasos:

• Tomar los últimos dos períodos de tiempo de los códigos de falla de algún equipo o proceso.

• Obtener el número de fallas, el MTTR y el TFS total, para cada código de categoría y para

cada período.

• Establecer si la diferencia entre el número de fallas, MTTR y TFS total, sube o baja.

Dependiendo de estos factores se le asigna una “clase” a la falla, tal como se muestra en la

figura 2.19:

Page 10: Herramientas Confiabilidad

10

Figura 2.19: Tabla

de designación de clase. [4]

Los códigos de fallas del último periodo estudiado se grafican utilizando el mismo sistema de los

gráficos de dispersión con la única diferencia que las fallas crónicas se dividen en 2 grupos (A y

B), como se indica en la figura 2.20.

En A se encuentran las fallas que tienen TFS directo superior al múltiplo de n y MTTR

establecidos como umbrales.

En B se encuentran las fallas que individualmente tienen tiempos pequeños de reparación, pero

que podrían tener costos “ocultos” importantes.

Figura 2.20: Clasificación de fallas. [4]

Page 11: Herramientas Confiabilidad

11

Entonces la prioridad del código de falla va a depender de la clase y el cuadrante del último

periodo en que se encuentre éste (ver figura 2.21). Las prioridades se clasifican en: alta

(otorgándole a la falla el valor 1), media (concediéndole a la falla valor 2) y baja (adjudicándole

a la falla el valor 3)

Figura 2.21: Tabla de Prioridades. [4]

Esta prioridad es de gran importancia para la planificación a corto plazo del mantenimiento programado.

2.8.3 Distribución de Weibull

La distribución de Weibull es una de las herramientas más utilizadas en estimaciones de

supervivencia, en este caso es usada en relación a las fallas aparecidas en determinado

sistema. Tiene la ventaja de ser muy flexible y adaptable a una variedad de observaciones

experimentales, su función general es

Ecuación 17 [2]

Dónde,

Ecuación 18 [2]

Ecuación 19 [2]

Page 12: Herramientas Confiabilidad

12

Ecuación 20 [2]

Ecuación 21 [2]

Ecuación 22 [2]

y,

= parámetro de escala,

= parámetro de forma (o pendiente),

= parámetro de ubicación.

En la práctica varia entre el intervalo 1/3 a 5. El parámetro de escala se relaciona con lo

puntiagudo de la curva es decir conforme cambia la curva es más plana o más puntiaguda. El

parámetro de localización es el valor más pequeño de X, con frecuencia se supone que este es

0, lo que simplifica la ecuación, pero debe ser calculado experimentalmente.

En la práctica > 0 es la duración de la vida a la cual el 63,2% de la población fallara.

Si se integra f(t) se obtiene la función de distribución acumulada de fallas que corresponde a:

Ecuación 23 [2]

Ahora se vera como es posible linealizar la distribución acumula de fallas.

Primero se debe asumir que = 0 es equivalente al origen del tiempo para la ley es el mismo

que el de las observaciones (por lo tanto se tiene una distribución de Weibull de 2 parámetros):

Ecuación 24 [2]

Ecuación 25 [2]

Ecuación 26 [2]

´

Aplicando logaritmo natural, la ecuación 26 queda de la forma:

Ecuación 27 [2]

Page 13: Herramientas Confiabilidad

13

Esta ecuación queda de la forma de una recta y = mx – c

con , Ecuación 28 [2]

, Ecuación 29 [2]

. Ecuación 30 [2]

Por lo tanto los parámetros de la función se pueden calcular mediante una regresión lineal.

De la función de distribución acumulada de fallas se obtiene:

Función de Confiabilidad

Ecuación 31 [2]

Reemplazando la ecuación 23 en la 31 se obtiene

Ecuación 32

Distribución de Falla (t)

Ecuación 33 [2]

Reemplazando la ecuación 17 y la ecuación 23 en la ecuación 33 se obtiene

Ecuación 34

2.8.4 Test de comprobación de Kolmogorov-Smirnov (K-S)

En esta prueba también se está interesado en el grado de concordancia entre la distribución de

frecuencia muestral y la distribución de frecuencia teórica, bajo la hipótesis nula de que la

distribución de la muestra es f0(x,q) e interesa probar que no existe diferencia significativa. La

prueba trabaja con la función de distribución (distribución de frecuencia acumulativa). Esta

prueba pertenece al campo de la “Estadística No Paramétrica”.

Page 14: Herramientas Confiabilidad

14

Sea F0(x) la función de distribución teórica para la variable aleatoria X, y representa la

probabilidad de que la variable aleatoria X tome un valor menor o igual a x (también se interpreta

como la proporción esperada de observaciones que tengan un valor menor o igual a x).

Es decir:

Sea Sn (x) la función de distribución empírica, calculada con base en los valores observados de

la muestra n observaciones. Sn (x) representa la proporción de valores observados que son

menores o iguales a x, y está definida como:

Sn (x) = P (X £ x/ dados los resultados muestrales) = m/n, Ecuación 35 [2]

donde m es el número de valores observados que son menores o iguales a x.

En la prueba de Smirnov-Kolmogorov se está interesado en la mayor desviación entre la función

de distribución teórica y la empírica, es decir entre F0 (x) y Sn(x), para todo el rango de valores

de x. Bajo la hipótesis nula se espera que estas desviaciones sean pequeñas y estén dentro de

los límites de errores aleatorios. Por lo tanto, en la prueba K-S se calcula la mayor desviación

existente entre F0 (x) y Sn(x), denotada por Dmax(x) y está dada por:

Dmax(x) = Max | F0 (x) - Sn (x) | Ecuación 35 [2]

La distribución de Dmax(x) es conocida y depende del número de observaciones n. Se acepta la

hipótesis nula de que no existe diferencia significativa entre las distribuciones teóricas y

empíricas si el valor de Dmax(x) es menor o igual que el valor crítico Dmaxp(,n). (Ver tabla para

valores críticos).

Vale decir:

Dmax(x) < Dmaxp(,n) Ecuación 36 [2]

Tabla 2.3: Valores Críticos de Distribución de Kolmogorov-Smirnov para distintos niveles de significancia. [2]

Page 15: Herramientas Confiabilidad

15

Esta prueba se puede realizar para valores agrupados en intervalos de clase y también para

valores sin agrupar.

El procedimiento general para realizar esta prueba para valores agrupados en intervalos de

clase es el siguiente:

1) Especificar la distribución nula es f0(x,q), y estimar sus parámetros si es necesario.

2) Organizar la muestra en una distribución de frecuencia, en intervalos de clase.

Page 16: Herramientas Confiabilidad

16

3) Con base en la distribución observada de frecuencia, se calcula la distribución acumulativa

Sn(Xi) = mi/n, siendo Xi el límite superior del intervalo de clase, y m i el número de valores de la

muestra menores o iguales que Xi. Sn(Xi) corresponde simplemente a la frecuencia relativa

acumulada hasta el intervalo i.

4) Se calcula la función de distribución teórica F0 (Xi).

5) Para cada intervalo de clase se calcula la diferencia entre F0 (Xi ) y Sn (Xi), y se busca la

máxima Dmax = Max | F0 (Xi) - Sn (Xi) |, i = 1, 2, …, k.

6) Se busca en la tabla el valor crítico Dmaxp(,n) con el nivel de significancia . Si el valor

observado Dmax es menor o igual que el valor crítico, entonces se acepta la hipótesis nula de que

no existen diferencias significativas entre la distribución teórica y la distribución dada por los

resultados muestrales, es decir, que los valores generados siguen la distribución que se había

supuesto.

Cuando la muestra es pequeña y/o los valores no se van a organizar en intervalos de clase el

procedimiento es similar, sólo que el paso 2 se cambia por “ordenar los valores de la muestra”

en forma ascendente, de menor a mayor”, y en los pasos 3 y 4 se calculan las funciones de

distribución teórica y empírica para cada valor de la muestra.

Por ejemplo: Suponer que se generan por medio de una función teórica R(i) cinco números y

que se desea ejecutar el test de K-S para un nivel de significancia = 0,05.

Orden cronológico:

R(1) R(2) R(3) R(4) R(5)

0,03 0,58 0,87 0,32 0,95

Solución:

mi = 1, 2, 3, 4, 5.

n = 5

Orden numérico creciente:

F0(x1) F0(x2) F0(x3) F0(x4) F0(x5)

0,03 0,32 0,58 0,87 0,95

Page 17: Herramientas Confiabilidad

17

Ejemplo del cálculo de la distribución acumulativa Sn(Xi) = mi/n

Sn(X1) = 1/5 = 0,2

Ejemplo del Cálculo de la desviación entre F0(X1) y Sn(X1)

D = | 0,03 – 0,2 | = 0,17

En la tabla 2.4 se aprecia la evaluación completa del ejemplo:

Tabla 2.4: Ejemplo de evaluación del test de Kolmogorov Smirnov.

D. TeóricaF0(Xi)

0,03 0,32 0,58 0,87 0,95

D. AcumulativaSn(Xi) = mi/n

0,2 0,4 0,6 0,8 1

Dmax = Max | F0 (Xi) - Sn (Xi)| 0,17 0,08 0,02 0,07 0,05

Se observa en la tabla que la máxima desviación entre la distribución teórica y la distribución

acumulativa es 0,17.

El valor crítico que se obtiene de la tabla 2.5 para un nivel de significancia = 0,05 y n = 5 es

Dmaxp(0,05;5) = 0,842. Por lo tanto se cumple la condición

Dmax(x) < Dmaxp(,n)

0,17 < 0,842

Con lo que se aprueba la hipótesis nula de que no existen diferencias significativas entre la

distribución teórica y la distribución dada por los resultados muestrales.