2012_cONFIABILIDAD_ARTICULOS

105
[SUMARIO DE ARTICULOS DE CONFIABILIDAD DE MANTENIMIENTO] ES UN COMPENDIO DE VARIOS ARTICULOS QUE HABLAS SOBRE LA CONFIABILIDAD Y EL ESTABLECIMIENTO DE LA VIDA UTIL DE LOS EQUIPOS ASI COMO CRITERIS ESTADISTICOS APLICADO PARA EL CALCULO DE LA CONFIABILIDAD 2012 [Escribir el nombre de la compañía] Sandra Rosas

Transcript of 2012_cONFIABILIDAD_ARTICULOS

Page 1: 2012_cONFIABILIDAD_ARTICULOS

[

]ES UN COMPENDIO DE VARIOS ARTICULOS QUE HABLAS SOBRE LA CONFIABILIDAD Y EL ESTABLECIMIENTO DE LA VIDA UTIL DE LOS EQUIPOS ASI COMO CRITERIS ESTADISTICOS APLICADO PARA EL CALCULO DE LA CONFIABILIDAD

2012

Sandra Rosas

Page 2: 2012_cONFIABILIDAD_ARTICULOS

4. El Mantenimiento como Fuente de Rentabilidad

Para evaluar la gestión del mantenimiento, se han de definir claramente los objetivos que el mantenimiento pretende conseguir. Estos objetivos se fijarán en función de los objetivos de la empresa (rentabilidad, en mercados competitivos). La mejor manera de saber si dichos objetivos se consiguen o no y cómo contribuyen a mejorar la competitividad de la empresa es cuantificarlos en términos monetarios.

Hoy en día, las estrategias del mantenimiento están encaminadas a garantizar la disponibilidad y eficacia requerida de las unidades, equipos e instalaciones, asegurando la duración de su vida útil y minimizando los costos de mantenimiento, dentro del marco de la seguridad y el medio ambiente.

Los factores críticos de éxito de la gestión del mantenimiento son la Disponibilidad y la Eficiencia, que van a indicarnos la fracción de tiempo en que las unidades o equipos están en condiciones de servicio (Disponibilidad) y la fracción de tiempo en que su servicio resulta efectivo para la producción.

La disponibilidad se ha de tener sólo cuando se requiere, lo cual no quiere decir que haya de ser por igual en todos los recursos (unidades), pues depende mucho de la criticidad de los mismos, y esa criticidad puede variar según las condiciones del mercado. Tener una disponibilidad demasiado elevada en recursos (unidades) que no la necesitan sólo ocasiona un exceso de costos, al hacer un uso excesivo de los recursos de mantenimiento.

La mejora en los dos ratios de Disponibilidad y eficiencia y la disminución de los costos de mantenimiento suponen el aumento de la rentabilidad de la empresa y por tanto tiene influencia directa sobre las utilidades.

4.1 Evolución del concepto de Mantenimiento

Antes de esta mirada a aspectos del mantenimiento revisemos algunas definiciones básicas:

Mantenimiento Preventivo: Tarea que involucra cambios/reconstrucciones de partes/equipo bajo una base regular, sin importar el estado de las mismas.

Mantenimiento Predictivo: Busca mediante inspecciones periódicas determinar cuando cambiar o reconstruir una parte/equipo en función del estado actual de los mismos.

Mantenimiento Detectivo: Busca detectar la ocurrencia de fallas ocultas en equipos de protección y/o respaldo.

Mantenimiento Correctivo: Restitución del equipo al estado operativo óptimo después de la ocurrencia de una falla.

2

Page 3: 2012_cONFIABILIDAD_ARTICULOS

Riesgo: Dado matemáticamente por el producto de la probabilidad de ocurrencia de un evento y sus consecuencias

El objetivo fundamental del mantenimiento, es preservar la función y la operabilidad, optimizar el rendimiento y aumentar la vida útil de los activos, procurando una inversión óptima de los recursos. Este enfoque del mantenimiento es resultado de una evolución importante a través del tiempo. La literatura [1] distingue entre tres generaciones diferentes de mantenimiento. Cada una de las cuales representa las mejores prácticas utilizadas en una época determinada.

En los últimos años se ha vivido un crecimiento muy importante de nuevos conceptos de mantenimiento y metodologías aplicadas a la gestión del mantenimiento.

Hasta finales de la década de los 90, los desarrollos alcanzados en la 3º generación del mantenimiento incluían:

Herramientas de ayuda a la decisión, como estudios de riesgo, modos de falla y análisis de causas de falla.

Nuevas técnicas de mantenimiento, como el monitoreo de condición Equipos de diseño, dando mucha relevancia a la confiabilidad y mantenibilidad. Un cambio importante en pensamiento de la organización hacia la participación, el

trabajo en equipo y la flexibilidad

A estos usos, se han ido añadiendo nuevas tendencias, técnicas y filosofías de mantenimiento hasta nuestros días, de tal forma que actualmente se puede hablar de una “cuarta generación” del mantenimiento.

El nuevo enfoque se centra en la eliminación de fallas utilizando técnicas proactivas. Ya no basta con eliminar las consecuencias de la falla, sino que se debe encontrar la causa de esa falla para eliminarla y evitar así que se repita.

Asimismo, existe una preocupación creciente en la importancia de la mantenibilidad y confiabilidad de los equipos, de manera que resulta clave tomar en cuenta estos valores desde la fase de diseño del proyecto. Otro punto importante es la tendencia a implantar sistemas de mejora continua de los planes de mantenimiento preventivo y predictivo, de la organización y ejecución del mantenimiento.

A parte de estas características descritas anteriormente, existen otros dos temas importantes dentro del mantenimiento actual cuya importancia ha aumentado de manera muy importante en los últimos años:

La Gestión del Riesgo: Cada día cobra más importancia la identificación y control de los posibles sucesos que presentan una baja probabilidad pero consecuencias graves, sobre todo en organizaciones que operan en industrias con riesgo. El mantenimiento se está viendo como un participante clave en este proceso. En el pasado, este tipo de sucesos se controlaban simplemente con una extensión de los

3

Page 4: 2012_cONFIABILIDAD_ARTICULOS

Sistemas de Gestión de Seguridad y Medio Ambiente implantados en cada empresa. Sin embargo, existe una creciente percepción de que la aplicación de estos sistemas de gestión a los sucesos de “baja probabilidad / consecuencias graves” no es efectiva, por lo que es necesario desarrollar otras metodologías.

Patrones de Falla: Las nuevas investigaciones están cambiando muchas de las tradicionales creencias sobre la relación existente en una máquina entre el envejecimiento y la falla. En particular, se ha demostrado que para muchos equipos existe muy poca relación entre el tiempo de operación y la probabilidad de falla. El enfoque inicial del mantenimiento suponía que la probabilidad de que una máquina falle aumenta según el tiempo de operación, siendo mayor la probabilidad de falla en la “vejez” de la máquina. La segunda generación de mantenimiento introdujo el concepto de “mortalidad infantil”. De esta forma la tasa de fallas de una máquina puede ser representada con una curva de bañera, existiendo, por tanto, más probabilidad de falla durante el principio y el final de su vida útil

Sin embargo, en el mantenimiento actual se ha demostrado que podemos definir seis patrones diferentes de tasa de fallas, según el tipo de máquina que estemos utilizando.

Tener en cuenta el patrón al que se ajusta cada elemento es fundamental si se quiere conseguir una óptima planificación del mantenimiento.

Debemos estar seguros de que el mantenimiento que ha sido planificado es el adecuado, ya que de nada sirve realizar el trabajo planificado de manera correcta, si éste no es el más adecuado.

Figura 4.1: Nuevos patrones de tasas de falla.

Para los patrones de falla A, B y C, la probabilidad de falla aumenta con la edad hasta alcanzar un punto en el que es conveniente reemplazar el componente antes de que falle y así reducir su probabilidad de falla. En el caso de los componentes que presentan una probabilidad de falla del modelo E, reemplazar el componente no mejorará en ningún caso

4

Page 5: 2012_cONFIABILIDAD_ARTICULOS

su confiabilidad, ya que el nuevo elemento tendrá la misma probabilidad de falla que el antiguo.

Si el patrón de falla al que se ajusta el componente es el F, reemplazar el elemento a intervalos fijos por un componente nuevo, no sólo no mejorará la confiabilidad, sino que aumentará la probabilidad de falla, ya que en la“infancia” presenta más mortalidad que en la vejez.

En el gráfico se observa que más del 50% de los componentes presentan fallas en la “infancia”. Esto quiere decir que cada vez que se repara o reemplaza un equipo, las posibilidades de falla prematura debido a esa operación de mantenimiento son muy elevadas. Alguna de las posibles explicaciones que se pueden dar a este hecho, son errores humanos, errores del sistema, errores de diseño o errores de piezas.

Por lo visto anteriormente, está claro que el mantenimiento actual debe centrarse en reducir las operaciones de mantenimiento provocadas por fallas que se ajustan al modelo F. Es decir, fallas ocurridos en la “infancia” de los equipos. Para los elementos que ajusten su tasa de fallas a este patrón F, un mantenimiento planificado a intervalos fijos aumentará las posibilidades de falla, ya que el equipo nuevo presentará más probabilidad de falla que el antiguo. Por ese motivo existe una tendencia generalizada a “mantener lo mínimo posible”, debido a que cualquier operación de mantenimiento realizada puede aumentar la probabilidad de falla.

Otra posibilidad, es centrarse en reducir de manera global las probabilidades de falla sobre todos los modelos. La forma de realizar esto, es mediante la utilización de un Mantenimiento Proactivo, es decir buscar la forma de eliminar los fallas, más que eliminar sus consecuencias.

Para eliminar las fallas, hay que eliminar sus causas, lo que implica conocerlas. Existen herramientas como el Análisis Causa-Raíz que ayudan a identificar y eliminar las causas de los fallas, aunque en muchas ocasiones se utiliza como una herramienta reactiva más que proactiva.

A modo de resumen, en las siguientes gráficas se presenta como han ido evolucionando las expectativas y técnicas del mantenimiento durante el último siglo:

5

Page 6: 2012_cONFIABILIDAD_ARTICULOS

Figura 4.2: Objetivos del Mantenimiento.

Figura 4.3: Evolución de las Técnicas de Mantenimiento.

4.2 Técnicas de Mantenimiento

Hoy en día existen infinidad de diferentes herramientas, técnicas, metodologías y filosofías de mantenimiento. Algunas de las más utilizadas entre otras pueden ser:

Mantenimiento Autónomo / Mantenimiento Productivo Total (TPM) Mejoramiento de la Confiabilidad Operacional (MCO) Mantenimiento Centrado en la Confiabilidad (RCM)// (MCC) Mantenimiento Basado en el Riesgo (MBR) Asset Integrity Mantenimiento Centrado en Confiabilidad en Reversa (MCC-R) Análisis Causa raíz (ACR) Análisis de Criticidad (AC) Optimización Costo Riesgo (OCR)

6

Page 7: 2012_cONFIABILIDAD_ARTICULOS

Inspección Basada en Riesgo (RBI)(IBR)

En efecto los métodos para mejorar la confiabilidad se podrían dividir en dos:

Métodos Proactivos: Buscan la mejora de la confiabilidad mediante la utilización de técnicas que permitan la paulatina eliminación de las fallas tanto crónicas como potenciales. Claros ejemplos son el Mantenimiento Centrado en la Confiabilidad y el Mantenimiento Productivo Total.

Métodos Reactivos: Buscan de una manera rápida y eficaz la solución de problemas cotidianos y evitar repetición de eventos mayores. En líneas generales se trata de métodos sobre todo "post-morten". Actualmente su mejor exponente es el Análisis Causa Raíz.

Nos referiremos a continuación muy brevemente a algunas de ellas:

4.2.1 Mantenimiento Centrado en la Confiabilidad (RCM)

Esta técnica surge a finales de los años sesenta como respuesta al incremento de costos y actividades del mantenimiento de las aeronaves (básicamente preventivo). En esta industria demuestra ser muy valioso, no sólo bajando los costos y actividades de mantenimiento, sino que además mejora los niveles de confiabilidad, disponibilidad y seguridad. Estos éxitos lo hicieron apetecible a otras industrias, como la militar, petrolera y de generación de electricidad.

Esta técnica se basa en seleccionar mantenimiento sólo donde las consecuencias de las fallas así lo requieren, para esto se necesita hacer un estudio exhaustivo de todas las funciones, fallas, modos y consecuencias de las fallas, para luego decidir donde y que tipo de mantenimiento hacer. Establece un orden de prioridades: la seguridad y ambiente, producción, costos de reparación. Esto ha hecho que sea una herramienta valiosa en las industrias que requieren elevados niveles de seguridad, generando a cambio de los esfuerzos, buenos resultados.

Bajo su enfoque tradicional resulta muy difícil de aplicar en grandes industrias debido a que no resuelve algunas interrogantes mayores como ¿Cuándo hacer el mantenimiento? y ¿Cómo generar una jerarquía de implantación?

Es una técnica bastante analítica, lo cual ha traído problemas de implantación, debido a que a veces resulta difícil pasar del papel a la realidad. Conduciendo esto a fuertes perdidas de dinero y esfuerzos, degenerando al final en frustración de los equipos de trabajo. Se trata de una práctica recomendada por el Energy Power Research Institute (EPRI) para sistemas eléctricos.

4.2.2 Mantenimiento Productivo Total (TPM)

7

Page 8: 2012_cONFIABILIDAD_ARTICULOS

Conocido por los grandes beneficios que ha obtenido en empresas manufactureras. Demostró su poder en Japón y ha comenzado a diseminarse a lo largo del mundo. Hace un gran esfuerzo en el trabajo en equipos. Se apoya fuertemente en limpieza y lubricación como fuentes que eliminan problemas crónicos. Requiere de una profunda cultura de trabajo en equipo y sentido de propiedad de los bienes por parte de los trabajadores.

De no poseer estos se requiere de un fuerte trabajo en el cambio cultural. Está muy ligado a los conceptos de mejoramiento continuo de la calidad y filosofías cero defectos. Difícil de aplicar en empresas de procesos, debido en muchos casos a lo ambiguo que resultan los conceptos de calidad y defectos, por otra parte el problema cultural puede entorpecer la implantación a niveles de frustración.

Donde se ha logrado su implantación exitosa, se han tenido grandes logros respecto a seguridad, ambiente, confiabilidad, disponibilidad y costos de mantenimiento. Tampoco responde a las interrogantes ¿Cuándo hacer el mantenimiento? y ¿Cómo generar una jerarquía de implantación?

4.2.3 Análisis Causa Raíz (ACR)

Técnica poderosa que permite la solución de problemas, con enfoque a corto y mediano plazo. Usa técnicas de investigación bastante exhaustivas, con la intención de eliminar las causas de los problemas/fallas. Su valor no sólo reside en la eliminación de grandes eventos, sino en la eliminación de los eventos crónicos, que tienden a devorar los recursos de mantenimiento. Al eliminar paulatinamente los problemas crónicos y pequeños, este genera tiempo para análisis más profundos (RCM, por ejemplo).

4.3 Mejoramiento de la Confiabilidad Operacional (MCO)

El mejoramiento en la confiabilidad operacional desarrollada en U.K. con la intención de agrupar las mejores practicas de mantenimiento y operaciones con una orientación al negocio. Reconoce las limitaciones que el mantenimiento como función tiene para lograr una confiabilidad adecuada de las instalaciones.

La figura ilustra un poco mas la idea:

8

Page 9: 2012_cONFIABILIDAD_ARTICULOS

Figura 4.4: Confiabilidad Operacional.

Para mejorar los 4 sectores nombrados en la gráfica anterior, el MCO divide las técnicas de mejoramiento:

Diagnóstico Aquí mediante uso de técnicas asociadas al manejo de riesgo se cuantifican las oportunidades a corto plazo (reactivas) y mediano largo plazo (proactivas). Como resultado se obtiene una jerarquía de implementación. Aquí se hace uso de herramientas de análisis de criticidad y de oportunidades perdidas (a modo de ejemplo), estas permiten establecer las oportunidades de mejoramiento y que herramientas de control podrían usarse para capitalizar las oportunidades halladas

Control Aquí se usa el RCM+ (que combina algunas ventajas del TPM con el RCM) como técnica proactiva y el ACR como técnica reactiva, también se puede hacer uso del IBR para equipos estáticos. Como resultado se obtienen una serie de tareas de mantenimiento, operaciones, rediseño a ejecutar para mejorar el desempeño.

Estas técnicas de control por lo general son técnicas del tipo cualitativo y basadas en reglas fijas para la toma de decisión (por ejemplo: diagramas lógicos).

Optimización Aquí mediante el uso de herramientas avanzadas de cálculo costo riesgo se hallan los intervalos óptimos de mantenimiento, paradas de planta, inspecciones, etc.

Se trata de técnicas del tipo numérico e involucran el modelado de los equipos y/o sistemas.

Los resultados de implementar estas herramientas de esta manera son impresionantes en diversas industrias, logrando en algunos casos incluso la transformación de las empresas llevándolas a la implementación de Gerencia de Activos (Asset Management)

9

Page 10: 2012_cONFIABILIDAD_ARTICULOS

Grandes resultados se han encontrado en Centrales Eléctricas con la implantación del Mantenimiento Centrado en la Confiabilidad y con el Análisis Causa Raíz. Un requisito que no debe dejarse de cumplir es el establecimiento previo de prioridades antes de la ejecución de ambas técnicas (simultaneas). Se han desarrollado herramientas como el análisis de criticidad y el análisis de oportunidades perdidas que pueden resolver dicha inquietud eficazmente.

Por otra parte normalmente ambas técnicas generarán soluciones que podrían ser agrupadas en:

Cambios de diseño. Tareas preventivas. Tareas de Inspección (Detección y Predicción). Tareas correctivas.

La respuesta a cuando ejecutar dichas tareas no es simple, y en muchos casos no puede ser fijada por la ley del dedo. Grandes beneficios económicos han sido reportados con el uso de software, que pueden calcular el punto de ejecución con menor costo/riesgo posible para las tareas anteriores.

4.4 Inspección Basada en Riesgo

Un capitulo especial se abre con esta técnica, que establece patrones de inspección de equipos estáticos (calderas, líneas de transmisión, etc.) en función de su riesgo asociado, nuevas aproximaciones permiten usar software para tomar en cuenta también el estado actual del equipo, lo que desencadena una continua optimización por costo/riesgo y no una frecuencia de inspección fija. Los reportes económicos han sido cuantiosos, además de los beneficios por disponibilidad y producción. También es posible optimizar con este tipo de técnicas la frecuencia de búsqueda de fallas ocultas (pesquisa de fallas, mantenimiento detectivo), dejándose de usar entonces formulas mágicas que no generan una frecuencia óptima por costo/riesgo, pudiéndose simular factores como probabilidad de éxito de la prueba y probabilidad de destrucción del equipo probado.

4.5 Modelos de Optimización del Mantenimiento

Los modelos de optimización de mantenimiento se definen [3] como aquellos modelos matemáticos cuyo objetivo es encontrar el equilibrio óptimo entre los costos y beneficios de éste, tomando en cuenta todo tipo de restricciones. En casi todos los casos, las ventajas del mantenimiento consisten en ahorros de costos en los cuales de otro modo se incurriría (por ej, menor costo de fallas). Esta definición no incluye todos los modelos de investigación de operaciones aplicados en el mantenimiento. La programación de interrupciones de plantas de energía eléctrica para mantenimiento no es considerada, a menos que los aspectos de mantenimiento típicos (como el deterioro) sean modelados explícitamente. Se excluyen técnicas de dirección de proyecto, aunque algunas sean usadas en la planificación de cierre de instalaciones principales en la industria de proceso, cuando éstos carecen de los aspectos costo-beneficio del mantenimiento.

10

Page 11: 2012_cONFIABILIDAD_ARTICULOS

También se excluye los modelos de reemplazo de repuestos cuando éstos se enfocan principalmente en el control de inventario.

En general, los modelos de optimización de mantenimiento cubren cuatro aspectos:

1. Una descripción de un sistema técnico, su función y su importancia, 2. Un modelado del deterioro del sistema en el tiempo y consecuencias posibles para

el sistema, 3. Una descripción de la información disponible acerca del sistema y las acciones

dispuestas por la dirección 4. Una función objetivo y una técnica de optimización que ayuda en el descubrimiento

del mejor equilibrio.

En [4] los modelos se clasifican según la modelación del deterioro en:

Modelos deterministicos Modelos estocásticos

o En Riesgo o Bajo Incertidumbre

Ellos distinguen entre un sistema simple (componente unico) y un sistema complejo. La diferencia entre riesgo e incertidumbre es que en caso del riesgo se asume que una distribución de probabilidad del tiempo de falla está disponible, lo que no ocurre en el caso de la incertidumbre. Este por lo tanto incluye modelos con políticas adaptativas. Los métodos de optimización empleados incluyen programación lineal y no lineal, programación dinámica, métodos de decisión de Markov, técnicas de análisis de decisión, técnicas de búsqueda y metodologia heurística.

Los modelos de optimización de mantenimiento proporcionan varios resultados. En primer lugar, las políticas pueden ser evaluadas y comparadas con respecto a las características de confiabilidad y rentabilidad. En segundo lugar, los resultados pueden ser obtenidos en la estructura de monitoreo(vigilancia) óptimas, como la existencia de una política optima en los límites de control. En tercer lugar, los modelos pueden asistir en el aspecto del tiempo: con que frecuencia inspeccionar o mantener. Todos estos resultados se refieren al concepto de mantenimiento; el último también se refiere adicionalmente a la planificación del mantenimiento. Finalmente, los modelos también pueden ayudar en la determinación efectiva y eficiente de programas y planes, tomando en cuenta todos los tipos de restricciones.

Cuando la dirección de un departamento de mantenimiento se encuentra en una condición de “mantenimiento reactivo”. Una de las mejores maneras de afrontar los inicios de la gestión para pasar a la condición de “mantenimiento planificado” es utilizando métodos sencillos de optimización de cadenas de valor como la teoría de restricciones y los modelos de colas La teoría de restricciones [5 ]se centra, básicamente, en la búsqueda del flujo perfecto de bienes o servicios a través de una cadena de valor balanceada, coordinada y

11

Page 12: 2012_cONFIABILIDAD_ARTICULOS

sincronizada de estaciones de trabajo, logrando así, bajar los costos de operación, reducir los inventarios y aumentar las ventas.

En el caso de un departamento de mantenimiento aplica todo lo anterior, ya que por un lado, la función mantenimiento no es otra cosa que un conjunto ordenado de actividades que agregan valor a un “servicio prestado”, desde una condición inicial conocida hasta una condición final que debe cumplir con los parámetros de calidad y seguridad establecidos o convenidos entre el ente encargado de agregar valor (Departamento de Mantenimiento) y el que lo recibe (clientes internos) en un tiempo determinado. Siendo el servicio prestado un bien intangible podemos tomar la “solicitud de trabajo” como elemento tangible del servicio en su condición inicial, la “orden de trabajo en proceso” como elemento tangible del servicio en tránsito y la “orden de trabajo culminada” como elemento tangible del servicio en su condición final.

Por otro lado, en cuanto a los resultados esperados, podemos establecer una relación directa, ya que, los costos de operación son los gastos de mantenimiento, los inventarios estarían representados por las ordenes de trabajo (sin atender y en tránsito) y las ventas se pueden asociar directamente con el nivel de servicio (cantidad de solicitudes atendidas en una cantidad de tiempo determinada).

Según la teoría de restricciones, el primer paso para la implantación es identificar los cuellos de botella (estaciones de servicio que determinan la velocidad del flujo en el sistema), luego se asignan las prioridades a los trabajos a ser ejecutados y finalmente se balancea el sistema. Este proceso es reiterativo, ya que al cambiar las condiciones externas o internas del sistema, van apareciendo nuevos cuellos de botella, lo que trae consigo nuevas acciones correctivas.

4.6 Relación entre Mantenimiento, Disponibilidad y Rentabilidad

Análisis de un caso particular 1

Relación entre el Mantenimiento Programado y las salidas forzadas, su impacto Económico en la elección de Metas de Disponibilidad [7].

Las técnicas para estimar la Disponibilidad Optima Económica (OEA) de una unidad generadora se ha enfocado en la comparación del costo "frontera" [8] de la unidad por el porcentaje de mejora de su valor marginal. Aunque ha sido normalmente aceptado que la cantidad de salidas no planeadas que una planta experimenta es, en parte, una función de la cantidad del mantenimiento programado, aquella relación no ha sido bien determinada. El estudio [7] explora aquella relación y examina su impacto económico en la elección de metas de disponibilidad.

Análisis

Usando una base de datos del Edison Electric Institute (un predecesor del actual GADS system administered by the North American Electric Reliability Council) para grandes

12

Page 13: 2012_cONFIABILIDAD_ARTICULOS

unidades carbón de 1971 a1978, fue deducida una relación lineal entre la indisponibilidad planeada y la indisponibilidad no planeada. El coeficiente de correlación fue 0.895, informando de una fuerte relación. Como los datos tienen ahora más años y la disponibilidad de la industria ha mejorado considerablemente desde aquel tiempo, la constante en la ecuación ya no es acertada o verdadera. Sin embargo, se considera que la pendiente (slope) de la curva permanece cerca del original calculado en un valor de -0.5897 [6]. Esto significa que por cada punto porcentual adicional que aumentamos nuestras salidas programadas (el total planeado, salidas por mantenimiento y derating equivalent) las salidas forzadas y derating equivalent decrecerán en 0.5897 puntos porcentuales.

Maximizar Disponibilidad

Como se puede ver fácilmente, a fin de maximizar disponibilidad usando la ecuación deducida de estos datos, se debería minimizar la cantidad de interrupciones programadas dado que, por cada punto porcentual que se reducen las interrupciones planeadas, se podría esperar un aumento de la disponibilidad de la unidad en 0.4103 puntos porcentuales (1-0.5897) (Obviamente este se aplica sólo dentro de los límites de los datos; fuera de aquellos límites la relación es probablemente no- lineal).

Si maximizar disponibilidad fuera la tarea de una compañía de generación, entonces este modelo o estrategia sería óptimo. Sin embargo, no se esta simplemente encargados de maximizar la disponibilidad, sino mas bien de minimizar los costos de producir y distribuir energia para satisfacer la demanda de los clientes (o maximizar la ganancia de la compañia en caso de sistemas desregulados). Aunque maximizar disponibilidad ha usualmente sido considerado sinónimo de minimizar costos, el análisis siguiente demuestra que esta aseveración no es necesariamente válida.

Minimizar Costos

Ha sido siempre reconocido que una hora o día o un porcentaje de salida programada es normalmente mucho menos costoso (en términos de reeplazar el costo de la energía) que una hora o día o porcentaje de estos de salida forzada, ya que una compañía de generación intenta programar sus interrupciones durante períodos de demanda mínima (o de costos minimos para la empresa- otra forma de verlo es en que lo que se deja de ganar sea minimo). Durante muchos años algunas compañías de generación han estado calculando estos costos por hora, diariamente, semanalmente y estacionalmente. Un análisis de estos costos ha mostrado que para grandes unidades a carbón base-carga la razon"promedio" entre el costo “de salidas forzadas” y el “costo de salidas programadas” varía entre 3.0 y 4.5 (excepcionalmente durante condiciones “ajustadas" entre la oferta y demanda esta razón puede ser mucho más alta y la volatilidad puede ser mucho mayor durante peaks estacionales). También, esta razón de costos para unidades cíclicas y unidades de punta es mucho mayor (al menos uno a dos órdenes de magnitud mayor).

Por lo tanto, cuando se calcula el costo de interrupciones y se usa la razón mas baja para grandes unidades de carbón, osea 3.0 según lo dicho anteriormente, en efecto se cambia la pendiente de la ecuación (en términos monetarios, no porcentuales) en un factor de 3.0 de

13

Page 14: 2012_cONFIABILIDAD_ARTICULOS

modo que ahora: Pendiente(Slope) = 3.0 x -0.5897 =-1.7691

Esto significa que por cada dólar que se "ahorra" reduciendo el mantenimiento programado, se puede esperar “gastar o pagar" un promedio de 1.7691 dólares extra por efecto de interrupciones forzadas incrementadas. Entonces si el objetivo es minimizar el costo total se debería obviamente aumentar la programación y salidas por mantenimiento a efectos de reducir nuestro costo de salidas no programadas, sin tener en cuenta el efecto que podría tener en nuestra disponibilidad.

Nueva Medida

Algunas compañías que han identificado el problema de utilizar el Factor de Disponibilidad Equivalente (EAF) para evaluar el rendimiento de la planta han comenzado a usar el término Disponibilidad Comercial (CA), anteriormente analizado, que intenta enfrentar el tema "ponderando o “pesando" las medidas de disponibilidad tradicionales por algún indicador de costo marginal o costo de mercado. Entre tanto se mantienen estas grandes promesas de medir adecuadamente el verdadero impacto económico de las interrupciones de una planta en el rendimiento financiero (rentabilidad) de la compañía, ninguna definición única ha sido adoptada por la industria y aún hay otras implicaciones que no han sido totalmente resueltas [9]y[10].

Análisis de un caso particular 2

Optimizar Costos de O&M para Maximizar Rentabilidad [11]

A menudo en la proforma de una central eléctrica propuesta, los costos O&M son tratados como un commodity (activo); un número para ser reducido tanto como sea posible. Sin embargo, varias estudios de la industria han mostrado que hay una correlación directa entre un cambio en el gasto de O&M en una central eléctrica dada y el resultante desempeño de aquella planta. El objetivo entonces, sería encontrar el nivel óptimo de gasto O&M que minimice el coste TOTAL ($ diseño + $ O&M + $ desempeño) y que maximice la rentabilidad.

Este proceso es muy difícil porque la relación entre el gasto de O&M y el desempeño de la planta no esta bien determinado o cuantificado. Varios estudios han mostrado que numerosos factores afectan esta relación, extendiéndose hacia atrás por todas partes a las decisiones iniciales de diseño (tecnología, equipamiento, calidad y configuración, tipo de combustible y calidad, etc.) y a través de la construcción, puesta en servicio y operaciones de ciclo de vida y mantenimiento, y decisiones de renovación o reemplazo.

O&M es especialmente importante ya que como se mostrará, como el 75% de una variación en la confiabilidad de la planta es inflluido por la calidad de la O&M, sólo el 25% es inflluido por el diseño o modo de operación. Todos estos factores interrrelacionados y la filosofia de O&M óptimo debe tomar en cuenta todas sus influencias, incluyendo factores “near-term” como ciclo de vida.

14

Page 15: 2012_cONFIABILIDAD_ARTICULOS

Pero, no es suficiente determinar simplemente el mejor plan de O&M una vez que el diseño esta determinado. Debería haber un diálogo activo entre el equipo de diseño y el equipo de O&M para encontrar la mejor combinación que producirá el máxima beneficio para cualquier proyecto en particular.

Antecedentes

La Southern Company es una de las grandes compañias privadas de servicios en los Estados Unidos. Establecido en Atlanta, Georgia, tiene activos por sobre los 25 mil millones de dólares y opera aproximadamente 35.000 MW . En 1993, sus plantas generaron más de 144 billones de kWh de electricidad con un 78 % de plantas de carbón , 17% nuclear, 14 %hidro y 1 % gas y petroleo. Sus unidades de carbón y nucleares tienen una confiabilidad promedio de 96 % (1- Indice de Interrupción Forzado equivalente - EFOR), este valor experimentó un incremento de 19 puntos porcentuales desde 1976 en que era de 77%. (Figura 1a)., Muchos factores se combinaron para conseguir esta importante mejora [12], un aumento significativo en gastos de capital en O&M y mejoras . Muchas de las plantas más viejas experimentaron el mismo patron en distintos grados. Esto es, que al principio se disminuia el gasto en O&M, seguido por un deterioro en la confiabilidad; se disponia entonces el dinero para las mejoras de la planta e invertir en incrementar la confiabilidad, aunque amenudo los gastos se postergaban por años. Esto condujo a analistas de la Compañía en un esfuerzo por intentar cuantificar la relación gastos/confiabilidad de las centrales eléctricas de la Southern Company.

Unidad Beanchmarking “par”

En 1991, el North American Electric Reliability Council (NERC) and Southern Electric Internacional (SEI) (el brazo desregulado de la Southern Company) desarrolló una metodología para determinar según estadísticas las caracteristicas de diseño y operación, mas significativas, para comparar el desempeño de unidades de generación similares [13]

El proceso de la unidad “par” beanchmarking actualmente empleado en NERC/SEI join ventures es el resultado de una evolución de ideas asociadas con el objetivo común de predecir o pronosticar el desempeño de las unidades de generación eléctrica. Los sistemas de planificación de las organizaciones confían en estas predicciones, y la exactitud o la inexactitud de tales proyecciones pueden ahorrar o bien costar millones de dólares en utilidades.

Por años, el método utilizado para hacer estas proyecciones en el Southern electric system fue una especie de “fuzzy trending”, donde los datos históricos y la información acerca de los planes de mantenimiento futuros de la unidad, modificaciones, y nivel de la utilización estan todos considerados en la predicción del desempeño de la unidad en el futuro. En un paper presentado en 1988 en la American Power Conference titulado, "Trends in Generating Unit Performance and the 1990's Power System," la General Electric Company desarrolló una ecuación para predecir la disponibilidad de unidades térmicas basada en la operación histórica y en la estructura o patron de gastos de mantenimiento. Este paper nos condujo a preguntarnos si una metodología con una base matemática estadística podría producir resultados más exactos que el método “fuzzy trending” usado en el pasado. La

15

Page 16: 2012_cONFIABILIDAD_ARTICULOS

ecuación fue aplicada a datos a nivel de sistema del Southern electric systemcon buenos resultados; sin embargo, los resultados eran erráticos cuando la ecuación fue aplicada a datos a nivel de unidades. En un esfuerzo para conseguir datos mas adecuados a nivel de unidades, el siguiente paso fue desarrollar una nueva ecuación usando análisis de regresión y datos de 85 unidades termicas del Southern electric system (25,000 MW). Más que asumir desde el comienzo que los factores principales que afectan la disponibilidad de la unidad eran ya conocidos, el proceso que fue desarrollado evaluaba el desempeño de la unidad (EFOR) relativo a numerosas características de diseño y de operación a fin de determinar los factores más importantes. La ecuación de regresión que resulta incluyó algunos años recientes y variables operacionales anteriores (EFOR, factor de servicio, y factor de interrupciones planeadas), algunas características de diseño (tipo de combustible, fabricante de la caldera, y fabricante de la turbina), y históricos desembolsos de O&M. Una comparación de la exactitud de las proyecciones hechas con el nuevo modelo matemático versus el viejo método fuzzy trending mostró que el modelo matemático fue superior. Aproximadamente el 80 % de las proyecciones del viejo método fueron altas, mientras que las proyecciones con el nuevo método fueron más cercanas a valores reales tanto con estimaciones bajas como altas. Fue alentador que aun en sus inicios, el modelo matemático apareció superior al método previamente usado. (Fig. b y c)

Hasta este punto, la metodología resultó en una gran ecuación que se aplicó a todas las unidades incluidas en la base de datos. Adicionalmente, el método usado para incorporar variables nominales en el análisis de regresión, como tipo de combustible, fabricante de la caldera y fabricante de la turbina fue un proceso engorroso. Fue decidido que el mismo, o aún mejor, los resultados podrían ser logrados subagrupando los datos por variables nominales importantes y aplicando el análisis de regresión a nivel de subgrupo. Este es el punto en cual la primera generación de unidades benchmarking pares se desarrolla. NERC y SEI firmaron un joint ventur para dar servicio a clientes en benchmarking de desempeño de sus unidades versus el de las unidades “par”. Los grupos “pares” para las unidades del cliente fueron desarrollados usando el análisis estadístico para determinar la característica que tenia el mayor impacto en el desempeño de la unidad, y dividiendo la base de datos en subgrupos basados en esta característica. El proceso fue seguido a niveles de subgrupo, con una división tras otra, hasta que ninguna característica restante fuera significativa para aquella division, o hasta que el número de unidades de par en la division cayera a un nivel mínimo aceptable. El resultado divide las 1213 unidades térmicas de la industria en 19 grupos de “unidades par” generales, con las características más significativas que son criticas, vintage, modo de operación, tamaño, tipo de diseño, tipo de combustible y el fabricante de caldera (Fig d). El diseño y los datos operacionales de las unidades de clientes fueron usados para localizar cada una de las unidades de clientes dentro de los 19 grupos de par, y fueron proporcionadas distribuciones mostrando el desempeño de las unidades del cliente con relación a aquel de sus pares.

Nuevas Perspectivas

Cuando los resultados de los estudios anterior de benchmarking fueron examinados en profundidad, nuevas relaciones fueron reveladas. Cuando los mejores exponentes (EFOR) en cada grupo par (10º percentil ) fueron comparados uno a otro, la función densidad de probabilidad resultante tenía una anchura relativamente estrecha ( Fig e) en otras palabras,

16

Page 17: 2012_cONFIABILIDAD_ARTICULOS

la diferencia entre el mejor exponente en el mejor grupo par tenía un EFOR de sólo 5 puntos porcentuales más abajo que el mejor exponente en el peor grupo par (la selección del grupo par esta basada sólo en parámetros de diseño o modo de operación).

Si ahora comparamos a los exponentes más pobres uno a otro (90º percentil) en cada grupo par, conseguimos la función de densidad de probabilidad mostrada en la Fig f. Finalmente, cuando sacamos el mejor exponente EFOR del peor exponente EFOR en cada grupo, podemos ver el rango o la variabilidad entre el mejor y el peor (Fig g). De esta curva, se puede ver que la diferencia entre los mejores exponentes y los peores con los mismos factores estadisticamente significativos de diseño/modo de operación es de aproximadamente 20 %. Por lo tanto, la percepción de los analístas es que sólo entre el 20 y 25% de la variación en la confiabilidad de unidades generadoras, en general puede ser explicado debido a diferencias en el diseño o modo de operación. El 75-80% restante de la variación es debido a otros factores. Se estima que la mayoría de aquel impacto es debido a la calidad de los programas de Operación y Mantenimiento de las unidades (entrenamiento, procedimientos, staffing lavels, herramientas, equipo, datos, etc.) así como los gastos de O&M.

La relación entre parámetros de diseño, operación, y calidad de O&M debe ser bien entendida a fin de determinar la mejor combinación que conducirá al costo más bajo del producto. Las figuras h e i muestran como esta interrelación afecta el costo total y la rentabilidad de las plantas.

17

Page 18: 2012_cONFIABILIDAD_ARTICULOS

(d)

18

Page 19: 2012_cONFIABILIDAD_ARTICULOS

(h)

19

Page 20: 2012_cONFIABILIDAD_ARTICULOS

(i)

Figura 4.5: Southern Company SystemFossil – Fired Units Reliability .

(a) (b)

20

Page 21: 2012_cONFIABILIDAD_ARTICULOS

(c) (e)

(f) (g)

Figura 4.6: Southern Company SystemFossil – Fired Units Reliability .

21

Page 22: 2012_cONFIABILIDAD_ARTICULOS

Capturando la cantidad correcta de datosComentar

Ver commentarios

Imprimir

Uno de los desafíos clave que enfrentan los gerentes de mantenimiento y confiabilidad es

determinar el nivel apropiado de tecnología de de monitoreo de condición para los activos de la

planta que se encuentran en el medio del espectro, desde el punto de vista de la criticidad en

general.

La mayoría de los activos de la planta, por lo general maquinaria de bajos caballos y menos

critica, comúnmente se monitorean con tecnologías predictivas portátiles.

Del mismo modo, es una decisión fácil para seleccionar soluciones de monitoreo de condición en-

línea para el equipo de gran caballaje que son altamente críticos para la operación de la planta.

El dilema, a menudo, es determinar el nivel adecuado de monitoreo de condición de los activos

que se encuentran en algún lugar entre estas dos clasificaciones.

Por lo general, el ranking de criticidad se utiliza como un criterio en el desarrollo y aplicación de

programas preventivos y de predicción en una población amplia de los activos. Los factores

ambientales y de seguridad solos a menudo proporcionan la justificación necesaria para una

solución de monitoreo de condición en particular. Sin embargo, cuando la seguridad y las

consideraciones ambientales no son una preocupación abrumadora, un verdadero análisis de

costo/beneficio puede ser útil para apoyar el argumento empresarial para la correcta tecnología

del monitoreo de condición para los activos que quedan en el medio del espectro de la criticidad.

Este artículo demostrara los métodos basados en el Análisis de Modo de Falla y Efectos FMEA,

por sus siglas en inglés) para el análisis de costo/beneficio de las soluciones de monitoreo de

condición para activos y grupos específicos de equipos similares que entran en esta categoría.

Estos métodos, especialmente cuando se realiza en conjunto con análisis de RCM, ayudan a

responder preguntas clave acerca de si o no una propuesta de solución de monitoreo de

condición es técnicamente factible y vale la pena.

El Espectro de Criticalidad

Prácticamente todas las operaciones industriales se basan en los equipos considerados

fundamentales para sus procesos. Algunas de estas operaciones involucran maquinaria de gran

potencia y activos fijos que tienen un impacto significativo en la producción de la planta, y

representan altos costos de reparación o consideraciones de seguridad, en el caso de un fracaso.

Para estos activos, el monitoreo continuo del comportamiento de los equipos y los indicadores

del estado con transductores fijos y los sistemas de protección en-línea se han considerado las

mejores prácticas durante décadas. Con un canal dedicado de monitoreo para cada transductor,

los sistemas continuos no solo proporcionan funciones de protección, sino permitir un análisis

profundo de los parámetros medidos y las capacidades de diagnóstico. Las recomendaciones del

Fabricante Original de los equipos (OEM, por sus siglas en ingles), las mejores prácticas del

22

Page 23: 2012_cONFIABILIDAD_ARTICULOS

usuario final, las directrices del asegurador industrial, y las normas como API 670 han servido

para reforzar estas aplicaciones como práctica estándar para los activos críticos. Además del

monitoreo continuo en-línea, las mejores prácticas para los activos críticos también incorporan

técnicas periódicas fuera-de-línea, tales como técnicas de análisis del aceite lubricante,

termografía infrarroja, análisis de la corriente del motor, y otros.

Hacia el otro extremo del espectro de la criticidad, pero todavía por encima del umbral en el que

la estrategia de que “trabaje hasta la falla” (“run to failure”) podría ser considerada, los grupos

colectivos de maquinaria de uso general de caballaje más pequeño y los activos fijos se suelen

manejar con programas que aplican estas tecnologías predictivas “portátiles” como la estrategia

principal. Sobre una base periódica, los datos son recolectados y analizados con la ayuda de los

recolectores de datos portátiles de vibraciones, cámaras de termografía infrarroja, muestreo del

aceite lubricante y análisis, equipos de detección de ultrasonidos y otras técnicas que

proporcionan las indicaciones de la condición de los activos a un costo relativamente bajo por

cada punto cuando se aplica a través de una base de activos de tamaño regular. Los datos de la

evaluación competitiva de una variedad de industrias dan prueba de que los programas de

mantenimiento predictivo, cuando estén diseñados e integrados con las operaciones y

actividades de mantenimiento, paga dividendos importantes y recurrentes1. Una de las razones

principales para esto es que el mantenimiento realizado según las indicaciones del estado de la

máquina suele ser más eficaz y eficiente que el mantenimiento que se basa exclusivamente en

las estrategias reactivas o basadas en el tiempo.

La necesidad de Métodos Basados en FMEA de justificación de Costos

Para los bienes de equipo que se sitúan entre estas dos clasificaciones, el nivel adecuado de

monitoreo de condición puede no ser una alternativa tan clara. Una buena pregunta a la hora de

evaluar una posible solución es “¿cuál es el rendimiento esperado de la inversión y el período de

recuperación? La siguiente discusión sobre los métodos basados en FMEA se ofrece para ayudar

a responder esta pregunta.

La mayoría de los programas de mantenimiento y confiabilidad exitosos han desarrollado una

clasificación de la criticidad global para todos los activos en sus instalaciones. Factores típicos

utilizados en la determinación de la criticidad del impacto potencial que podrían llevar a un

fracaso:

Seguridad

Ambiental

Producción

Costos

Calidad del Producto

Lo que generalmente resulta de este ejercicio es una lista de los activos clasificados en términos

de criticidad relativa usando una escala arbitraria como 0 a 10, A/B/C, u otro régimen

alfanumérico. Estas clasificaciones se utilizan normalmente para dar prioridad a la dirección de

23

Page 24: 2012_cONFIABILIDAD_ARTICULOS

recursos limitados de la administración de activos (tanto de personas como de tecnología), a

donde tendrán el mayor impacto. Aunque estas clasificaciones pueden incorporar puntuación

numérica y pueden ser más o menos vinculados a las cantidades reales, como el coste, son en

su mayor parte cualitativas, es decir, los números se determinan con base en la interpretación

subjetiva de las características relativas a los criterios de clasificación establecidos. Esto es

totalmente apropiado cuando la tarea es determinar la criticidad relativa de varios miles de

piezas individuales del equipo de la manera más eficiente posible.

Los resultados de criticidad desarrollados de esta manera, sin embargo, normalmente carecen

de detalles precisos y fiables que puedan apoyar de forma cuantitativa o “absoluta” la

determinación de riesgo en términos de probabilidad de un suceso real y la gravedad en

términos financieros. Un análisis más científico que determina el riesgo financiero anualizado o el

costo probabilístico, es útil para aquellos casos en donde los análisis de costo-beneficio son

necesarios para evaluar la viabilidad de las posibles soluciones.

La necesidad del análisis de coste/beneficio es también una parte importante del proceso de la

toma de decisiones del análisis del Mantenimiento Centrado en Confiabilidad. Medidas

proactivas, incluida la aplicación de monitoreo de condiciones, ha de ser “técnicamente viable” y

que “valga la pena de hacer” 2. La solución debe ser eficaz en la reducción de riesgos y costes a

un nivel adecuado, y capaz de generar beneficios que superan a los costos para su aplicación.

Mediante la aplicación de conceptos de FMEA para ayudarnos a medir el grado de mitigación del

riesgo que puede lograrse por una solución posible, y utilizando los resultados en la ecuación

costo/beneficio, podemos responder a estas preguntas con mucho más seguridad.

La cuantificación de los costos y el riesgo

El resto de este artículo examinará la forma de expresar el riesgo de tipo probabilístico,

determinar el nivel de reducción del riesgo de que se puede lograr mediante la aplicación de

soluciones de monitoreo de condición, y pesar estos beneficios contra los costes de

implementación de solución en una forma verdadera de un análisis de costo/beneficio en valor

presente neto.

Los costos y riesgos que representa un activo para un negocio, en términos financieros, se

pueden derivar con varios métodos distintos:

Método A – Datos Históricos

Si los datos históricos están disponibles en un Sistema de Administración de Mantenimiento

(CMMS por sus siglas en inglés) que tenga suficiente granularidad para vincular la producción

perdida y los costes de mantenimiento de los modos de falla específicos, entonces la

determinación de costos de probabilidad puede ser simplemente una extrapolación de la historia

coste real de un activo específico de una conjunto de datos, como se muestra en la Figura 1.

24

Page 25: 2012_cONFIABILIDAD_ARTICULOS

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Los Costos de la tabla pueden ser fácilmente ordenados por tipo de falla y convertirse en valores

equivalentes de costo anual que puede ser utilizado en un análisis de costo/beneficio en valor

presente neto de posibles soluciones.

Método B – Estadísticas de Confiabilidad Publicadas

Cuando el historial de costes no está disponible porque un registro exacto no se han cumplido o

tal vez la planta todavía no está en operación, el riesgo anual, en términos financieros, todavía

se puede estimar a partir de estadísticas de confiabilidad elaboradas por una variedad de grupos

de usuarios de la industria y disponible en un número de fuentes publicadas. El riesgo se define

como sigue:

Riesgo = Probabilidad x Severidad

Donde:

Probabilidad = la probabilidad estadística de que ocurra el evento

Severidad = consecuencias del evento si llega a ocurrir

La probabilidad es un valor de porcentaje que representa la probabilidad estadística de que

ocurra un evento dentro de un tiempo de misión definido. Esto puede ser calculado a partir de la

fórmula:

Probabilidad = 1 – e-(t/MTBF)

Donde:

25

Page 26: 2012_cONFIABILIDAD_ARTICULOS

MTBF = Tiempo Medio Entre Fallas

t = tiempo de misión

Para simplificar, en la fórmula anterior, estamos asumiendo una distribución aleatoria de fallas

es decir, las fallas no dependen del tiempo-de-operación. Sin embargo, para los modos de fallo

que son fuertemente dependientes del tiempo, como la mortalidad prematura o el desgaste, los

parámetros de Weibull y Eta Beta se deben utilizar en la función exponencial como se muestra a

continuación para dar mayor precisión de cálculo de probabilidad de falla por un tiempo de

misión determinado:

Probabilidad = 1 - e-(t/η)β

Donde η = vida característica

β = parámetro de forma

Como los valores para los parámetros de confiabilidad pueden variar ampliamente, algunas

bases de datos de confiabilidad publicadas presentan parámetros de MTBF y Weibull, como

valores de porcentajes superiores e inferiores así como valores medios. Los valores superiores e

inferiores suelen representar el 5% y el 95% de puntos porcentuales dentro del rango de valores

de la base de datos. Dado que el 90% de los valores de las base de datos se encuentran entre

esos dos límites, los cálculos de confiabilidad que utilizan tanto los límites superiores como los

inferiores producirá un rango de probabilidad correspondiente a un intervalo de confianza del

90% o 90% de certeza.

El factor de Severidad que se utiliza en la definición de riesgos, se puede expresar en unidades

financieras. Esta es la severidad o el coste esperado para el negocio en la pérdida de producción,

mano de obra, gastos de reparación, multas o penas, y la pérdida de calidad de los productos

que se producirán si se produce un fallo detectado. Si el tiempo de la misión utilizado en el

cálculo de probabilidad es de un año, y luego multiplicar Severidad X Probabilidad se obtiene la

probabilidad de gravedad del riesgo o el coste anual de probabilidad anual que representa para

la empresa por ese activo o grupo de activos.

Cuando la cuantificación de los costes y riesgos asociados con un activo o un grupo de activos, lo

mejor es mirar a los modos de falla dominante de forma independiente. Esto es porque cada

modo de fallo tendrá su propia probabilidad asociada y su severidad. El ejemplo de la Figura 2 se

obtuvo a partir del análisis de cuatro conjuntos de motores de impulsión de bombas que tenían

un nivel intermedio de impacto en la producción de la planta. La Probabilidad de fallo en

cualquier año dado (tiempo de misión = horas de funcionamiento necesarios en 1 año) se

calcularon de forma independiente para una breve lista de los modos de fallo dominantes

utilizando estadísticas de MTBF calculadas por varias fuentes. Las estadísticas del Tiempo Medio

de Reparación (MTTR por sus siglas en ingles) se utilizaron para estimar la pérdida de producción

y las horas de trabajo de reparación. Multiplicando los valores de probabilidad por la suma de los

costes previstos para la pérdida de producción, mano de obra, y las partes asociadas con una

posible falla de los rendimientos de los costes conlleva a la probabilidad de costos, o a la

exposición anual, que estos activos representan para la empresa.

26

Page 27: 2012_cONFIABILIDAD_ARTICULOS

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Tenga en cuenta que varias hipótesis se utilizaron en este ejemplo para mantener los cálculos

relativamente simples. En primer lugar, la distribución de los fallos aleatorios (parámetro de

Weibull Beta = 1) fue considerado, es decir, la probabilidad de fracaso no depende del tiempo y

es básicamente la misma año tras año. Este no será el caso concreto de los modos de falla que

presentan fuerte mortalidad prematura o características de desgaste. Además, los valores

medios de MTBF se utilizaron, los valores superiores e inferiores límite que representan el 5% y

95% también podrían haber sido utilizados, en su caso, llevando a la obtención de una serie de

riesgos anuales que representa el intervalo de confianza del 90%. Las consideraciones

financieras debido a la seguridad y el medio ambiente podrían haberse incluido, pero no se

aplicaron en este ejemplo.

Método C – Información del Equipo

Cuando el historial de costos o las estadísticas de confiabilidad no están disponibles, otro método

puede ser empleado que utiliza la aportación colectiva de los miembros del equipo basándose en

su experiencia para identificar los modos de fallo dominante y determinar los costes esperados

asociados con ellos. El rango de costo se determina para las tres categorías de fallas tales como

“menores”, “moderada” y “severa” en términos de pérdida de producción, piezas y mano de

obra. Los Modos de falla se clasifican por equipo en términos de ocurrencia, a continuación, las

tres clasificaciones de los costos se asignan a cada modo de fallo con coeficientes determinados

por el equipo. Se completa el ejercicio de matemáticas al multiplicar los valores y factores de

ponderación se obtiene un costo anual para cada uno de los modos de falla identificados que

reflejan los datos aportados por el equipo colectivo.3

27

Page 28: 2012_cONFIABILIDAD_ARTICULOS

Una variante de este método, que también se basa en la experiencia colectiva y las aportaciones

de los miembros del equipo puede ser usado para estimar el tiempo de reparación. Tres rangos

de tiempo están determinados por el equipo, y las probabilidades se asignan a cada intervalo de

tiempo para cada modo de falla.4

Desarrollando Factores de Mejora

Ahora que los costos y riesgos de los modos de falla dominante se han determinado y

expresados en valores anuales, el siguiente paso es estimar con la mayor precisión posible el

nivel de mejora que se puede esperar sobre la base de la capacidad de las soluciones

recomendadas para reducir los riesgos. El concepto del Número de Prioridad de Riesgo (RPN, por

sus siglas en ingles) es de uso común en FMEA y puede ser empleado en un análisis de

antes/después para determinar un factor de mejora para cada modo de falla analizado.

RPN = factor de Ocurrencia x factor de Severidad x factor de Detectabilidad

Donde:

- factor de Ocurrencia describe la frecuencia relativa o la probabilidad de un evento,

esencialmente relacionados con el MTBF

- factor de Severidad describe la severidad relativa de los eventos

- factor de Detectabilidad describe la capacidad relativa para detectar el evento de antemano

El cálculo RPN es similar a la expresión de riesgo descrito anteriormente, con excepción del

tercer factor de Detectabilidad que es utilizado como un modificador. El factor de Detectabilidad

es un indicador de lo bien que podemos detectar el evento con antelación y reducir las

consecuencias a través de una acción oportuna. Esto hace el uso del factor de Severidad más

28

Page 29: 2012_cONFIABILIDAD_ARTICULOS

directo, clasificándolo basado en las consecuencias de un evento que pudiera pasar sin ser

detectados.

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Una escala de clasificación genérica de 1 a 10 se utiliza comúnmente para cada uno de los tres

factores de RPN con 10 siendo el riesgo más alto, pero la ampliación puede ser personalizada

para satisfacer las necesidades específicas de la organización o un análisis particular. La escala

de clasificación utilizada debe ser cotejada con las cantidades físicas reales cuando sea posible,

como se muestra en la Figura 3. Una nota importante en este momento es que los factores de

mejora son una proporción sin dimensión calculado dividiendo el riesgo inicial o valor de RPN por

el valor final o esperado de RPN para un tipo de falla en particular. Para seguir siendo válida, el

cálculo requiere que los criterios de clasificación se aplicarán de manera uniforme en todo el

análisis. Además, la escala de clasificación debe ser diseñada de forma que un cambio

proporcional en uno de los factores RPN equivalga a la misma variación proporcional en una

cantidad física, como los costes (Severidad), tasa de fracaso (Ocurrencia), o el porcentaje de

fracasos que no son detectadas (Detectabilidad).

29

Page 30: 2012_cONFIABILIDAD_ARTICULOS

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

Los pasos siguientes describen el proceso para determinar factores de mejora y completar el

análisis:

1) Determinar el RPN Inicial

El RPN inicial debe ser calculado observando los modos de falla dominantes para el

sistema/activo en cuestión. Para los cuatro conjuntos de bomba revisados en la figura 4, se

desarrollaron los FMEA abreviada y unos valores iniciales RPN basados en los modos de fallo

dominante. Los valores iniciales RPN mostrados se basan en las consecuencias, la frecuencia y la

detectabilidad de falla basados en el mantenimiento que se aplica actualmente y la estrategia de

confiabilidad de estas máquinas.

2) Calcular los RPN revisados

En el ejemplo de los cuatro grupos de bombas, los valores de RPN revisados se calcularon sobre

la base de los beneficios de la aplicación de un escaneo de una condición de monitoreo en línea.

Esta tecnología aprovecha la instalación permanente de transductores de bajo costo y procesa

entradas variables conectadas a un sistema anfitrión a través de una arquitectura de red

distribuida con capacidad inalámbrica. El sistema circula automáticamente a través de la

arquitectura de punto, recolectando datos a intervalos de tiempo lo suficientemente corto como

para ser considerado “casi continuo” en la mayoría de los casos. Aplicado a una variedad de

maquinaria de rotación y fija, la tecnología de escaneo representa una solución menos costosa

donde se requiere un seguimiento permanente y aporta muchos beneficios normalmente

asociados con los sistemas continuos en-línea:

Detección temprana de fallas potenciales

Repetibilidad de datos

30

Page 31: 2012_cONFIABILIDAD_ARTICULOS

Monitoreo en tiempo real de la condición y de los parámetros del proceso por los

Operadores

Toma de muestras automatizada segura de datos de puntos de medición peligrosos o de

difícil acceso

Capacidad de diagnostico profundo

Cada uno de los factores que componen el cálculo de RPN fue re-clasificados para cada modo de

falla basado en la mejora de la situación. Como se muestra en la tabla en la figura 5, la reducción

más pronunciada en RPN se puede ver en los factores de detectabilidad para fallas de cojinetes y

sellos. También note una mejora gradual en el factor de Ocurrencia, así como para estos mismos

modos de fallo dominante.

Severidad - Como se muestra en la Figura 5, el factor de Severidad permanece sin cambios.

Tenga en cuenta que el factor de Severidad, tal como se aplica aquí, es una clasificación de las

consecuencias relativas de falla si permanece sin ser detectada. La capacidad para reducir el

riesgo general a través de la detección temprana es plenamente representada por el factor de

detectabilidad. Algunos ejemplos de acciones que pueden mejorar el factor de Severidad,

aunque no considerados en este modelo en particular, es el de agregar redundancia de equipos

para minimizar el impacto sobre las operaciones y la optimización de planes de reparación y

procedimientos para minimizar el costo y la duración de tiempo de inactividad forzado.

Ocurrencia - Este ejemplo también muestra cómo los beneficios de la tecnología del escaneo

del monitoreo de condición en-línea no se limita a la detectabilidad. Mejoras incrementales en los

factores de Ocurrencia de estas mismas fallas dominantes se muestran en la Figura 5. El factor

de Ocurrencia está directamente relacionado con MTBF. Hay una serie de factores que

repercuten MTBF, incluyendo el diseño de los activos, servicios y prácticas de mantenimiento.

Una buena alineación, balanceo, y las prácticas de lubricación en general, contribuyen al MTBF

extendido.

Las Prácticas del operador también pueden impactar dramáticamente en MTBF. El

funcionamiento de una máquina en una carga o un régimen de velocidad en detrimento del

estado de la máquina acortaran su vida - algo que normalmente ocurre cuando los operadores

no pueden ver en “tiempo real” cómo sus acciones afectan el comportamiento de la máquina.

Esto es especialmente cierto con los conjuntos de bombas, donde los operadores pueden

ejecutar inadvertidamente una bomba mas allá de su punto de diseño y, sin saberlo, inducir a la

cavitación que acelerará al impulsor, cojinetes, y desgaste del sello (como en el ejemplo de la

bomba mostrado en la Figura 5). La tecnología del escaneo en-línea del monitoreo de condición,

permite una observación en tiempo cuasi-real, permitiendo a los operadores ver los resultados

de sus acciones y aprender a manejar sus activos de manera más segura y saludable. Al igual

que la mejora del balanceo, la alineación y las prácticas de lubricación hacen, el mejorar las

prácticas de Operaciones extienden la vida de la maquinaria, lo que resulta en un cambio

positivo en MTBF con en el tiempo.

31

Page 32: 2012_cONFIABILIDAD_ARTICULOS

Otra ventaja de permitir a los operadores que puedan observar el comportamiento de la

maquinaria en tiempo real, es evidente cuando una máquina arranca después de una revisión.

Los Operadores reciben notificación casi instantánea de la nueva “referencia” de condición de

esa máquina tan pronto como se presione el botón de arranque. En el caso de un problema con

la alineación, balanceo, o problemas generados por el montaje incorrecto de la maquina, los

operadores de inmediato sabrán que hay un problema. Sin tener que confiar en el equipo de

mantenimiento predictivo para tomar datos sobre arranque de máquinas, los operadores pueden

empezar a adoptar medidas para evitar poner horas de operación en una máquina problemática

y que la situación sea corregida rápidamente. El resultado final es que las máquinas estarán

operando con menos fallas de funcionamiento, aumentando aún más MTBF de la población a

través del tiempo. Esto es mucho mejor que la alternativa de operar una máquina con un mal

funcionamiento, como la alineación o un problema de acoplamiento de montaje, que conducirá a

un fracaso prematuro.

Detectabilidad - Este ejemplo también muestra que cuando los riesgos asociados a los modos

de falla del activo demanda un monitoreo más profundo del que puede ofrecer un programa

típico de recolector de datos portátil, la tecnología del escaneo del monitoreo de condición en-

línea ofrece varias ventajas:

Recolección de datos Cuasi-continua

Repetibilidad de Datos

Correlación de datos y capacidad de diagnóstico a profundidad

Un breve análisis del intervalo de P-F es útil para entender estos beneficios y el nivel de mejora

que se puede lograr con la tecnología de monitoreo de condición en-línea. El intervalo P-F suele

interpretarse como el tiempo (u otra unidad de medida tal como horas de operación) de cuando

una posible falla (P) se puede detectar primero a cuando una falla funcional real (F) occure5.

32

Page 33: 2012_cONFIABILIDAD_ARTICULOS

Como se muestra en la Figura 7, la regla de oro para el muestreo de datos periódico es que no

debe ser mayor que la mitad del intervalo de P-F. El peor caso deja tiempo para el muestreo de

datos periódico de esta manera no sería mayor que la mitad del intervalo P-F. El plazo medio

sería aproximadamente ¾ del intervalo P-F.

El Error en la comprensión del intervalo de P-F y la variabilidad natural debido a circunstancias

fuera del control del analista/recolector de datos hace que este enfoque sea una ciencia

imperfecta. Para la mayoría de las aplicaciones de maquinaria de uso general, alguna perdida

puede ser aceptable. Sin embargo, cuando las fallas no detectadas son demasiado costosas e

inaceptables para el negocio, los beneficios proporcionados por la tecnología en-línea es mucho

más visible. La Vibración y los datos variables del proceso se muestran casi continuamente con

esta tecnología, por lo que la detección de las fallas potenciales será casi siempre en el punto

“P”. Todo lo demás es igual, esto representa una mejora del 33% en el tiempo de espera

promedio contra el muestreo de datos portátil de programas de caminatas de reconocimiento

(ver Figura 8). Esto también elimina la preocupación sobre que tan bien el intervalo P-F fue

estimado en primer lugar y la desviación de tiempo de falla real del intervalo estimado. Otra

consideración importante es que los transductores fijos utilizados por la tecnología del escaneo

en-línea también ofrece datos muy precisos y constantes para propósitos de tendencias. Esto

elimina datos “anómalos” que resultan de la lectura altamente variable de los aparatos

portátiles, mejorando entonces la detectabilidad.

33

Page 34: 2012_cONFIABILIDAD_ARTICULOS

En este ejemplo, en comparación con una estrategia periódica de recolección de datos o en una

máquina totalmente sin monitoreo, la suma total de los beneficios proporcionados por la

tecnología del escaneo de monitoreo de condición en-línea en gran medida disminuye el factor

de detectabilidad en el cálculo RPN.

El factor de detectabilidad inicial (y los otros dos también) debe basarse en el escenario de

“referencia” deseado con el fin de hacer comparaciones. Por ejemplo, la detectabilidad inicial

puede basarse en una máquina no monitoreada. O podría ser sobre la base de una máquina ya

cubierta por un programa de muestreo de datos periódicos, por lo tanto, este enfoque daría

directamente el análisis coste-beneficio de la solución del escaneo en-línea sobre el programa

periódico actual para esa máquina.

3) Calcular los Factores de Mejora

Los Factores de Mejora se calculan como sigue para cada modo de fallo dominante (vea la Figura

5):

Factor de Mejora =

RPNinicial/RPNrevisado

El factor de mejora es una cantidad adimensional. Como se dijo antes, las escalas de

clasificación utilizada para el cálculo de RPN debe aplicarse de manera consistente durante todo

el análisis para que resulte en Factores de Mejora válidos. Las escalas de clasificación deben ser

lineales, significando un cambio proporcional en cualquiera de los factores RPN debe

corresponder a un cambio correspondiente equivalente a una métrica cuantitativa (por ejemplo,

una reducción en el factor de Ocurrencia 8-4 corresponde a una reducción del 50% en la tasa de

fracaso, o una mejora de 2X de MTBF mirando a la inversa).

4) Ahorros Derivados del Costo Anualizado y reducción de riesgos

Ya que los factores de mejora se calculan individualmente para cada uno de los modos de falla

dominante, pueden ser aplicados al perfil de costo/riesgo desarrollado previamente para cada

modo de fallo. El costo original o el valor de riesgo anual se divide por el factor de mejora para

calcular un nuevo costo o valor de riesgo que representa el costo probabilístico nuevo. La

diferencia entre el valor de costo/riesgo original y el nuevo valor de costo/riesgo representa el

ahorro anual o la reducción del riesgo que se puede esperar por la aplicación de la solución

propuesta (véase la Figura 9).

5) Desarrollar el análisis del Valor Presente Neto

Ahora que el estimado de la reducción de ahorros/riesgo anual se han calculado, la comparación

del coste de aplicación de la solución con beneficios estimados se puede realizar en un análisis

de Valor Presente Neto (NPV, por sus siglas en inglés). Este es un cálculo sencillo que da valor

actual neto, tasa de rendimiento, y el periodo de recuperación, teniendo en cuenta el valor

temporal del dinero (costo de capital).

34

Page 35: 2012_cONFIABILIDAD_ARTICULOS

El costo de la aplicación de la solución debe basarse en el suministro de una solución que

coincida con el nivel de costo/riesgo y la reducción utilizada en RPN y los cálculos del Factor de

Mejora. En otras palabras, la solución debe centrarse en los modos de falla dominantes

determinados y reducir los costos y riesgos, modelado en el FMEA. Una solución de bajo precio,

que no aborda adecuadamente los modos de falla dominante tendrá una recuperación pobre. Del

mismo modo, una solución de alto precio que ofrece, a un costo adicional, más características y

funciones que no afectan los factores de RPN también pueden tener resultados más pobres de

recuperación. La justificación de costo basada en métodos de FMEA descritos en este artículo

permite el análisis “que pasaría si” y la capacidad de hacer comparaciones para determinar el

nivel de la solución que proporciona rendimiento óptimo de la inversión.

El diagrama de flujo de efectivo en la Figura 10 es un ejemplo de parte de la producción de un

análisis NPV. El diagrama muestra un período de amortización de 1.7 años, basado en el costo

anualizado de reducción de riesgos de aproximadamente 20.000 dólares y una inversión inicial

de alrededor de 30.000 dólares para implementar la solución.

Conclusion

Los métodos de análisis costo/beneficio basados en FMEA descritos en este artículo ayudan a

articular la justificación financiera, cuando existe, para implementar las soluciones de monitoreo

de condición para reducir costes y mitigar los riesgos. Como se pide en el proceso de toma de

decisiones del análisis de RCM, la adopción de medidas proactivas, tales como soluciones de

monitoreo de condición deben ser tanto técnicamente viables como que valgan la pena. Al mirar

el costo inicial y el riesgo asociado con los modos de falla dominante, y abordar la cuestión de

los costos y la reducción del riesgo que se puede lograr por la tecnología, un análisis válido de

costo/beneficio puede ser realizado que ayuda a responder preguntas acerca de la efectividad de

la solución y el valor, y hacerlo en las unidades financieras que se utilizan habitualmente para

evaluar proyectos competitivos.

El ejemplo utilizado en este artículo también trae a la luz muchos de los beneficios de la

tecnología del escaneo del monitoreo de condición en-línea. Esto incluye la Detectabilidad

mejorada sobre los programas de rondines de inspección donde un monitoreo del estado de la

maquinaria necesita ser más profundo del que puede proporcionar un programa periódico de

muestreo de datos periódicos. El ejemplo utilizado mejora la Ocurrencia (reducida), basándose

en que los operadores puedan mejorar las prácticas de Operación y prolongar la vida de la

maquinaria, dándoles tiempo real de los indicadores de comportamiento de la máquina y la

condición.

Para reflexionar: Los métodos de justificación de costos basados en FMEA descritos en este

artículo pueden ser extendidos y ampliados para evaluar otras soluciones, independientemente

de si están basados en la tecnología, mejores prácticas, o combinaciones de ambos.

Rob Bloomquist tiene más de 20 años de experiencia en la entrega de soluciones de

confiabilidad y cuidado de activos para las industrias de la generación de energía y de procesos,

y actualmente es Gerente de Capacitación de Servicios de confiabilidad para GE Energy. Su

35

Page 36: 2012_cONFIABILIDAD_ARTICULOS

experiencia incluye la especificación y desarrollo de programas de monitoreo de condición, el

desarrollo de soluciones de confiabilidad y ejecución, análisis de vibraciones, alineación y

balanceo de la maquinaria, y la capacitación de los clientes en confiabilidad y monitoreo de

condición. Rob tiene una licenciatura en Ingeniería Mecánica otorgado por la Universidad Estatal

de California, Chico y es un ingeniero profesional en el Estado de Colorado. Rob es un profesional

certificado de mantenimiento y confiabilidad por la organización SMRP.

Referencias:

1. DiStefano, Robert, The Business Case for Reliability

2. Moubray, John, Reliability-centered Maintenance RCM-II, 2nd Edition, Industrial Press,

1997.

3. Troyer, Drew, Demonstrating Financial Benefits from Equipment Reliability Projects,

Process and Power Plant Reliability Conference, Houston, TX, 2001

4. Andrews and Moss, Reliability and Risk Assessment, 2nd Edition, ASME Press

5. op. cit. 2

El Método de Máxima Verosimilitudpor Francisco Poujol Galván, Insituto de Investigaciones Eléctricas

Comentar

Ver commentarios

36

Page 37: 2012_cONFIABILIDAD_ARTICULOS

Imprimir

El método de máxima verosimilitud (MLE) es uno de los más robustos y poderosos de los

métodos modernos para obtener una aproximación de la confiabilidad.

La evaluación por el método de máxima verosimilitud procura encontrar los valores más

probables de los parámetros de la distribución para un conjunto de datos. Maximizando el valor

de lo que se conoce como la “función de verosimilitud” La función de verosimilitud se basa en la

función de la densidad de la probabilidad fdp para una distribución dada. Como ejemplo

considere una fdp genérica:

Donde x representa los datos (tiempo a la falla), y θ1, θ2, ...,θk son los parámetros que se

estimarán y k el número de parámetros a evaluar. Por ejemplo para una distribución de Weibull

de dos parámetros, β beta y θ theta son los parámetros que se deben estimar. Para un conjunto

de datos de observación completa, la función de verosimilitud es un producto de la función de la

densidad de la probabilidad, con un elemento por cada punto en el conjunto de datos:

R es el número de observaciones independientes que corresponden al tiempo a la falla en un

análisis de ciclo de vida, xi es la iésimo tiempo a la falla. Matemáticamente es más fácil

manipular esta función tomando su logaritmo. Luego la función logarítmica de la verosimilitud se

expresa de la siguiente forma:

Por lo tanto para encontrar los valores de los parámetros θ1, θ2, ...,θk se debe maximizar L ó Λ.

Esto comúnmente se hace tomando la derivada parcial de la ecuación de Λ para cada uno de los

parámetros e igualándolos a cero:

37

Page 38: 2012_cONFIABILIDAD_ARTICULOS

Esto resulta en un número de ecuaciones con un igual número de variables, las cuales pueden

resolverse simultáneamente. Si existen las soluciones de forma cerrada para las derivadas

parciales la solución puede ser relativamente simple. En las situaciones donde no se da el caso,

se necesitan emplear algunos métodos numéricos.

El método de estimación de máxima verosimilitud tiene varias propiedades que hacen atractiva

su aplicación. Por ejemplo:

Es consistentemente asintótico, que significa que mientras que el tamaño de muestra aumenta,

las estimaciones convergen a los valores correctos. Es asintótico eficiente, que significa que para

conjuntos de datos grandes produce las estimaciones más exactas. Es asintótico imparcial, que

significa que para conjuntos de datos grandes uno espera conseguir el valor correcto en

promedio. La distribución de las estimaciones mismas es normal, si el conjunto de datos es

bastante grande. Todas éstas son características excelentes para conjuntos de muestras

grandes. Desgraciadamente, el tamaño necesario de la muestra para alcanzar estas

características puede ser bastante grande: treinta a cincuenta hasta cientos de muestras de

tiempos exactos de falla, dependiendo de la aplicación. Con pocas muestras, los métodos

pueden ser desgraciadamente polarizados o tendenciosos. Se han conocido resultados, por

ejemplo, que la estimación por máxima verosimilitud del parámetro de forma para la distribución

Weibull ha sido polarización para tamaños de muestras pequeños, y el efecto puede aumentar

dependiendo de la cantidad de datos censurados. Esta polarización puede causar discrepancias

importantes en el análisis.

En general, la recomendación de la literatura es utilizar técnicas de regresión (gráficas de riesgo

y probabilidad) cuando la muestra de datos es pequeña y sin censura. Cuando hay muchos datos

censurados y/o cuando el tamaño de muestra es suficiente, Máxima verosimilitud (MLE) debe ser

preferido.

Superficie de la función de verosimilitud

La representación tridimensional de la función logarítmica de la verosimilitud para dos

parámetros, los parámetros están en los ejes Y y X, y los valores logarítmicos de la verosimilitud

en el eje Z. En la siguiente gráfica es un ejemplo de la superficie de la función de verosimilitud

para una distribución Weibull de dos parámetros. Los valores del logaritmo de la verosimilitud

están normalizados a un valor de 100 %

38

Page 39: 2012_cONFIABILIDAD_ARTICULOS

En esta gráfica “la cima” de la superficie de la función verosimilitud corresponde a los valores de

los parámetros que maximizan la función de verosimilitud.

Ejemplo de MLE para la Distribución exponencial

Este ejemplo es para una distribución de un solo parámetro y por lo tanto hay una sola ecuación

diferencial a resolver. Además esta ecuación diferencial está en forma cerrada, debido a la

naturaleza misma de la función de la densidad de la probabilidad. La función de verosimilitud

para la distribución exponencial se representa a continuación:

39

Page 40: 2012_cONFIABILIDAD_ARTICULOS

Donde lambda λ es el parámetro a estimar. Tomamos el logaritmo natural de la función de

verosimilitud debido a que matemáticamente es más fácil de manipular tenemos la siguiente

expresión.

Si se deriva la ecuación con respecto a λ e iguala a cero se obtiene como resultado

Reordenando los términos o resolviendo por λ la expresión queda:

Esta es la solución de forma cerrada para la estimación de la máxima verosimilitud para la

distribución exponencial de un solo parámetro. Obviamente, este es el ejemplo más sencillo,

pero sirve para ilustrar el proceso. La metodología es más compleja para distribuciones con

múltiples parámetros o que no tengan una solución cerrada.

Referencias

1. Gupta S., “Order Statistics from the Gamma Distribution”, Technometrics, Vol. pp 243-

262, 1962.

2. Howard, B. T. y G. A. Dodson, “High Stress Aging to Failure of Semiconductor Devices”,

Proceedings of the Seventh National Symposium on Reliability and Quality Control,

1961.

3. B. S. Dhillon, “Design Reliability Fundamentals and Applications”, CRC Press, United

States of America, 1999. TA 174.D4929

4. Schafer Ray E., Singpurwalla Nozer D., Mann R. Nancy, “Methods for Statistical Analysis

of Reliability and Life Data”, John Wiley & Sons.

5. Información general de las distribuciones: Weibull, Exponencial, Normal y Log_normal

www.itl.nist.gov/div898/handbook/.

40

Page 41: 2012_cONFIABILIDAD_ARTICULOS

6. Beckwith, Thomas G., Buck, N. Lewis, Maragoni, Rod D., “Mechanical Measurements”,

Third edition, Addison-Wesley, Reading, Massachusetts, 1981

7. http://www.weibull.com/

El Costo de la Disponibilidadpor Jorge Kalocai, Profertil SA

Comentar

Ver commentarios

Imprimir

Es una práctica común definir, ó al menos acotar, los presupuestos económicos de

mantenimiento en la industria sobre la base de bench marking, por ejemplo tomando en cuenta

el muy conocido cociente entre el costo del mantenimiento y el de reposición del activo.

41

Page 42: 2012_cONFIABILIDAD_ARTICULOS

Sin cuestionar este criterio globalmente aceptado, el objetivo de este trabajo es desarrollar un

enfoque posible para resolver la cuestión: ¿Cuál es el Costo de Mantenimiento asociado al logro

de un determinado objetivo de Factor de Disponibilidad, con una probabilidad de éxito definida?,

en un complejo industrial.

Para comenzar con esto, vamos a homologar previamente algunos sencillos conceptos básicos

de aplicación:

Factor de Disponibilidad (AF): porcentaje de tiempo en que el complejo está apto para

producir (disponible) en relación al total del tiempo calendario evaluado.

Entonces, si:

UT: Tiempo de Indisponibilidad

T: Tiempo Total Evaluado

Tasa de Fallos (λ): Cantidad de Fallos contabilizados en un Tiempo definido. Es una medida

histórica (hecho consumado). Está claro (y se da por descontado) que es conocido el concepto de

fallo en relación a la función definida, con sus parámetros de aceptación, conforme a la filosofía

del RCM. Se menciona asimismo que también consistentemente con los conceptos de RCM, la

tasa de fallos puede ser genérica (cualquier fallo) u orientada a modos de fallo específicos,

dependiendo la elección particular de las necesidades de aplicación. También se asume conocido

que la medición se desarrolla típicamente sobre una población, lo que hace que la cantidad de

fallos sea el verificado en el espacio muestral definido, y el tiempo computado el

correspondiente al producto del tiempo calendario transcurrido multiplicado por el tamaño de la

muestra.

Entonces, si:

FQ: Cantidad de Fallos

T: Tiempo Total Evaluado

Tiempo Medio entre Fallos (MTBF): inversa aritmética de la Tasa de Fallos. Es una medida

histórica (hecho consumado).

Tiempo Medio de Reparación (MTTR): Promedio de los períodos de tiempo insumidos para las

reparaciones, en un tiempo total de evaluación. Es una medida histórica (hecho consumado).

42

Page 43: 2012_cONFIABILIDAD_ARTICULOS

Entonces, si:

TTR: Tiempos de Reparación

T: Tiempo Total Evaluado

RQ: Cantidad de Reparaciones desarrolladas en T

A su vez, también se define:

Donde a μ se la conoce como Mantenibilidad, y que sería entonces la relación entre la cantidad

de reparaciones desarrolladas en un período de tiempo total a evaluar, y la sumatoria de los

tiempos insumidos en cada reparación, en ese período.

Disponibilidad (A): relación entre el MTBF y éste más el MTTR.

Confiabilidad (R): probabilidad matemática de que un activo ó conjunto de ellos alcancen el éxito

en el desempeño de su función definida, en un período de tiempo determinado. Es una

predicción estadística (a futuro).

Si asumimos un escenario de fallos aleatorios (como demuestran ser alrededor del 80% de los

fallos una vez superada la etapa de fallos de infancia), lo que equivale estadísticamente a

adoptar una distribución exponencial, y si:

λ: Tasa de Fallos Aleatorios

T: Tiempo Total Evaluado

Tiempo Medio No Productivo (MDT): Promedio de los períodos de tiempo de no producción,

en un tiempo total de evaluación.

Entonces, si:

43

Page 44: 2012_cONFIABILIDAD_ARTICULOS

NPT: Tiempo de No Productivo

T: Tiempo Total Evaluado

NPPQ: Cantidad de Períodos de Tiempos No Productivos

A esta altura quedará claro que A (que es función de los MTBF y MTTR) se asocia a un enfoque

de mantenimiento y AF (que es función del tiempo de producción) a uno productivo. Con esto en

mente, vamos a comenzar entendiendo las sensibles diferencias entre A y AF, que pondrán en la

superficie lo importante de no confundir conceptualmente uno con otro. Para evidenciarlo

pondremos las cosas en el contexto de un ejemplo numérico:

Supongamos un escenario en el que, desde una perspectiva productiva, se propone como

objetivo el logro de una cantidad máxima de 5 días no productivos, en 1 año calendario (estos 5

días se tomarán como la medida del MDT). Esto implica:

AF= 98,63%

Si ahora tomáramos este valor de AF como el de A (los forzamos iguales ⇒ A=98,63%), en base

a una sencilla formulación algebraica que no detallaremos aquí (pero que se desprende de las

expresiones básicas mostradas), y si asumimos un MTTR del 70% del MDT (por ejemplo), resulta

que:

R (1 año)=23,5%

Lo cual significa que, si la Disponibilidad demostrable fuese de A=98,63%, asumiendo un MTTR

del 70% del MDT, la probabilidad de alcanzar el éxito productivo planteado (AF=98,63%) en el

año siguiente es de tan sólo 23,5%.

Supongamos ahora que el mismo escenario de propuesta de un objetivo de logro de una

cantidad máxima de 5 días no productivos en 1 año calendario, se plantea alcanzarlo con una

probabilidad de éxito de 95%. Si repetimos la premisa de un MTTR del 70% del MDT, resulta

entonces que la A que debiésemos demostrar para satisfacer lo pedido es:

A=99,95%

Lo cual significa que, para lograr un AF de 98,63% (5 días no productivos en 1 año calendario)

asumiendo un MTTR del 70% del MDT, con una probabilidad de éxito del 95%, se debe trabajar

para obtener un valor de A de 99,95%.

A primera vista se podría pensar que no hay gran diferencia entre una A de 98,63% y otra de

99,95%. Veamos entonces qué significa en términos más evidentes, para lo cual desarrollaremos

a su vez otro ejemplo numérico.

44

Page 45: 2012_cONFIABILIDAD_ARTICULOS

Supongamos que un modo de fallo determinado (orientamos en este ejemplo el concepto de fallo

a modo de fallo), presenta un MTTR de 24 hs sobre un período de evaluación de 1 año

calendario. En tal contexto, una A de 98,63% implicará un MTBF de 72 años. Si ahora

proponemos una A de 99,95% para el mismo MTTR de 1 día, el MTBF requerido se eleva a 1999

años.

Otro camino ciertamente sería disminuir el MTTR. Ir de un A de 98,63% a otra de 99,95%

manteniendo un MTBF de 72 años, implicaría reducir el MTTR de 1 día (el planteo original) a poco

menos de 52 minutos.

No cabe duda que el ejemplo pone a las claras que, cuando hablamos de A y dado que

usualmente MTBF >> MTTR, son necesario importantes incrementos de MTBF ó importantes

decrementos de MTTR, para el logro de mínimos incrementos de A.

La cuestión inmediata ahora es, obviamente, cuáles son las acciones concretas de

mantenimiento que soportan el logro de un objetivo de A.

Como ya vimos desde su expresión algebraica, A depende de MTBF y MTTR, ó lo que es lo

mismo, de λ y de μ. Aumentar A implica aumentar el MTBF y disminuir el MTTR.

El control de la Tasa de Fallos λ se logra con un adecuado planteo de planes de mantenimiento

preventivo y predictivo (PM/PdM), mientras que el control de μ dependerá del correcto desarrollo

de los procedimientos de reparación y estrategias de repuestos.

No es objeto de este trabajo mostrar alternativas de desarrollo de planes de mantenimiento,

procedimientos de reparación y estrategias de repuestos, pero sí se mencionará que para todo

esto es extensamente aconsejable tomar en cuenta el uso de herramientas como RCM, FMEA,

PMO, RCA, RBI, LOPA y RCS.

No se pierde de vista que obviar el desarrollo en detalle de lo mencionado en este último

párrafo, no es una cuestión menor. Esto daría para pensar por ejemplo que si no se explica cómo

los planes PM/PdM permiten controlar numéricamente λ, todo esto podría no pasar de ser un

bonito planteo teórico. Para resolver esta duda razonable, sin entrar en profundos detalles, se

mencionarán algunos conceptos que concurren a la sabia filosofía del RCM:

Para diseñar un plan de mantenimiento, hay que entender previamente cuáles son los

fallos que se quieren manejar.

Los Modos de Fallo potenciales se deben proponer en base a la previa definición de las

Funciones y los Fallos Funcionales, con atención a explícitos parámetros y criterios de

aceptación.

Un completo conjunto de Modos de Fallo para un activo determinado, se puede listar con

el auxilio de FMEA. Por otro lado y esto si fuese posible y necesario, el mismo método de

puntuación asociado al FMEA permitirá una selección previa de los Modos de Fallo más

importantes.

45

Page 46: 2012_cONFIABILIDAD_ARTICULOS

Las acciones de mantenimiento orientadas a resolver cada Modo de Fallo, deben

observar un criterio de costo-efectividad.

Las acciones predictivas y/o preventivas orientadas a resolver cada Modo de Fallo, deben

tomar en cuenta el período P-F del mismo a los efectos de proponer una frecuencia de

intervención, y su contenido conceptual tendrá como objetivo predecir y/o prevenir el

fallo. Se destaca: la frecuencia de intervención está en función del período P-F y no de λ,

que es una confusión bastante común.

Con todo esto en consideración, va resultando más claro que un plan de mantenimiento pensado

en base a los fallos que se quieren manejar, con acciones específicas y frecuencias adecuadas,

permitirá tomar control sobre λ, en términos de anticipación y prevención de la ocurrencia de la

pérdida de una determinada función. Por supuesto, para que cualquier acción preventiva sea

ejecutable sin afectar la función que se quiere conservar, la arquitectura constructiva del sistema

que provee la función deberá ser adecuada. Donde no lo fuere y se lo encuentre costo-

efectivamente conveniente, hay una oportunidad de mejora que deberá ser evaluada en función

de su relación costo-beneficio.

Un capítulo aparte merece el mencionado LOPA (como una de la herramientas posibles), cuyo

campo de aplicación alcanza específicamente a los sistemas de seguridad, y lo mismo para RBI

en relación a los equipos estáticos.

Una vez desarrollado lo anterior, será necesario un conjunto de recursos de mantenimiento para

su planificación, programación y ejecución.

Volviendo no obstante al primer hilo del planteo, si hablamos del logro de un objetivo de AF para

una planta completa, ciertamente hablamos de lo mismo para A (en el marco de un valor de R

como condición de borde). Y para ir desde un planteo de A para una planta completa a los planes

PM/PdM y los procedimientos de reparación y estrategias de repuestos, hace falta comprender

cómo la función de cada activo impacta sobre la función del complejo bajo análisis; y aquí es

donde se propone el uso de Árboles de Fallos (FTA).

Para alimentar los FTA, se propone la utilización de RCM y/o FMEA y/o RBI para la identificación y

parametrización de los Modos de Fallo, cada uno con sus Causas Iniciadoras y sus

correspondientes MTBF y MTTR. La arquitectura lógica que interconecta las hipótesis de fallo

hasta llegar a lo que se conoce como Evento Tope (en el lenguaje del FTA), permitirá el cálculo

de la A y MTBF del mismo, que no es otra cosa que la función de la planta bajo estudio. Desde ya

que estos FTA se podrán componer desde una desagregación previa en sistemas más pequeños,

conforme lo permita el proceso involucrado y de acuerdo a la mejor conveniencia.

¿Y cómo se conecta esto con costos?. El desarrollo de los FTA (en base a RCM y/o FMEA y/o RBI),

permitirá el diseño de los planes con el grado de detalle necesario. Tampoco es objeto de este

trabajo, pero se menciona que todas las herramientas de confiabilidad mencionadas bien pueden

armonizarse en el marco de un modelo de integración cooperativa, donde el RCA, el FMEA y el

46

Page 47: 2012_cONFIABILIDAD_ARTICULOS

LOPA concurran a enriquecer las salidas de RCM, PMO y RBI. El RCS por su parte, cumple su

función en la definición de los stocks de repuestos óptimos necesarios.

Es evidente a esta altura que, en términos de aplicación práctica, se habrán de seleccionar las

herramientas que se juzguen balanceadamente valiosas en atención a la complejidad del

problema a resolver. Lo que sí se resalta es que cualquiera sea el conjunto de técnicas de apoyo

utilizadas, es importante el desarrollo del FTA para establecer con el grado de detalle necesario,

la relación entre las actividades de mantenimiento y la A obtenible. Y es justamente esta

definición detallada la que permite conectar A con los costos de mantenimiento asociados.

Para hacerlo más claro, los planes y procedimientos diseñados son los que deben permitir ganar

control sobre la tasa de fallos λ y la mantenibilidad μ, en términos numéricos. Siendo estos dos

parámetros los datos de entrada de las hipótesis de fallos en el marco del FTA cuyo cálculo final

arrojará el valor de A de su Evento Tope, queda explícita la relación de cálculo entre los MTBF y

MTTR de cada hipótesis de fallo y la A del sistema considerado.

Si encadenamos todos los conceptos expuestos, vemos que el costo del mantenimiento crece

proporcionalmente con la demanda de AF. Siendo que a su vez el objetivo de AF se vincula a los

presupuestos de producción y éstos con los objetivos de ganancia de la compañía vemos que,

para un complejo dado, aumentar volúmenes de producción incrementa las ganancias sólo hasta

el punto en que los costos de mantenimiento asociados al sostenimiento del AF requerido,

comienzan a hacer disminuir la ganancia final. El conocimiento del álgebra de este balance,

permite tomar decisiones de objetivos productivos consistentes con costos de mantenimiento

(que desde ya, no son los únicos que concurren al costo final).

Este planteo integral no sólo permite dimensionar consistentemente un presupuesto económico

de mantenimiento, sino que además le da un cuerpo estructurado, hilvanado y sólido a las

estrategias del área, en base a los requerimientos productivos del complejo a mantener, en

términos de AF y R.

El Futuro del Mantenimiento Predictivopor Jack Nicholas Jr., PE, CMRP, Autor

Comentar

Ver commentarios

Imprimir

Estamos al borde de otro cambio de paradigma en las organizaciones de la manera en que

manejan sus programas de Mantenimiento Predictivo (PdM, por sus siglas en ingles).

Este sigue de los dos cambios mayores anteriores en los programas de PdM: el primero, cuándo

el equipo fue de paquetes pesados transportables en carrito para la recolección de datos y algún

análisis (los 80’s) a los paquetes de mano basados en microprocesadores portátiles; y el

47

Page 48: 2012_cONFIABILIDAD_ARTICULOS

segundo, cuando las computadoras portátiles y las computadoras personales de escritorio con

programas robustos de software y capacidad substancial de memoria entraron en uso (los 90’s).

Juntos transformaron la recolección, el almacenamiento y el análisis de datos y, como resultado,

el mantenimiento predictivo cambio fundamentalmente.

Los originales “Sistema de Granja de PdM” en las plantas, donde técnicos veteranos enseñaban a

los aprendices a hacer vibración y otras pruebas relacionadas de condición, están

desapareciendo. En algunas plantas, estos grupos han sido disueltos enteramente. A menudo el

experto es compartido entre otras plantas o se recurre a terceros, y ya no es un residente. En

otros lugares, menos pero especialistas más hábiles y formalmente entrenados en PdM

comienzan a aplicar múltiples tecnologías para el análisis predictivo de monitoreo de condición.

Ellos llegan a ser “trabajadores de conocimiento,” una frase acuñada y definida por el Dr. Peter

F. Drucker, en su libro titulado Señales del Mañana.

¿Cuales son las opciones para proporcionar la misma o una mejor calidad, de información para el

personal que ha venido a depender de esta información para llevar al máximo la producción?

¿Cómo podemos vencer nosotros el continuo tiempo-espacio y estar en dos, tres o cuatro lugares

al mismo tiempo? Las respuestas a estas preguntas caen, como tan a menudo lo hacen, en la

rápidamente desarrollada nueva tecnología.

Programas de PdM Tradicionales

El Mantenimiento Predictivo y el Monitoreo de Condición ha estado presente cerca de 50 años,

pero ya podemos distinguir 5 programas de mantenimiento predictivo “tradicionales de los viejos

tiempos” de los programas más modernos. Para la mayor parte de esos 50 años, la recolección

de datos rutinaria fue realizada utilizando equipo “portátil”. En los primeros días de casi todas las

tecnologías, como el análisis de vibración y la termografía infrarroja, “portátil” significaba que un

equipo arrastraría o acarrearía varios componentes de una serie de monitoreo que pesaba de 30

a 50 libras cada una en las áreas de la planta donde el monitoreo era requerido. Esto era

incómodo y consumía mucho tiempo aún antes que la recolección de datos pudiera ser realizada.

La llegada de los microprocesadores en los 80’s, redujo estos instrumentos de recolección de

datos a “portátiles”. Los datos podrían ser reunidos y podrían ser analizados, por lo menos hasta

cierto punto, en la máquina.

En los 90’s, la introducción de sensores electrónicamente enfriados permitió a los termografistas

infrarrojos jubilar su equipo enfriado por Nitrógeno líquido. Este desarrollo, combinado con

circuitos integrados cada vez más capaces y tecnología digital, permitió a los practicantes de

PdM a crear imágenes intuitivamente interpretadas mucho más vívidas que hasta un principiante

podía comprender.

La introducción de computadoras personales a finales de los años 80 y a las computadoras

portátiles operadas por batería con memoria suficiente a inicio de los 90’s aumentaron aún más

la habilidad de los técnicos de PdM’ la capacidad de realizar (con la ayuda de software cada vez

más sofisticado) el análisis detallado en el campo. Más recientemente, los desarrollos en

48

Page 49: 2012_cONFIABILIDAD_ARTICULOS

capacidades radiofónicas de comunicación han hecho la cobertura del campo, ya sea por

humanos o por máquinas, aún más fácil.

Hoy, para la mayoría de las tecnologías, como las utilizadas en la prueba de motor, el análisis

ultrasónico y el conteo de partícula en lubricantes y líquidos hidráulicos (en el sitio), el uso de un

paquete de monitoreo electrónico combinado con una computadora personal portátil (laptop) o

un microprocesador constituyen los “últimos adelantos”. El conjunto de aplicaciones es

“empacado” en un portafolio o mochila y es capaz de la operación de campo con batería para

cuatro a ocho horas cada vez. El software más sofisticado puede ser residente en una

computadora de escritorio para el uso por el analista de PdM para realizar el análisis más

detallado, conclusiones de informe o en organizaciones más avanzadas inicia órdenes de trabajo

basado en las conclusiones.

El equipo más crítico, como un generador de turbina en una planta de Servicios, tendrá instalado

un sistema de monitoreo que siente múltiples indicadores de condición incluyendo vibración,

espacios libres, temperaturas y muchos otros parámetros. Estos sistemas instalados

generalmente son cableados en red para proporcionar datos de análisis y alarma al operarios

para la toma de decisiones. El costo de tales sistemas puede exceder fácilmente los USD

$100,000. El rendimiento de la inversión, sin embargo, teniendo en cuenta los valores de los

activos para ser monitoreados, invariablemente vale la pena. Parte del regreso continuo son los

ahorros en el costo de mano de obra que de otro modo sería requerido para reunir manualmente

suficientes datos en activos de valor para hacer decisiones útiles.

Uno puede ver que ha habido un cambio en la asignación de tiempo. Equipos de conjuntos de

aplicaciones más ligeros operados por baterías puede ser posicionado tan rápidamente como

una persona pueda llegar al sitio. Los datos pueden ser tomados en la máquina para el análisis

local. También hoy, redes de comunicaciones radiofónicas pueden transmitir (por ejemplo,

Asistente Personal de Datos - PDA, por sus siglas en ingles) informes urgentes u ordenes de

trabajo justo del mismo lugar de la máquina, un ahorro adicional de tiempo.

Así, el programa tradicional de PdM ha evolucionado en lo que podemos llamar un enfoque

“moderno” basado en combinaciones disponibles comercialmente de sensores,

microprocesadores, computadoras y software, y permanentemente cableado de sistemas

instalados de monitoreo.

El profesional de PdM ha evolucionado en un “trabajador de conocimiento”. Tales trabajadores

no son “baratos”, ni son fáciles de retener. Los costos de capacitación pueden promediar nos

USD $6,000 por trabajador por año, si un régimen de la mejora constante en habilidades es

seguido. Aparte de la capacitación, un trabajador en un programa interno puede costar de

USD$80,000 a $90.000 por año, incluyendo todos los costos. La inversión de capital en las

tecnologías finales superiores (vibración, termografía infrarroja, prueba de motor) pueden costar

USD $50,000 cada una y requerir gastos de actualizaciones y ayuda técnica de ~15% del costo

de la inversión de capital anualmente. Algunas tecnologías muy útiles como el análisis

ultrasónico y el equipo portátil de conteo de partícula del lubricante tienen costos más bajos de

inversión de capital, pero casi igualan los costos anuales para el personal y la capacitación.

49

Page 50: 2012_cONFIABILIDAD_ARTICULOS

Los que entran el campo del mantenimiento predictivo y del monitoreo de condición están entre

los mejor y más brillantes en cualquier organización. Su retención es generalmente una alta

prioridad, pero no es excepcional para ellos poder pasar a supervisión o inclusive a posiciones

gerenciales. Así, ellos pueden salir detrás de las condiciones calientes y sudorosas en las que

están la mayoría de los profesionales actuales de PdM. Además, ellos pueden salir de parte de

los aspectos más frustrantes de su campo como el que ignoren sus informes y los resultados del

análisis, y ser visto como el portador constante de malas noticias con respecto a las máquinas

que necesitan reparación y que Producción tiene que interrumpir su trabajo.

Algunas compañías, enteradas de los costos de los programas de PdM, pero no dispuestas a

prescindir de estos, comienzan a contratar terceros para su PdM. Así, aún en USD $75-$150,

cuando se requiere un especialista de PdM menos de tiempo completo, el recurso externo llega a

ser atractivo. Especialistas equipados en múltiples tecnología de guardia llegan a estar

disponibles por todos los EEUU (aún en vacaciones, y fines de semana cuando la mayoría de las

emergencias parecen ocurrir) de compañías como Allied Reliability, una nueva compañía que

opera en este campo desde hace ocho años.

Los siguientes Programas de PdM

Lo que nosotros acabamos de describir suena completamente moderno, y lo es. Pero esta

cambiando - y rápidamente. El cambio será como aquel que lo fue en los 80’s y en los 90’s.

En un editorial en la Revista Sound and Vibration, Nelson Baxter hizo los siguientes puntos con

respecto al futuro del Mantenimiento Predictivo y al Monitoreo de Condición:

Habrá menos personas recolectando datos y realizando el análisis, debido a la

competencia global, elevando los precios de la asistencia médica, la desregulación y

otros factores.

Donde es posible, los datos serán traídos al analista, no al revés.

Los Datos de máquinas semejantes serán archivados y simplificaran la identificación de

problema a través de una flota de maquinas semejantes donde sea posible.

La combinación de redes inalámbricas y el Internet permitirá el movimiento fácil de

datos de la planta al analista.

Las grandes organizaciones de manufactura tendrán programas híbridos donde el equipo

más crítico es monitoreado diario o con más frecuencia y menos crítico menos a

menudo.

Además de estas predicciones, enfocadas principalmente en la aplicación del monitoreo del

sonido y de la vibración, lo siguiente sucede realmente o comienza a suceder en el campo del

monitoreo de condición predictivo (PCM, por sus siglas en ingles) :

Sensores nuevos y diferentes son desarrollados que tendrán aplicación en el mercado de

PCM, aunque actualmente estos sensores no estén destinados específicamente para ese

mercado.

50

Page 51: 2012_cONFIABILIDAD_ARTICULOS

Plataformas Móviles, plantas de manufactura, edificios comerciales, plantas de servicios

y sus redes de distribución asociadas, así como la infraestructura para muchas otras

aplicaciones, serán monitoreada en maneras significativamente diferente y más

extensamente de como se hace actualmente.

Los sistemas de monitoreo serán más baratos, más rápidos, más capaces y más fáciles

de utilizar, reubicar y configurar que los sistemas actuales.

Mientras la intensidad de trabajo requerida para el monitoreo de máquinas en unas

instalaciones o plataforma disminuirá a causa del aumento de la productividad de los

instrumentos de apoyo y los sistemas de PCM, el número de aplicaciones que requerirán

monitoreo aumentará por una gran variedad de razones (principalmente económicas).

Mientras el número de individuos involucrados en PCM por sitio o por flota de vehículos

disminuirá, el número de “trabajadores con conocimiento” de PCM aumentará mientras

el valor de PCM llega a ser conocido por los directores, la intención a competir

efectivamente en el mercado global.

Lo que esta ocurriendo en el mercado es que varias tecnologías que pueden afectar PdM

convergen al mismo tiempo y en el mismo lugar. La convergencia de estas tecnologías ya crea

un impacto tremendo en cómo manejamos e interactuamos con nuestros activos, productos y

entornos físicos. Por ejemplo, hasta nuestra comprensión del Internet esta cambiando.

Las Naciones Unidas publico recientemente un papel que llamó “El Internet de las cosas”. Este

es un término de marketing que salió del MIT, donde futuristas ven que el Internet no consistirá

básicamente en una telaraña para publicar y transmitir información. Será un Internet compuesto

de máquinas, lugares, objetos y cosas. Una vendedora automática, un refrigerador, una “bomba

inteligente” y otras máquinas que serán conectadas al Internet. Estas máquinas conectadas

interactuarán una con la otra y los humanos para entregar nuevos servicios y crear nuevos

mercados de servicio. Otro término de marketing que es asociado con esto es llamado “M2M” o

comunicaciones de Máquina a Máquina y Máquina a Hombre. En la actualidad, el Internet es el

medio de comunicación estándar capaz del manejo de todos estos datos, y lo hace de una

manera costo efectiva para todos. Un “Internet de las cosas” inalámbrico parece destinado a

convergir con las mejores prácticas industriales de administración de activos ahora y en el

futuro.

Métodos de análisis y herramientas de soporte del futuro

Nuevas maneras de analizar para el monitoreo predictivo y de condición de máquinas también

entra en uso. Nos estamos alejando de la intuición y el conocimiento humano adquirido en el

trabajo o en los cursos de la formación profesional o a través de textos, hacia una fusión basada

en la inteligencia humana y la computadora. Muchas veces en el pasado, los vendedores de

hardware de PCM han recomendado nuevo software “integrado completamente” de múltiples

tecnologías en un solo paquete de software. Lo que resultó realmente fueron solo plataformas de

software con múltiples módulos que trataron con almacenamiento y el análisis de datos de

varias tecnologías. Sin embargo, en muchos casos, los resultados de datos y análisis todavía

fueron contenidos en “silos” relativamente aislados. Había poca, si es que había, integración de

51

Page 52: 2012_cONFIABILIDAD_ARTICULOS

resultados de las tecnologías diferentes que utilizan alguna cantidad significativa de análisis

correlativo o de correlación. 3

Por ejemplo, un sistema llamado el Sistema Integrado de Condición de Evaluación (ICAS por sus

siglas en ingles) esta ahora en uso en más de 110 barcos de la Marina de los EE.UU. y muchas

aplicaciones comerciales. Con sus “reglas” de interfase lógica grafica de usuario programable

para poner sobre aviso a la maquinaria degradada, el sistema puede ser considerado

discutiblemente representante de los últimos adelantos actuales en el análisis, diagnóstico y

pronóstico de sistemas operativos mayores en plataformas móviles, y plantas industriales y de

servicios. ICAS ahora es sostenido por General Electric Corporation, que recientemente compró

todos los derechos sobre la propiedad intelectual del software. Junto con su adquisición de IDAX,

Inc. (Productor del software de ICAS), General Electric también adquirió parte de Bentley Nevada,

un fabricante internacionalmente reconocido de hardware de monitoreo de condición instalado y

portátil, y de software de monitoreo de condición, mas notablemente su Sistema 1® package.

Una fusión reciente de los equipos responsables de ICAS y del Sistema 1® bajo un solo director

podría llevar a la creación de la próxima generación de software de monitoreo predictivo de

condición que contiene las mejores características de ambos sistemas, junto con otras

capacidades como las descritas abajo.

La compañía que primero originó ICAS bajo los contratos con la marina de los EEUU., Dundics

Enterprises (ahora llamada DEI Group) recientemente hizo equipo con una organización en el

exterior para desarrollar y aplicar, en una base de prueba, un enfoque aún más sofisticado de

análisis en una de las aplicaciones más difíciles – los motores eléctricos y los trenes de impulsión

4. El Sistema de Sensor de Monitoreo de Condición del Motor (MCM por sus siglas en ingles),

descrito por su fabricante como un “detective multímetro”, es el resultado de la colaboración por

dos compañías, Artesis, Inc, y Inter Electric Electronic, ambas situadas en Turquía. El pequeño

paquete de MCM, que puede ser sostenido fácilmente en la palma de la mano, es instalado

permanentemente en el panel de la puerta principal de un centro de control motriz. Sus sensores

(SOCs) son conectados a los circuitos dentro del panel. El MCM aplica el monitoreo de condición

del modelo basado en la planta y avisos prematuros de los algoritmos predictivos originalmente

desarrollados para la industria aeroespacial en EEUU bajo el patrocinio de la Administración del

Espacio y Aeronáutica nacional de los EEUU. El dispositivo utiliza sólo las tres fases de corrientes,

voltajes y las líneas de señales (formas de onda) que son alimentadas al motor como entradas

para el análisis. Las salidas son transmitidas por un transmisor radiofónico separado a una red

ligada a una computadora de análisis que contiene el software del análisis. 5

El motor clave del análisis es una Red Bayesiana de Creencia (BBN por sus siglas en ingles) para

el motor eléctrico y los componentes conducidos de la carga que utilizan información del MCM.

La lógica del BBN fue derivada de parámetros de MCM (8 eléctricos y 12 mecánicos), todo el

resultado de interpretar la corriente y los valores del voltaje y de las formas de ondas. Estos son

organizados en hojas de cálculo de modos de fracaso e indicadores relacionados, eléctricos y

mecánicos. Los parámetros de MCM son medidos y son disponibles al BBN. La red entonces

calcula la probabilidad de un Modo de Falla que es VERDADERO o FALSO. Muchos productos de

software de BBN sólo pueden calcular en una dirección. El Motor basado en Diagnostico de

52

Page 53: 2012_cONFIABILIDAD_ARTICULOS

Razonamiento de BBN desarrollado colectivamente con otro socio, Quantum Leap Innovations,

pueden calcular en ambas direcciones. Esta solución predictiva de maquinaria soporta:

Monitoreo de Condición y detección continúa de anomalías de modos de falla de equipo

dominante dinámico;

Estimación del estado actual del equipo relacionado como vida útil residual y pronostico

de la probabilidad de la falla

Opciones de recomendaciones de planificación y programación basadas en la utilización

proyectada de la demanda y la disponibilidad del recurso

El software es poblado con el conocimiento específico de la operación aplicable del equipo de la

planta y reconocimiento de síntomas desarrollados por el personal de ingeniería de DEI Group.

Cuándo aplicado, por ejemplo, a un conjunto de ventiladores de torre de refrigeración

conducidos por cajas de engranes, el sistema reconocerá anomalías de equipo que surgen de: la

degradación del ventilador, los problemas eléctricos de la línea, la degradación motriz, desgaste

excesivo de la caja y del cojinete, desbalanceo y desalineación entre equipo empatados.

El sistema pondrá sobre aviso al personal utilizando notificaciones visuales o de correo

electrónico. El sistema proporciona estimación del estado actual del equipo y pronostica la

probabilidad de falla. Así, la última promesa del mantenimiento “predictivo” puede ser cumplida

por este desarrollo, que es el resultado de un esfuerzo cooperativo internacional.

El estado del equipo, como lo relacionado a la vida útil residual, es representado como un cálculo

del daño cumulativo, o de envejecimiento, que el equipo ha acumulado desde nuevo, o desde la

última revisión. Los sistemas predictivos propuestos de administración de maquinaria utilizarán

los resultados de la función del descubrimiento de anomalía y el motor de protocolización de

riesgo para estimar un valor instantáneo del estado general del equipo combinando la condición

de modos de falla de todo el equipo en una sola representación del estado.

Dado el estado actual del equipo, y de la utilización proyectada del equipo como definido por

ciclos de trabajo (las cargas durante períodos de tiempo), el sistema estima la futura conducta

del equipo relativa a la degradación que lleva a la falla o estructural. Aquí la falla es definida

como el punto de la degradación donde el equipo no sostiene más los requisitos del sistema. La

información es demostrada como probabilidad de la falla del equipo relativa a una escala de

tiempo.

La combinación de las capacidades diagnósticas y pronosticas de los sistemas predictivos de

administración de maquinaria es una plataforma poderosa para ligar los problemas de equipo a

la causa raíz específica. Proporciona recomendaciones avanzadas basadas en riesgo de

mantenimiento relativas a la resolución de la anomalía reconocida. Los diagnósticos pre-

procesados y los algoritmos pronosticados almacenarán información computada en el historiador

de datos incluido. Esto permite utilizar las funciones incorporadas para construir la interfase del

usuario y demostrar la condición y futuro riesgo de los modos pre-procesados de falla de la

maquinaria.

53

Page 54: 2012_cONFIABILIDAD_ARTICULOS

La integración con el CMMS permite la iniciación automatizada de la planificación logística

anticipada y programación para apoyar los requisitos operacionales de la planta. El componente

de Apoyo de Decisión del Mantenimiento valora lo Siguiente:

Proyección de riesgo de la falla del equipo,

Disponibilidad de recursos necesarios de material y personal,

Requisitos operacionales planeados, y los horarios planeados de la falla para recomendar

el mantenimiento necesario o las actividades operacionales asociados con manejar el

riesgo predicho del equipo. Es también capaz de valorar el impacto de diferimiento de

mantenimiento o cambios en demandas operacionales del ciclo de trabajo

El resumen de todo el análisis es una mesa completa de decisiones y probabilidades, basado en

la historia de la máquina de modos de falla y atado a datos actuales de la condición, que rinde

una “más probable” causa raíz de la degradación, como es ilustrado. El concepto total para este

muy avanzado programa de PdM, es ilustrado por un conjunto de ocho ventiladores en una torre

de refrigeración en la Figura 2.

54

Page 55: 2012_cONFIABILIDAD_ARTICULOS

Note que la primera columna de recolección de datos en la Figura 2 es el cable de alimentación

entre los motores de una torre de refrigeración de agua al control motriz central resistente a la

intemperie. El vinculo inalámbrico está entre el MCMs o los “multímetros detectives” que reciben

la corriente, el voltaje y los datos de forma de onda de los sensores del cable de energía

eléctrica y la computadora que analiza en tiempo era el monitoreo de condición en un edificio a

varios cientos de metros de distancia. Los datos de MCM son dirigidos por un acceso inalámbrico

a la red de Ethernet de fibra ligada a las computadoras que contienen el software BBN y otros

lazos de comunicaciones a personas que toman las decisiones internas, en casa o en otras

ubicaciones. Los informes proporcionados incluyen el diagnóstico del problema y un pronóstico

del riesgo de falla. Con estos informes, la persona que toma las decisiones puede hacer una

determinación más informada teniendo en cuenta la importancia de la producción que se esta

produciendo en ese momento así como las consecuencias de interrumpirla para hacer una

reparación.

Este sistema ya se encuentra en uso en el sitio Koch Primary Energy monitoreando ventiladores

y bombas de alimentación. Koch, históricamente una de las compañías más progresivas en la

aplicación de tecnología predictiva de vanguardia, de monitoreo de condición y métodos de

análisis, piensa aplicar este método de análisis a sus generadores utilizando la salida de los

sensores en los cables de salida para monitorear los datos de la descarga parcial (PD por sus

siglas en ingles), un indicador clave de aislamiento de generador y empeoramiento interno del

componente. Actualmente, el monitoreo de PD se hace cada seis meses utilizando un sistema

portátil de monitoreo diseñado y vendido por una compañía filial subsidiaria de Koch, Iris Power

Engineering de Ontario, Canadá.

Un acercamiento diferente al Futuro

55

Page 56: 2012_cONFIABILIDAD_ARTICULOS

Otro método de Monitoreo Predictivo de Condición es el de proporcionar un grupo de expertos en

varios tipos de industrias y maquinaria. Estos expertos están disponibles para proporcionar un

análisis de vanguardia cuando un sensor de una red inalámbrica indica el comienzo de las

condiciones que pueden llevar a la falla. La clave a este enfoque es el uso de la conexión de

Internet de alta velocidad entre la máquina monitoreada y el sitio central del análisis.

Azima Inc., hace sensores de dispositivos inalámbricos de estándares industriales conectándose

a una interfase en-sitio y un paquete de comunicaciones. Estos sensores son conectados a hubs

alámbricos o inalámbricos, que entonces son conectados a una red troncal de comunicaciones

(que puede ser alámbrico, fibra o una combinación de ambos, y contiene al servidor del sitio,

cualquier sensor de datos o de video conectado alambricamente al hub). Esta red, en cambio, se

conecta vía Internet a las computadoras y monitores del análisis. Estos pueden estar

dondequiera, incluyendo el sitio del análisis y/o consulta local, en casa para observación por

empleados claves de la planta, en el escritorio de un vendedor analista experto de maquinaria a

miles de kilómetro, o en una oficina de Azima donde expertos también pueden ser situados,

atendiendo a múltiples a clientes. Los datos están disponibles por cualquier navegador de

Internet estándar, y el acceso al portal de Internet es controlado por el cliente.

El concepto de una instalación típica de Azima es ilustrada en la Figura 3.

La Fuerza Impulsora para el Futuro del Mantenimiento Predictivo

El principio de la fuerza impulsora en el futuro para el mantenimiento predictivo es la economía.

Los programas autónomos e internos se beneficiarán porque los requisitos de la inversión de

capital serán más bajos de lo que son actualmente. En una planta nuclear de generación de

energía el costo de un sensor conectado por cable o fibra óptica puede ser de USD $ 2-3,000. El

precio en otras instalaciones comerciales puede ser de USD $ 1,000 o más. Un paquete de

instalación inalámbrica de sensor para un solo parámetro puede ser la tercera parte de ese

valor.

56

Page 57: 2012_cONFIABILIDAD_ARTICULOS

Además, el costo de la mano de obra para realizar un esfuerzo potencialmente mucho mayor de

recolección de datos es reducido a una fracción de lo que es ahora. El costo de mano de obra,

programado a la función del análisis, ya sea con personal interno o por medio de terceros,

aumentará la productividad del programa general.

Otro elemento económico es el consentimiento de las compañías de “asociarse” con las

organizaciones que instalan, mantienen las redes de sensores y proporcionan los servicios

completos o parciales del análisis y el apoyo por una cuota mensual. Así, el requisito de la

inversión de capital del cliente es reducido mucho o es eliminado. Esto permite la decisión con

respecto a la implementación de un sistema inalámbrico descansar más en el requerimiento

para el Monitoreo Predictivo de Condición para aumentar la confiabilidad del equipo, el

rendimiento y productividad y menos en la necesidad de procesar una petición de inversión de

capital, que en muchas compañías puede tomar años.

En la planta Covanta Energy Haverhill de desecho a energía de la Estación de Recuperación de

recursos de 48 Megawatt al norte de Boston, Massachusetts, Azima instaló equipo sensible

inalámbrico en una grúa crítica para la operación y seis ventiladores clave, de difícil acceso. Los

ahorros a la Planta son entregados por un mejor conocimiento y más reciente de la condición

crítica del componente, que ha tenido como resultado una mejor planeación para los cierres

programados y menos tiempo de inactividad no planeado y gastos de reparaciones de

emergencia. Esto coloca el control de cuando realizar una reparación en las manos del personal

y lo quita de los caprichos de fracasos aleatorios de la maquinaria de la producción o el servicio.

Para organizaciones implicadas en o afectadas por el comercio internacional, el mayor estímulo

económico para adoptar sistemas de PCM del futuro será su capacidad mejorada para competir y

sobrevivir verdaderamente en el mercado global.

De un punto de vista más práctico cualquier organización que aplica PCM, ya sea con personal

de la planta o por medio de terceros, será forzado a considerar el uso de sistemas como los

descritos en este articulo. Esto es porque puede ser los única alternativa disponible ya que los

vendedores abandona el apoyo para el legado del hardware y/o el software, un hecho frecuente

en los ciclos vitales del producto de PCM que dura cerca de diez años. En términos de software,

los vendedores de PCM a menudo son forzados a hacer esto porque el hardware de la

computadora y los vendedores del sistema operativo cambian su línea de productos con la

misma frecuencia. Lo bueno de esto es que la productividad de uso del producto casi siempre es

mejorada por estos cambios.

Manteniendo las manos en la Maquinaria

Mientras todos estos pronósticos con respecto al futuro del mantenimiento predictivo parecen

quitar a los humanos de las máquinas, uno debe ser realista y apreciar que las decisiones finales

con respecto a si se deben de cerrar para reparaciones y las decisiones finales del post-

mantenimiento a volverlos a la producción no pueden, y no deben, ser hechas sin “las manos

puestas,” y a un encuentro cercano por seres humanos. El hardware que ellos pueden utilizar

puede ser sólo algunos instrumentos de diagnostico portátiles “anticuados”, pero también

57

Page 58: 2012_cONFIABILIDAD_ARTICULOS

estarán trayendo la mayoría de los instrumentos importantes, el software de su propia

experiencia y la inteligencia, que siempre se quedará como una parte esencial del proceso de

diagnóstico y pronóstico.

Conclusiones

Los Sistemas de Monitoreo Predictivo de Condición del futuro serán más sofisticados que

aquellos utilizados actualmente, e implicará más tipos de sensores para detectar más

indicadores de la degradación de la máquina y el sistema. Al mismo tiempo serán más baratos,

más fáciles de instalar y utilizar, y de conectarse internamente y/o ligados vía Internet con

motores de análisis que pueden estar situados a miles de kilometros.

El vinculo entre la participación humana y la participación del microprocesador y/o maquinas

basadas en el analisis de computadoras que hacen la promesa del mantenimiento predictivo

llegaran a ser una realidad.

En el 2003, el reconocido inventor y futurista, Ray Kurzweil publicó su último libro titulado La

Singularidad está Cerca. Este es el último libro de más de tres décadas y cinco libros llenos de

proyecciones de la unión entre la vida y la salud de los humanos y las máquinas que ellos han

creado. En La Singularidad está Cerca, Kurzweil examina el próximo paso en este proceso de la

unificación, que él contiende es inexorable. Ese paso es la unión entre el humano y la máquina

en la que el conocimiento y las habilidades incorporadas en los cerebros humanos serán

combinados con la capacidad bastamente más grande, velocidad y la habilidad de conocimiento-

compartiendo de nuestras propias creaciones.

La singularidad esta tan verdaderamente cerca como se aplica al futuro del mantenimiento

predictivo.

Agradecimiento

Los autores reconocen con gratitud la ayuda inapreciable en forma de tiempo invertido

discutiendo el futuro de PdM y la provisión del contenido para la inclusión en este artículo que

fue proporcionado generosamente por Marton Dundics, Presidente deDEI Group, Millersville, MD

([email protected]) y de Alex Warner Presidente de Pedigree Technologies, Fargo,

Dakota del Norte ([email protected])

Elsa K. Anzalone es Gerente General de Contabilidad de Azima, Inc. Puede ser contactada en:

telefono: 781-938-0707 x751, FAX: 781-935-0179, Mobil: 713-825-1076, e-mail:

[email protected]

Jack R. Nicholas, Jr., P.E., CMRP es el Director General de Maintenance Quality Systems LLC de

Millersville,MD. Puede ser contactado via: Telefono 717-338-9166, FAX: 717-338-9168, Mobil:

240-463-6440, e-mail: [email protected]

Referencias

58

Page 59: 2012_cONFIABILIDAD_ARTICULOS

1. Baxter, Nelson Sound and Vibration Magazine May 2004 editorial

2. Warner, Alex, President of Pedigree Technologies, Fargo, ND from an unpublished paper

on products and services of his company prepared in support of this presentation

3. A description of correlation analysis, along with five other of the most common analysis

techniques used in PCM is found in the text Predictive Maintenance Management, 1st

Edition, September 2005 by J. R. Nicholas & R. K. Young ISBN 0-97199801-3-6

4. Most of the data on ICAS and MCM was provided by Morton Dundics, President of the DEI

Group. Mr. Dundics was the originator of the ICAS concept. Marton can be contacted via

the company web site www.dei-group.com

5. Artesis is a privately held company headquartered near Istanbul, Turkey. For more

details on the company and the array of products it has patented and sells world-wide,

visit the website a www.artesis.com

El Impacto de la Alineación de Precisión en el tiempo de Vidapor Michael Snider, Universal Technologies Companies

Comentar

Ver commentarios

Imprimir

La alineación de precisión del eje de maquinaria de rotación es uno de los factores claves a

reducir las cargas “parasitarias” en los cojinetes, sellos y línea de ejes.

Así, es lógico que la alineación de precisión aumente el tiempo productivo general de la

máquina, el Tiempo Medio Entre Fallas (MTBF por sus siglas en ingles) de los componentes de la

maquinaria, y de la capacidad de ganancia de la organización - siendo todas metas dignas y algo

que todos nosotros buscamos. El enfoque principal de este artículo es mostrar cómo la

desalineación afecta los componentes tanto del impulsor de la máquina y los equipos impulsores

una vez armados y bajo operación.

Mientras los conceptos discutidos aquí aplican a toda clase de maquinaria de rotación,

empecemos por considerar el gráfico inferior que se relaciona con una falla con un tipo muy

importante de equipo a través de la industria, la bomba centrífuga. Los resultados de un análisis

estadístico reciente de que componentes fallan generalmente en una bomba centrífuga son

mostrados en la Figura 1. Como usted puede ver, aproximadamente 69% de las fallas implican

un dispositivo que sella, más comúnmente un sello mecánico.

Rápidamente debemos notar que este gráfico no dice “por qué los fracasos ocurren,” pero

simplemente “lo que falla”? Mientras el análisis de todas las causas primordiales específicas de

estos fracasos del componente está más allá del alcance de este artículo, esta claro que fuentes

mecánicas de falla tal como la desalineación del eje contribuyen apreciablemente. De este

estudio, podemos concluir que la eliminación de la causa raíz de cojinete y sello se resolvería

59

Page 60: 2012_cONFIABILIDAD_ARTICULOS

aproximadamente 79% de los desafíos de confiabilidad de la bomba que tuvo como resultado

este estudio.

Principios Básicos de Alineación

La desalineación del equipo rotatorio es definida como la desviación de la posición relativa del

eje de un eje colineal de rotación. El término colineal, ilustrado en la figura 2, es definido como

“conteniendo los elementos que corresponden uno al otro y eso es arreglado en la misma

sucesión lineal”.

Cuándo se aplica al equipo de rotación, las líneas centrales tanto de eje del impulsor como de los

impulsores de la maquina forman una línea mientras las máquinas operan, con lo cual reducen

las cargas “parasitarias” impuestas en los componentes de la maquinaria. Estos componentes de

la maquinaria incluyen los ejes, cojinetes, sellos, rotores y coples. Note que las cargas impuestas

por el desbalanceo, los errores del ensamble, y las condiciones de funcionamiento son materias

separadas.

60

Page 61: 2012_cONFIABILIDAD_ARTICULOS

Para maquinas de acoplamiento, los ejes están desalineados cuando sus líneas centrales de

rotación no están colineales cuando las máquinas están trabajando.

La mayoría de las discusiones de la alineación del eje empiezan definiendo los dos tipos de la

desalineación: la desalineación de desfase y la angular. Estos dos tipos de desalineación son

ilustrados en la figura 5.

Desafíos comunes y malos entendidos acerca de la alineación del Eje

Una gran variedad de desafíos y equivocaciones existe con respecto a la materia de la

instalación de máquina y alineación del eje. Además, muchos de estos asuntos quedan sujetos a

debate. Entre los asuntos se encuentran los siguientes:

1. ¿Cual es el conjunto correcto de tolerancias de alineación?

2. Si se alinea a tolerancias más precisas y no se reducen los niveles de vibración de la

maquinaria, hay un beneficio real?

3. ¿Cuál es el impacto de coples “flexibles” en tolerancias de alineación?

4. ¿Si una máquina es susceptible a movimiento considerable debido al esfuerzo por la

tubería o al aumento térmico, e incluso al cambio de condiciones de funcionamiento,

cual es el beneficio de “tolerancias de precisión”?

5. ¿Cómo es que varias especificaciones del equipo tales como, velocidad de operación,

tipo de cojinete, tipo sello, etc. impactan el grado de precisión requerido?

Mientras cada uno de éstos son materias importantes y, verdaderamente, los desafíos de la

postura, nuestro enfoque aquí está en mirar el sujeto puramente de la perspectiva de los

cojinetes y de los sellos.

61

Page 62: 2012_cONFIABILIDAD_ARTICULOS

Ejemplo Gráfico de Tolerancia de alineación

Mientras la decisión final en tolerancias de alineación debe ser hecha por compañías individuales

basadas en la naturaleza del equipo y su criticalidad al negocio, los gráficos mostrados en la

figura 6 son tolerancias típicas comúnmente aceptadas en la alineación.

Los gráficos tales como éstos son muy comunes; sin embargo, unas cuantas precauciones deben

ser consideradas:

Las tolerancias de la Angulosidad y la desviación enfocan la atención en el cople, no en

la longitud de los ejes ni la cantidad de la desalineación en los cojinetes.

La velocidad de operación es un factor para ser considerado, pero muchos factores más

deben ser considerados también.

Considere la figura 7. Dar una alineación a una máquina de 1800 RPM a la “excelente”

angulosidad y desfase proporcionadas en el gráfico previo, mire la cantidad de desalineación en

los pies de la máquina, que resulta ser muy cerca de los cojinetes de la máquina.

En resumen, lo que vemos es eso, aunque los valores de la desviación y la angulosidad en el

“cople” están dentro de tolerancias típicamente consideradas “excelente,” allí se queda las

desviaciones en los patas delanteras y traseras de la máquina de 0,007” (0.175mm) y 0,023”

(0.585mm), respectivamente.

62

Page 63: 2012_cONFIABILIDAD_ARTICULOS

Mientras los valores de la desalineación en este ejemplo obviamente no son “precisos,”

necesitamos considerar por qué la desalineación lleva a fracasos prematuros de la maquinaria,

especialmente en componentes tales como cojinetes y sellos mecánicos. Vea la figura 8

Al operar, las líneas centrales del eje que de rotación buscan una posición colineal, y eso es

verdad a pesar del tipo de cople, el tipo de cojinetes, o de la velocidad operacional de las

máquinas. Al tratar de alcanzar una posición colineal en este ejemplo, considere la cantidad de

desviación en las patas, también cerca del cojinete final, 0,005” (0.125mm) y 0,006” (0.155mm).

¿Por qué éstas desviaciones son un asunto?

Para contestar esa pregunta necesita considerar el espacio libre interno radial de los cojinetes y

el espacio libre entre el cojinete y la envoltura del cojinete. Para diámetros típicos de eje de

máquina de 2 pulgadas (50 Mm), el espacio libre interno máximo del elemento rodante típico del

cojinete es aproximadamente 0,001” (0,025 Mm) y el espacio libre máximo entre el diámetro

63

Page 64: 2012_cONFIABILIDAD_ARTICULOS

exterior del cojinete y la envoltura es también cerca de 0,001” (0,025 Mm), para un suma de sólo

0,002” (0,050 Mm).

Si, en este ejemplo, al tratar de alcanzar una posición colineal los dos ejes necesitan viajar

0,006” (0.155mm) y 0,005” (0.125mm), mas hay sólo 0,002” (0.050mm) de espacio disponible.

No sólo perdemos el espacio esencial necesitado para una película de aceite dentro de los

cojinetes, pero los cojinetes también no tienen elección sino sostener la carga dinámica adicional

y los ejes sostienen las fuerzas que doblan. Estas fuerzas adicionales no sólo causan desvío del

eje, que puede llevar a la falla del eje, sino también llevan al daño extenso del componente que

la mayoría de las personas consideran la conexión más débil en la máquina, el sello mecánico.

Un estudio reciente realizado en la Universidad de Tennessee encontró que las cantidades aún

pequeñas de desalineación podrían reducir apreciablemente la vida del cojinete. El estudio

encontró que si, en promedio, un motor fue desfasado y desalineado por 10% del desfase

admisible por el fabricante, había una reducción correspondiente del 10% en la vida interior del

cojinete. Además, si un motor fue desalineado desfasadamente por 70% del cople admisible por

el fabricante, había el 50 % correspondiente de reducción en la vida interna del cojinete. Los

resultados del estudio son resumidos en la Figura 9.

Una Perspectiva Diferente en Tolerancias de Alineación

Muchas compañías se han dado cuenta de la mejora significativa en la vida de los cojinetes, la

vida del sello, y a la confiabilidad general de la maquinaria aplicando las tolerancias de la

alineación tales como aquellas descritas abajo de que se enfocan no en el acoplamiento de la

angulosidad y los valores de la desviación, sino en las desviaciones máximas que son

permisibles en el acoplamiento y en los pies de la máquina.

Dado nuestro ejemplo previo, consideremos el valor de “las tolerancias de la alineación de la

precisión” en el eje, cojinete y la vida mecánica del sello. Considere la ilustración en la figura 11.

Por los valores en la figura 10, dando una desviación máxima en el acoplamiento de 0,001”

(0.025mm) y una desviación máxima en las patas de 0,002” (0.050mm), el gráfico de abajo

muestra el peor de los casos.

64

Page 65: 2012_cONFIABILIDAD_ARTICULOS

Con los ejes en esta posición, si nosotros ahora miramos las distancias que los dos ejes

necesitarían viajar para alcanzar una posición colineal, usted puede ver el valor de tales

tolerancias. En este caso, las distancias que los ejes necesitan viajar son menos de 0,001”

(0.025mm). Y, los espacios libres típicos dados del cojinete, usted puede ver que estas distancias

son no sólo tolerables a los cojinetes; sino en la reducción en la carga del cojinete, aumento en la

vida del lubricante, disminución del estres del eje, y finalmente en la vida mecánica del sello

ahora es tomada en cuenta.

Conclusiones

Las tolerancias de la alineación a menudo han sido tratadas con una actitud de desgano de “solo

aproxímate”. Sin embargo, las tolerancias de la alineación son realmente la medida de un

trabajo bien hecho. Hay dos razones de utilizar las tolerancias. La razón clave es de establecer

las metas. ¿Si usted no tiene una meta, cómo sabe usted cuando el trabajo esta terminado? Si no

hay una meta, no puede haber una alineación de calidad. El segundo propósito de las tolerancias

de alineación es de establecer la responsabilidad. La responsabilidad es la evaluación de la

calidad de la alineación. ¿Si no hay tolerancia de comparar una alineación a, cómo puede ser

juzgada la calidad de la alineación? La responsabilidad puede crear la competencia, conduciendo

a un mecánico para que consiga hacer un mejor trabajo.

Mientras la adherencia a tales tolerancias estrictas de la alineación coloca una variedad de

desafíos, y al encontrar estas tolerancias no son siempre prácticas ni necesarias, es claro que los

encontrando siempre que posible contribuirá positivamente alcanzar o exceder la vida del diseño

de los cojinetes y de los sellos. A cambio, esto ayudará a alcanzar esas metas que todos nosotros

nos esforzamos para -aumentar el tiempo productivo de la máquina, el MTBF, y aumentar la

capacidad de las utilidades de la empresa.

65

Page 66: 2012_cONFIABILIDAD_ARTICULOS

Michael Snider es el fundador y director general de Universal Technologies companies,

incluyendo operaciones en los EEUU, Europa, y Latino América. Michael tiene más de 23 años de

experiencia en los campos de confiabilidad de maquinaria, capacitación técnica, diseño y

desarrollo de programas de calificación y capacitación. Recibió su título en Filosofía e inglés en

1981 y 1982, respectivamente, del S. Andrews Presbyterian College y termino sus estudios y se

graduo de Física y Matemáticas en la Universidad de Carolina del norte en 1987. Michael es el

padre orgulloso de cinco niños y un nieto. Sus pasatiempos incluyen viajar, leer, esquiar en

nieve, y la escritura.

Gary Phillips es Instructor Senior en Universal Technologies con 28 años de experiencia en el

análisis de vibración y las técnicas de capacitación relacionadas con la confiabilidad de la

maquinaria. Su pericia se extiende a la localización de fallas y la resolución de problemas, el

análisis de la Causa Raíz, balanceo de campo y en-sitio, la evaluación de programas de

confiabilidad, la implementación y la administración, control de calidad y aseguramiento de la

calidad, la alineación avanzada de maquinaria de precisión que utiliza láser y los métodos de

indicador de dial. Gary recibió su título en Ingeniería Mecánica en 1969 de la Universidad de

Saskatchewan, Saskatoon, Saskatchewan. El vive en Duncan, Columbia Británica, Canadá.

66

Page 67: 2012_cONFIABILIDAD_ARTICULOS

Los Indicadores una Herramienta para la Confiabilidadpor Juan Carlos Orrego Barrera, Mantonline

Comentar

Ver commentarios

Imprimir

En la entrega anterior dejamos a un lado la segunda parte de nuestra pregunta clave para el

desarrollo del modelo de confiabilidad y nos centramos en el modelo de criticidad, ahora

entonces nos enfocaremos a esta segunda parte que a su vez, nos llevará a profundizar en los

indicadores, en primera instancia los que tienen que ver con la confiabilidad y luego en un

resumen de los que mundialmente se han denominado “Indicadores Claves de Desempeño” o

del inglés “Key Performance Indicators (KPI)”.

Definición de indicador: Magnitud utilizada para medir o comparar los resultados

efectivamente obtenidos, en la ejecución de un proyecto, programa o actividad. Resultado

cuantitativo de comparar dos variables.

Medida sustitutiva de información que permite calificar un concepto abstracto. Se mide en

porcentajes, tasas y razones para permitir comparaciones.

Recordemos la pregunta que nos lleva a esto:

¿Cuales son las funciones y los modelos ideales de rendimiento del recurso en su actual

contexto operativo (funciones)?

Los indicadores son entonces esto, medidas continuas que nos llevan a una magnitud ideal o de

diseño que cuando se hacen en forma objetiva sobre un proceso, lo hacen fácil de analizar e

igualmente facilita la toma de decisiones apropiadas para introducir mejoras.

Del ejemplo de la motobomba impulsora, tenemos el item que se refiere al consumo; “Tener un

consumo máximo de 7.8 Amp.”, esta cifra nos la da el fabricante quien determinó que bajo las

condiciones planteadas; fluido a mover, presión de trabajo, instalaciones, etc, el amperaje de

trabajo debe ser igual o inferior a este valor, por consiguiente, un monitoreo continuo de este,

nos puede llevar a determinar fallas en el equipo o el sistema, en este caso, el consumo puede

ser nuestro indicador a seguir.

Existen un buen numero de indicadores que pueden ser tomados como referencia, pero los

indicadores de cada compañía si no han sido construidos directamente por el personal de ella,

deben ser analizados desde la óptica de la empresa, sus objetivos y sus condiciones reales,

como decíamos antes, para efectos de confiabilidad, las cifras de indicadores de otros países

pueden ser los ideales y son un buen principio en caso tal que no se haya iniciado el seguimiento

67

Page 68: 2012_cONFIABILIDAD_ARTICULOS

propio o como en el caso colombiano, se carezca de dichas medidas en forma pública. Dentro de

los llamados a evaluar la confiabilidad tenemos:

1. MTBF son las siglas de “Mean Time Between Faillure” o “Tiempo Medio de Vida entre Fallos”.

Normalmente expresado en horas. Para un determinado dispositivo podemos decir que existe un

MTBF teórico o calculado y un MTBF práctico o medido.

Los MTBF nos dan un medida acertada de la Calidad del producto que diseñamos, fabricamos,

vendemos, compramos o que tenemos a cargo para el mantenimiento.

Donde ti es el tiempo de observación de n equipos y Kf el numero total de fallos de estos

equipos durante dicho período de evaluación.

2. MUT de “Mean UpTime” o “Tiempo Medio que el Equipo está Disponible” , que no tiene otra

explicación que su mismo nombre y que está dado por la siguiente ecuación:

Teniendo a td como el tiempo que el equipo i se encuentra disponible en el intervalo de

observación y Kd el total de tiempos en que el equipo i ha estado disponible, siendo n el total de

equipos observados.

3. MDT del Ingles “Mean DownTime” o “Tiempo medio que el Equipo No esta Disponible”.

En donde tu como el tiempo que el equipo i se encuentra como no disponible en el intervalo de

observación y Ku el total de tiempos en que el equipo i ha estado no disponible, siendo n el total

de equipos observados.

68

Page 69: 2012_cONFIABILIDAD_ARTICULOS

4. MRT de “Mean repair time” o Tiempo Medio de Reparación”, asociado mas a la mantenibilidad

pero igualmente medida importante para la confiabilidad, y nos muestra el período en el cual

podemos reparar un equipo hasta llevarlo a su estado de operación.

Si disponemos los tiempos medios de reparación de n equipos podemos obtener la estimación

del tiempo medio de reparación mediante la ecuación, donde Kr es el número total de

reparaciones durante el tiempo considerado y tr el tiempo de reparación correspondiente al

equipo i.

Es así como encontramos estos y otros tantos indicadores que nos han de servir para monitorear

nuestra labor, aquí un listado de algunos de ellos:

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

69

Page 70: 2012_cONFIABILIDAD_ARTICULOS

Cálculo de los Parámetros de la Distribución de Weibullpor Luis Hernando Palacio Palacio, Argos/ Planta Nare

Comentar

Ver commentarios

Imprimir

El presente artículo presenta, paso a paso, el método de los Mínimos Cuadrados para calcular los

parámetros de forma y escala de la distribución de Weibull. Para el cálculo del parámetro de

localización se emplea el complemento Solver de Excel.

También se presentan dos ecuaciones para calcular el estimador Rango de mediana (ecuaciones

5 y 6), siendo esta última una forma aproximada y la que generalmente se usa en la literatura

técnica. Ya que la ecuación (5) es más exacta, ésta es la que se emplea; para ello, y debido a su

complejidad, se presenta el código fuente — en el lenguaje VBA (Visual Basic para Aplicaciones)

— para crear una función definida por el usuario en Excel. Igualmente se usan las funciones

PENDIENTE e INTERSECCIÓN.EJE, de Excel, para calcular la pendiente y el intercepto de la línea

de regresión.

1. INTRODUCCIÓN

La distribución de Weibull es una distribución continua y triparamétrica, es decir, está

completamente definida por tres parámetros y es la más empleada en el campo de la

confiabilidad.

A pesar de la popularidad de esta distribución, en la revisión bibliográfica efectuada, la mayoría

de los artículos y literatura técnica consultados se remiten a una distribución biparamétrica y,

más aún, los ejemplos allí desarrollados presentan como datos conocidos los dos parámetros,

generándose, así, las siguientes preguntas: ¿Cómo se calculan los parámetros? y ¿por qué se

omite el cálculo del tercer parámetro? El tercer parámetro es el parámetro de localización, es

decir, el parámetro que localiza la abscisa a partir del cual se inicia la distribución.

El objetivo del presente artículo es responder a las dos preguntas anteriores, presentando una de

las cinco metodologías — analíticas — existentes para el cálculo de los parámetros y algunos

criterios para determinar si es necesario tener en cuenta el tercer parámetro.

El método que se presenta es el método de los Mínimos Cuadrados, por tres razones: la primera,

es un método simple y expedito de aplicar; la segunda, la gráfica de los datos sirven como una

prueba de bondad de ajuste de la distribución y, la tercera, da un indicio sobre si se debe

calcular o no el parámetro de localización.

Para una metodología gráfica, la cual hace uso del papel especial llamado papel de probabilidad

de Weibull, véanse las referencias [5], [6]

70

Page 71: 2012_cONFIABILIDAD_ARTICULOS

2. EXPRESIÓN MATEMÁTICA DE LA DISTRIBUCIÓN

La función de densidad de la distribución de Weibull para la variable aleatoria t está dada por la

siguiente expresión:

Donde

t: Variable aleatoria que, para el caso de la confiabilidad, representa el tiempo entre fallas.

β: Parámetro de forma (0<β<∞)

θ: Parámetro de escala (0<θ<∞)

δ: Parámetro de localización (-∞δ<∞)

El parámetro beta, como su nombre indica, determina la forma — o perfil— de la distribución, la

cual es función del valor de éste.

El parámetro theta indica la escala de la distribución, es decir, muestra que tan aguda o plana es

la función.

El parámetro delta indica, en el tiempo, el momento a partir del cual se genera la distribución.

Una distribución biparamétrica está completamente definida por los parámetros de forma y de

escala.

La función confiabilidad R (t) de Weibull se determina por la siguiente expresión:

La función distribución acumulativa F (t) es el complemento de la función confiabilidad y se

define de la siguiente manera:

71

Page 72: 2012_cONFIABILIDAD_ARTICULOS

De la expresión anterior, se concluye que la función distribución acumulativa se puede

interpretar como la probabilidad de falla.La relación entre la función confiabilidad y la función

probabilidad de falla se muestra en la figura 1.

Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.

3. DETERMINACIÓN DE LOS PARÁMETROS POR EL MÉTODO DE LOS MÍNIMOS

CUADRADOS

Como se mencionó en el numeral uno, existen cinco métodos para calcular los parámetros de la

distribución de Weibull. Ellos son:

Mínimos cuadrados.

Gráfico de la función tasa de falla.

Máxima similitud.

Estimación de momentos.

Estimadores lineales.

Para ilustrar el método de los mínimos cuadrados, se desarrollará paso a paso un ejemplo.

El método de los mínimos cuadrados permite calcular los parámetros de forma y escala,

mediante la transformación doble logarítmica de la función de distribución acumulativa

(ecuación 3). El cálculo del parámetro de localización es más complejo, empleándose para ello

rutinas de cálculo, como el programa Solver de Excel.

La transformación doble logarítmica permite transformar la función de distribución acumulativa

en una ecuación lineal de regresión.

3.1 Deducción de la ecuación lineal de regresión

Función acumulativa de Weibull.

72

Page 73: 2012_cONFIABILIDAD_ARTICULOS

Aplicando logaritmos naturales.

Propiedad exponencial de los logaritmos.

Aplicando logaritmos naturales.

La expresión (*) representa una ecuación lineal de la forma

La cual es una recta de regresión, con:

De la expresión (**) se concluye que el parámetro de forma, β, es la pendiente de la recta de

regresión.

De la expresión (***) se observa que el parámetro de escala, θ, está en función del intercepto b

de la recta de regresión y del parámetro de escala; por lo tanto:

73

Page 74: 2012_cONFIABILIDAD_ARTICULOS

(4) Definición de logaritmo.

3.2 Rango de mediana

Para poder trazar la recta de regresión, se debe calcular un estimador para la función de

distribución acumulativa F(x). Este estimador, llamado Rango de mediana, es un estimador no

paramétrico basado en el orden de las fallas. Este aspecto implica que la muestra de datos se

debe organizar de menor a mayor (en forma ascendente).

La expresión matemática para este estimador es:

Donde:

Wα (i): Rango de mediana para un nivel de confianza (1-α), donde α es el nivel de significancia y

toma el valor de 0.5 para este estimador.

i: Orden de la falla.

n: Número total de datos de la muestra.

Fα, v1, v2: Valor crítico de la distribución F, evaluada en el nivel de significancia α y con grados

de libertad v1 y v2.

Dada la complejidad de la ecuación (5), generalmente el rango de mediana se aproxima

mediante la siguiente expresión, exacta dentro de 0.005 [1]:

Donde:

RM(xi): Rango de mediana.

i: Orden de falla.

74

Page 75: 2012_cONFIABILIDAD_ARTICULOS

n: Número total de datos de la muestra.

Dado que la ecuación (5) es más exacta, en los cálculos se empelará ésta. Para facilitar su

empleo, a continuación se presenta el código fuente para crear una función definida por el

usuario en Excel.

Para crear la función, síganse los siguientes pasos:

Abra Excel.

Hágase la combinación de teclas Alt +F11. Esta acción abrirá el editor de Visual Basic.

En el menú insertar de VB, selecciónese la opción Módulo.

En el panel derecho, cópiese el siguiente código fuente:

Public Function RangoMediana(alfa As Single, n As Long, i As Long) As Double

’*****************************************************************************

’*Esta función calcula el rango de mediana en función de la distribución F. *

’*alfa representa el nivel de significancia con el que se calcula la dist. F.*

’*n es el número de puntos de la muestra. *

’*i es el orden de falla. *

’*****************************************************************************

Dim a As Double, f As Double

On Error GoTo ManejarError

a = i / (n - i + 1)

f = Application.WorksheetFunction.FInv(alfa, 2 * (n - i + 1), 2 * i)

RangoMediana = a / (f + a)

Salir:

Exit Function

ManejarError:

Select Case Err.Number

Case 1004

75

Page 76: 2012_cONFIABILIDAD_ARTICULOS

MsgBox “Los argumentos (n) o (i) no pueden ser cero.”, vbCritical + vbOKOnly

Case Else

MsgBox “Se ha generado el error ” & Err.Number & _

Err.Description, vbCritical + vbOKOnly

End Select

Resume Salir

End Function

Hágase clic en guardar del menú Archivo del editor de VB para guardar la función.

Hágase clic en Cerrar y volver a Excel del editor de VB. Esta acción cierra el editor de VB.

Para usar la función creada, selecciónese Función del menú Insertar de Excel. Se abre la

ventana Insertar función.

En la ventana Insertar función, en la lista desplegable O seleccionar una categoría,

selecciónese la categoría Definidas por el usuario.

En el cuadro de lista Seleccionar una función, hágase clic en RangoMediana.

Hágase clic en el botón Aceptar.

En la ventana Argumentos de función, digítese los valores de los argumentos. Téngase

en cuenta que el valor del argumento alfa siempre es 0.5.

3.3 Pasos

1.- A continuación se presenta la secuencia que se debe seguir en la aplicación del método de

los Mínimos Cuadrados.1. Asuma (parámetro de localización) igual cero y ordene los datos de

menor a mayor. El criterio de ordenación debe ser el tiempo entre fallas. Véase la tabla 1.

76

Page 77: 2012_cONFIABILIDAD_ARTICULOS

2. Calcule el rango de mediana para cada observación usando la ecuación (5) ó (6).

En nuestro caso se usará la ecuación (5), empleando la función definida por el usuario

RangoMediana. Véase la figura 2.

Los argumentos de la función RangoMediana toman los siguientes valores:

Alfa=0.5; n=140 (total de puntos de la muestra); i= toma el valor indicado en la columna A. Los

valores calculados se muestran en la tabla 2.

77

Page 78: 2012_cONFIABILIDAD_ARTICULOS

3. Calcule el logaritmo natural del tiempo entre fallas para cada observación.

Véase la figura 3.

Obsérvese que en la función LN(número) de la columna D, el parámetro de localización, el cual

se obtiene de la celda L8, vale cero. Esto es importante, ya que la celda que contiene el

parámetro de localización será la celda cambiante de Solver, en el caso que sea necesario

calcular este parámetro. Los valores de la abscisa x se muestran en la tabla 3.

78

Page 79: 2012_cONFIABILIDAD_ARTICULOS

4. Calcule el valor de la ordenada y, es decir, el logaritmo del logaritmo del inverso de uno

menos el rango de mediana para cada uno de las observaciones de la muestra. Véase la figura 4.

Obsérvese la anidación de la función logaritmo. El valor del rango de mediana se obtiene de los

datos calculados en la columna C. Los valores de la ordenada y se muestran en la tabla 4.

79

Page 80: 2012_cONFIABILIDAD_ARTICULOS

5. Genere un gráfico con los datos de las columna D y E.

Al trazar estos puntos, se genera la recta de regresión. Para ello selecciónese Gráfico del menú

Insertar de Excel; aparece la ventana Asistente para gráficos. En ésta, escójase la opción XY

(Dispersión) en la lista Tipo de gráfico y síganse las instrucciones en pantalla. Véase la figura 5

Para hallar la ecuación de la recta de regresión, empléense las funciones: PENDIENTE

(conocido_y; conocido_x) donde: conocido_y son los valores dependientes (valores de la columna

E) y conocido_x son los valores independientes (valores de la columna D) para estimar la

pendiente de la recta; INTERSECCIÓN.EJE (conocido_y; conocido_x) para estimar el intercepto de

la recta. Para determinar el grado de correlación lineal de los puntos, empléense las funciones:

PEARSON (matriz1; matriz2) donde matriz1 son los valores dependientes (columna E) y matriz2

son los valores independientes (columna D). Esta función devuelve el coeficiente de correlación

r. COEFICIENTE.R2 (conocido_y; conocido_x) devuelve el cuadrado del coeficiente de correlación.

Estos valores, en sí, representan una especie de prueba de bondad de ajuste de la recta de

regresión. El coeficiente de correlación está indicando que tan fuerte o débil es la relación lineal

entre los datos; si este valor es más cercano a uno, hay una fuerte dependencia lineal. Por otro

lado, el coeficiente de determinación, r2, está indicando el porcentaje de los puntos que están

relacionados linealmente.

Aplicando las anteriores funciones de Excel, se obtiene la siguiente recta de regresión:

y=0.6995x-1.9514 (7)

80

Page 81: 2012_cONFIABILIDAD_ARTICULOS

De donde:

El coeficiente de correlación, r, indica que hay una excelente relación (dependencia) lineal de los

datos, ya que su valor está muy próximo a uno. El coeficiente de determinación, r2, indica que el

94.64% de los datos están relacionados linealmente. En conclusión, estos valores indican que la

muestra se comporta conforme a la función de densidad de Weibull.

6. Estime el valor del parámetro de forma y de escala.

Dado que el parámetro de forma es la pendiente de la recta de regresión, de la ecuación (7) se

obtiene:

De la ecuación (4), numeral 3.1, se obtiene el valor del parámetro de escala:

3.4 Consideraciones sobre el parámetro de localización

Las siguientes consideraciones se deben tener en cuanta al momento de analizar un parámetro

de localización diferente de cero. Véanse las referencias bibliográficas [1], [6]

a) Si al graficar los puntos de la muestra aparece una cola de puntos hacia arriba o hacia abajo,

es un indicativo de que el parámetro de localización debe ser calculado.

b) Una cola hacia abajo o una reducción súbita de la pendiente son indicativos de que un

parámetro de localización positivo está presente. Véase la figura 5.

c) Una cola hacia arriba o un incremento súbito de la pendiente son indicativos de que un

parámetro de localización negativo está presente. Este punto está de acuerdo con el intervalo de

validez de . Véase el numeral 2.

Un parámetro de localización negativo se presenta cuando hay unidades con fallas en servicio, o

unidades en servicio con defectos que causarán fallas. Ejemplos:

Defectos originados durante el ensamble.

Defectos originados durante el transporte.

Defectos originados durante la instalación o montaje.

81

Page 82: 2012_cONFIABILIDAD_ARTICULOS

Defectos originados durante el almacenamiento.

d) Valores grandes del parámetro de forma (β>10) son otro indicativo de que el parámetro de

localización debe ser calculado.

Teniendo en cuanta las consideraciones anteriores, y analizando la figura 5, se procederá a

calcular el parámetro de localización.

3.5 Cálculo del parámetro de localización

Para el cálculo del parámetro se usará el complemento Solver de Excel, ya que debe ser

determinado por ensayo y error.

Para empezar, se debe definir la celda cambiante que, como se mencionó en el paso 3 del

numeral 3.3, debe ser la celda donde se asignó el valor cero. Esta celda debe estar involucrada

en una función. Véase la figura 3.

El mejor estimador de es el valor de que proporcione el mejor ajuste de la línea de

regresión de los datos muéstrales. El coeficiente de determinación, r2, proporciona esta medida

[1], ya que éste mide la cantidad de puntos que están relacionados linealmente y, por lo tanto, la

celda que contenga este valor será la celda objetivo a maximizar — pues el objetivo es mejorar

el ajuste de la recta de regresión—. Para iniciar el cálculo se debe indicar al programa un punto

de inicio, o punto semilla, en la celda cambiante. El mejor valor de inicio de es un valor

ligeramente inferior al valor más bajo del tiempo entre fallas de la muestra. Para el ejemplo, el

punto semilla sería 0.166 (es ligeramente inferior al valor más bajo del tiempo entre fallas de la

muestra, el cual corresponde al dato de orden uno —0.167—. Véase la tabla 1). Este constituye

la restricción en Solver. Véase la figura 6.

82

Page 83: 2012_cONFIABILIDAD_ARTICULOS

Es importante tener en cuenta que la celda objetivo debe contener una formula que relacione

directa o indirectamente el valor de la celda cambiante. Para el ejemplo la formula sería

COEFICIENTE.R2 (E3:E142, D3:D142). Obsérvese que el rango del segundo argumento involucra

la celda cambiante L8. Véase la figura 3.

Al hacer clic en el botón Resolver de la ventana Parámetros de Solver, el programa genera la

solución 0.161, siendo este el valor del parámetro de localización, y el coeficiente de correlación

se maximiza a 0.9886; es decir, al tener en cuenta el parámetro de localización se mejora el

ajuste de la recta de regresión. De igual manera, los parámetros de forma y escala, y los valores

de las abscisas (Xi) y ordenadas (Yi) se actualizan. Véase la figura 7.

Para que los valores se actualicen automáticamente, éstos deben estar relacionados por

fórmulas, tal y como se muestra en la figura 8.

83

Page 84: 2012_cONFIABILIDAD_ARTICULOS

Nótese que el valor del parámetro de localización es positivo, corroborando lo dicho en la parte

b) del numeral 3.4. La figura 9 muestra el trazo de la nueva recta de regresión, siendo notable la

agrupación de los puntos en forma de línea. Comparece esta figura con la figura 5.

En la figura 10 se muestra el gráfico de la función de densidad de Weibull para los parámetros

calculados. Reemplazándolos en la ecuación (1) se obtiene la siguiente ecuación:

84

Page 85: 2012_cONFIABILIDAD_ARTICULOS

CONCLUSIONES

1. El método de los mínimos cuadrados facilita el cálculo de los parámetros de la distribución de

Weibull cuando se emplean programas informáticos como Excel.

2. El análisis del gráfico de la recta de regresión sirve de criterio para determinar si es necesario

calcular el parámetro de localización.

3. El parámetro de localización tiene un gran efecto en la recta de regresión; sin embargo, se

debe analizar concienzudamente si un diferente de cero es necesario.

4. El coeficiente de correlación, r, y el coeficiente de determinación, r2, se constituyen en una

prueba de bondad de ajuste para la recta de regresión.

REFERENCIAS BIBLIOGRÁFICAS

1. Dodson, Bryan. The Weibull Analysis Handbook. 2da ed. Milwaukee, Wisconsin: ASQ

Quality Press, 2006.

2. Abernethy, Robert B. The New Weibull Handbook. 5ta ed. North Palm Beach, Florida.

2006

3. Walpole, Ronald E y Raymond Meyers. Probabilidad y estadística para ingenieros. 3ra ed.

México: Interamericana, 1990

85

Page 86: 2012_cONFIABILIDAD_ARTICULOS

4. Céspedes Zapata, Lucas y Santiago Mejía Isaza. Implementación de un Sistema de

Indicadores para la gestión de Mantenimiento de una empresa textilera. Medellín,

2005,194p. Trabajo de grado Ingeniería Mecánica. Universidad EAFIT. Departamento de

Ingeniería Mecánica. Área de mantenimiento.

5. Tamborero del Pino, José María. NPT 331: Fiabilidad: La distribución de Weibull [En línea]

Disponible en:

http://www.insht.es/InshtWeb/Contenidos/Documentacion/FichasTecnicas/NTP/Ficheros/

301a400/ntp_331.pdf [Consulta: 22 de julio de 2010]

6. Estimation of the Weibull parameters [En línea] Disponible en:

http://www.weibull.com/LifeDataWeb/lifedataweb.htm [Consulta. 26 de julio de 2010]

7. Yáñez, Medardo; Perdomo, José L y Gómez de la Vega, Hernando. Ingeniería de

Confiabilidad: Pilar fundamental del mantenimiento [En línea] Disponible en:

http://confiabilidad.net/articulos/ingenieria-de-confiabilidad-pilar-fundamental-del-

mantenimiento/#comment-list [Consulta: 28 de julio de 2010]

8. Duarte Holguín, Juan Carlos. Mantenimiento centrado en confiabilidad usando métodos

de simulación del ciclo de vida [En línea] Disponible en:

http://www.noria.com/sp/rwla/conferencias/mem/Duarte-paper.pdf [Consulta: 28 de julio

de 2010]

9. García Palencia, Oliverio. Optimización estadística del mantenimiento industrial [En línea]

Disponible en:

http://www.aciem.org/bancoconocimiento/O/Optimizacionestadisticadelmantenimientoin

dustr/Optimizacionestadisticadelmantenimientoindustr.asp [Consulta: 28 de julio de

2010]

10.Luna, Ana Eugenia. Teoría de la confiabilidad [En línea] Disponible en:

http://focuslab.lfp.uba.ar/public/CursoTErrores2k4/Monografias2005/Ana_E_Luna.pdf

[Consulta: 22 de julio de 2010]

86