2012_cONFIABILIDAD_ARTICULOS
-
Upload
marco-diaz -
Category
Documents
-
view
19 -
download
4
Transcript of 2012_cONFIABILIDAD_ARTICULOS
[
]ES UN COMPENDIO DE VARIOS ARTICULOS QUE HABLAS SOBRE LA CONFIABILIDAD Y EL ESTABLECIMIENTO DE LA VIDA UTIL DE LOS EQUIPOS ASI COMO CRITERIS ESTADISTICOS APLICADO PARA EL CALCULO DE LA CONFIABILIDAD
2012
Sandra Rosas
4. El Mantenimiento como Fuente de Rentabilidad
Para evaluar la gestión del mantenimiento, se han de definir claramente los objetivos que el mantenimiento pretende conseguir. Estos objetivos se fijarán en función de los objetivos de la empresa (rentabilidad, en mercados competitivos). La mejor manera de saber si dichos objetivos se consiguen o no y cómo contribuyen a mejorar la competitividad de la empresa es cuantificarlos en términos monetarios.
Hoy en día, las estrategias del mantenimiento están encaminadas a garantizar la disponibilidad y eficacia requerida de las unidades, equipos e instalaciones, asegurando la duración de su vida útil y minimizando los costos de mantenimiento, dentro del marco de la seguridad y el medio ambiente.
Los factores críticos de éxito de la gestión del mantenimiento son la Disponibilidad y la Eficiencia, que van a indicarnos la fracción de tiempo en que las unidades o equipos están en condiciones de servicio (Disponibilidad) y la fracción de tiempo en que su servicio resulta efectivo para la producción.
La disponibilidad se ha de tener sólo cuando se requiere, lo cual no quiere decir que haya de ser por igual en todos los recursos (unidades), pues depende mucho de la criticidad de los mismos, y esa criticidad puede variar según las condiciones del mercado. Tener una disponibilidad demasiado elevada en recursos (unidades) que no la necesitan sólo ocasiona un exceso de costos, al hacer un uso excesivo de los recursos de mantenimiento.
La mejora en los dos ratios de Disponibilidad y eficiencia y la disminución de los costos de mantenimiento suponen el aumento de la rentabilidad de la empresa y por tanto tiene influencia directa sobre las utilidades.
4.1 Evolución del concepto de Mantenimiento
Antes de esta mirada a aspectos del mantenimiento revisemos algunas definiciones básicas:
Mantenimiento Preventivo: Tarea que involucra cambios/reconstrucciones de partes/equipo bajo una base regular, sin importar el estado de las mismas.
Mantenimiento Predictivo: Busca mediante inspecciones periódicas determinar cuando cambiar o reconstruir una parte/equipo en función del estado actual de los mismos.
Mantenimiento Detectivo: Busca detectar la ocurrencia de fallas ocultas en equipos de protección y/o respaldo.
Mantenimiento Correctivo: Restitución del equipo al estado operativo óptimo después de la ocurrencia de una falla.
2
Riesgo: Dado matemáticamente por el producto de la probabilidad de ocurrencia de un evento y sus consecuencias
El objetivo fundamental del mantenimiento, es preservar la función y la operabilidad, optimizar el rendimiento y aumentar la vida útil de los activos, procurando una inversión óptima de los recursos. Este enfoque del mantenimiento es resultado de una evolución importante a través del tiempo. La literatura [1] distingue entre tres generaciones diferentes de mantenimiento. Cada una de las cuales representa las mejores prácticas utilizadas en una época determinada.
En los últimos años se ha vivido un crecimiento muy importante de nuevos conceptos de mantenimiento y metodologías aplicadas a la gestión del mantenimiento.
Hasta finales de la década de los 90, los desarrollos alcanzados en la 3º generación del mantenimiento incluían:
Herramientas de ayuda a la decisión, como estudios de riesgo, modos de falla y análisis de causas de falla.
Nuevas técnicas de mantenimiento, como el monitoreo de condición Equipos de diseño, dando mucha relevancia a la confiabilidad y mantenibilidad. Un cambio importante en pensamiento de la organización hacia la participación, el
trabajo en equipo y la flexibilidad
A estos usos, se han ido añadiendo nuevas tendencias, técnicas y filosofías de mantenimiento hasta nuestros días, de tal forma que actualmente se puede hablar de una “cuarta generación” del mantenimiento.
El nuevo enfoque se centra en la eliminación de fallas utilizando técnicas proactivas. Ya no basta con eliminar las consecuencias de la falla, sino que se debe encontrar la causa de esa falla para eliminarla y evitar así que se repita.
Asimismo, existe una preocupación creciente en la importancia de la mantenibilidad y confiabilidad de los equipos, de manera que resulta clave tomar en cuenta estos valores desde la fase de diseño del proyecto. Otro punto importante es la tendencia a implantar sistemas de mejora continua de los planes de mantenimiento preventivo y predictivo, de la organización y ejecución del mantenimiento.
A parte de estas características descritas anteriormente, existen otros dos temas importantes dentro del mantenimiento actual cuya importancia ha aumentado de manera muy importante en los últimos años:
La Gestión del Riesgo: Cada día cobra más importancia la identificación y control de los posibles sucesos que presentan una baja probabilidad pero consecuencias graves, sobre todo en organizaciones que operan en industrias con riesgo. El mantenimiento se está viendo como un participante clave en este proceso. En el pasado, este tipo de sucesos se controlaban simplemente con una extensión de los
3
Sistemas de Gestión de Seguridad y Medio Ambiente implantados en cada empresa. Sin embargo, existe una creciente percepción de que la aplicación de estos sistemas de gestión a los sucesos de “baja probabilidad / consecuencias graves” no es efectiva, por lo que es necesario desarrollar otras metodologías.
Patrones de Falla: Las nuevas investigaciones están cambiando muchas de las tradicionales creencias sobre la relación existente en una máquina entre el envejecimiento y la falla. En particular, se ha demostrado que para muchos equipos existe muy poca relación entre el tiempo de operación y la probabilidad de falla. El enfoque inicial del mantenimiento suponía que la probabilidad de que una máquina falle aumenta según el tiempo de operación, siendo mayor la probabilidad de falla en la “vejez” de la máquina. La segunda generación de mantenimiento introdujo el concepto de “mortalidad infantil”. De esta forma la tasa de fallas de una máquina puede ser representada con una curva de bañera, existiendo, por tanto, más probabilidad de falla durante el principio y el final de su vida útil
Sin embargo, en el mantenimiento actual se ha demostrado que podemos definir seis patrones diferentes de tasa de fallas, según el tipo de máquina que estemos utilizando.
Tener en cuenta el patrón al que se ajusta cada elemento es fundamental si se quiere conseguir una óptima planificación del mantenimiento.
Debemos estar seguros de que el mantenimiento que ha sido planificado es el adecuado, ya que de nada sirve realizar el trabajo planificado de manera correcta, si éste no es el más adecuado.
Figura 4.1: Nuevos patrones de tasas de falla.
Para los patrones de falla A, B y C, la probabilidad de falla aumenta con la edad hasta alcanzar un punto en el que es conveniente reemplazar el componente antes de que falle y así reducir su probabilidad de falla. En el caso de los componentes que presentan una probabilidad de falla del modelo E, reemplazar el componente no mejorará en ningún caso
4
su confiabilidad, ya que el nuevo elemento tendrá la misma probabilidad de falla que el antiguo.
Si el patrón de falla al que se ajusta el componente es el F, reemplazar el elemento a intervalos fijos por un componente nuevo, no sólo no mejorará la confiabilidad, sino que aumentará la probabilidad de falla, ya que en la“infancia” presenta más mortalidad que en la vejez.
En el gráfico se observa que más del 50% de los componentes presentan fallas en la “infancia”. Esto quiere decir que cada vez que se repara o reemplaza un equipo, las posibilidades de falla prematura debido a esa operación de mantenimiento son muy elevadas. Alguna de las posibles explicaciones que se pueden dar a este hecho, son errores humanos, errores del sistema, errores de diseño o errores de piezas.
Por lo visto anteriormente, está claro que el mantenimiento actual debe centrarse en reducir las operaciones de mantenimiento provocadas por fallas que se ajustan al modelo F. Es decir, fallas ocurridos en la “infancia” de los equipos. Para los elementos que ajusten su tasa de fallas a este patrón F, un mantenimiento planificado a intervalos fijos aumentará las posibilidades de falla, ya que el equipo nuevo presentará más probabilidad de falla que el antiguo. Por ese motivo existe una tendencia generalizada a “mantener lo mínimo posible”, debido a que cualquier operación de mantenimiento realizada puede aumentar la probabilidad de falla.
Otra posibilidad, es centrarse en reducir de manera global las probabilidades de falla sobre todos los modelos. La forma de realizar esto, es mediante la utilización de un Mantenimiento Proactivo, es decir buscar la forma de eliminar los fallas, más que eliminar sus consecuencias.
Para eliminar las fallas, hay que eliminar sus causas, lo que implica conocerlas. Existen herramientas como el Análisis Causa-Raíz que ayudan a identificar y eliminar las causas de los fallas, aunque en muchas ocasiones se utiliza como una herramienta reactiva más que proactiva.
A modo de resumen, en las siguientes gráficas se presenta como han ido evolucionando las expectativas y técnicas del mantenimiento durante el último siglo:
5
Figura 4.2: Objetivos del Mantenimiento.
Figura 4.3: Evolución de las Técnicas de Mantenimiento.
4.2 Técnicas de Mantenimiento
Hoy en día existen infinidad de diferentes herramientas, técnicas, metodologías y filosofías de mantenimiento. Algunas de las más utilizadas entre otras pueden ser:
Mantenimiento Autónomo / Mantenimiento Productivo Total (TPM) Mejoramiento de la Confiabilidad Operacional (MCO) Mantenimiento Centrado en la Confiabilidad (RCM)// (MCC) Mantenimiento Basado en el Riesgo (MBR) Asset Integrity Mantenimiento Centrado en Confiabilidad en Reversa (MCC-R) Análisis Causa raíz (ACR) Análisis de Criticidad (AC) Optimización Costo Riesgo (OCR)
6
Inspección Basada en Riesgo (RBI)(IBR)
En efecto los métodos para mejorar la confiabilidad se podrían dividir en dos:
Métodos Proactivos: Buscan la mejora de la confiabilidad mediante la utilización de técnicas que permitan la paulatina eliminación de las fallas tanto crónicas como potenciales. Claros ejemplos son el Mantenimiento Centrado en la Confiabilidad y el Mantenimiento Productivo Total.
Métodos Reactivos: Buscan de una manera rápida y eficaz la solución de problemas cotidianos y evitar repetición de eventos mayores. En líneas generales se trata de métodos sobre todo "post-morten". Actualmente su mejor exponente es el Análisis Causa Raíz.
Nos referiremos a continuación muy brevemente a algunas de ellas:
4.2.1 Mantenimiento Centrado en la Confiabilidad (RCM)
Esta técnica surge a finales de los años sesenta como respuesta al incremento de costos y actividades del mantenimiento de las aeronaves (básicamente preventivo). En esta industria demuestra ser muy valioso, no sólo bajando los costos y actividades de mantenimiento, sino que además mejora los niveles de confiabilidad, disponibilidad y seguridad. Estos éxitos lo hicieron apetecible a otras industrias, como la militar, petrolera y de generación de electricidad.
Esta técnica se basa en seleccionar mantenimiento sólo donde las consecuencias de las fallas así lo requieren, para esto se necesita hacer un estudio exhaustivo de todas las funciones, fallas, modos y consecuencias de las fallas, para luego decidir donde y que tipo de mantenimiento hacer. Establece un orden de prioridades: la seguridad y ambiente, producción, costos de reparación. Esto ha hecho que sea una herramienta valiosa en las industrias que requieren elevados niveles de seguridad, generando a cambio de los esfuerzos, buenos resultados.
Bajo su enfoque tradicional resulta muy difícil de aplicar en grandes industrias debido a que no resuelve algunas interrogantes mayores como ¿Cuándo hacer el mantenimiento? y ¿Cómo generar una jerarquía de implantación?
Es una técnica bastante analítica, lo cual ha traído problemas de implantación, debido a que a veces resulta difícil pasar del papel a la realidad. Conduciendo esto a fuertes perdidas de dinero y esfuerzos, degenerando al final en frustración de los equipos de trabajo. Se trata de una práctica recomendada por el Energy Power Research Institute (EPRI) para sistemas eléctricos.
4.2.2 Mantenimiento Productivo Total (TPM)
7
Conocido por los grandes beneficios que ha obtenido en empresas manufactureras. Demostró su poder en Japón y ha comenzado a diseminarse a lo largo del mundo. Hace un gran esfuerzo en el trabajo en equipos. Se apoya fuertemente en limpieza y lubricación como fuentes que eliminan problemas crónicos. Requiere de una profunda cultura de trabajo en equipo y sentido de propiedad de los bienes por parte de los trabajadores.
De no poseer estos se requiere de un fuerte trabajo en el cambio cultural. Está muy ligado a los conceptos de mejoramiento continuo de la calidad y filosofías cero defectos. Difícil de aplicar en empresas de procesos, debido en muchos casos a lo ambiguo que resultan los conceptos de calidad y defectos, por otra parte el problema cultural puede entorpecer la implantación a niveles de frustración.
Donde se ha logrado su implantación exitosa, se han tenido grandes logros respecto a seguridad, ambiente, confiabilidad, disponibilidad y costos de mantenimiento. Tampoco responde a las interrogantes ¿Cuándo hacer el mantenimiento? y ¿Cómo generar una jerarquía de implantación?
4.2.3 Análisis Causa Raíz (ACR)
Técnica poderosa que permite la solución de problemas, con enfoque a corto y mediano plazo. Usa técnicas de investigación bastante exhaustivas, con la intención de eliminar las causas de los problemas/fallas. Su valor no sólo reside en la eliminación de grandes eventos, sino en la eliminación de los eventos crónicos, que tienden a devorar los recursos de mantenimiento. Al eliminar paulatinamente los problemas crónicos y pequeños, este genera tiempo para análisis más profundos (RCM, por ejemplo).
4.3 Mejoramiento de la Confiabilidad Operacional (MCO)
El mejoramiento en la confiabilidad operacional desarrollada en U.K. con la intención de agrupar las mejores practicas de mantenimiento y operaciones con una orientación al negocio. Reconoce las limitaciones que el mantenimiento como función tiene para lograr una confiabilidad adecuada de las instalaciones.
La figura ilustra un poco mas la idea:
8
Figura 4.4: Confiabilidad Operacional.
Para mejorar los 4 sectores nombrados en la gráfica anterior, el MCO divide las técnicas de mejoramiento:
Diagnóstico Aquí mediante uso de técnicas asociadas al manejo de riesgo se cuantifican las oportunidades a corto plazo (reactivas) y mediano largo plazo (proactivas). Como resultado se obtiene una jerarquía de implementación. Aquí se hace uso de herramientas de análisis de criticidad y de oportunidades perdidas (a modo de ejemplo), estas permiten establecer las oportunidades de mejoramiento y que herramientas de control podrían usarse para capitalizar las oportunidades halladas
Control Aquí se usa el RCM+ (que combina algunas ventajas del TPM con el RCM) como técnica proactiva y el ACR como técnica reactiva, también se puede hacer uso del IBR para equipos estáticos. Como resultado se obtienen una serie de tareas de mantenimiento, operaciones, rediseño a ejecutar para mejorar el desempeño.
Estas técnicas de control por lo general son técnicas del tipo cualitativo y basadas en reglas fijas para la toma de decisión (por ejemplo: diagramas lógicos).
Optimización Aquí mediante el uso de herramientas avanzadas de cálculo costo riesgo se hallan los intervalos óptimos de mantenimiento, paradas de planta, inspecciones, etc.
Se trata de técnicas del tipo numérico e involucran el modelado de los equipos y/o sistemas.
Los resultados de implementar estas herramientas de esta manera son impresionantes en diversas industrias, logrando en algunos casos incluso la transformación de las empresas llevándolas a la implementación de Gerencia de Activos (Asset Management)
9
Grandes resultados se han encontrado en Centrales Eléctricas con la implantación del Mantenimiento Centrado en la Confiabilidad y con el Análisis Causa Raíz. Un requisito que no debe dejarse de cumplir es el establecimiento previo de prioridades antes de la ejecución de ambas técnicas (simultaneas). Se han desarrollado herramientas como el análisis de criticidad y el análisis de oportunidades perdidas que pueden resolver dicha inquietud eficazmente.
Por otra parte normalmente ambas técnicas generarán soluciones que podrían ser agrupadas en:
Cambios de diseño. Tareas preventivas. Tareas de Inspección (Detección y Predicción). Tareas correctivas.
La respuesta a cuando ejecutar dichas tareas no es simple, y en muchos casos no puede ser fijada por la ley del dedo. Grandes beneficios económicos han sido reportados con el uso de software, que pueden calcular el punto de ejecución con menor costo/riesgo posible para las tareas anteriores.
4.4 Inspección Basada en Riesgo
Un capitulo especial se abre con esta técnica, que establece patrones de inspección de equipos estáticos (calderas, líneas de transmisión, etc.) en función de su riesgo asociado, nuevas aproximaciones permiten usar software para tomar en cuenta también el estado actual del equipo, lo que desencadena una continua optimización por costo/riesgo y no una frecuencia de inspección fija. Los reportes económicos han sido cuantiosos, además de los beneficios por disponibilidad y producción. También es posible optimizar con este tipo de técnicas la frecuencia de búsqueda de fallas ocultas (pesquisa de fallas, mantenimiento detectivo), dejándose de usar entonces formulas mágicas que no generan una frecuencia óptima por costo/riesgo, pudiéndose simular factores como probabilidad de éxito de la prueba y probabilidad de destrucción del equipo probado.
4.5 Modelos de Optimización del Mantenimiento
Los modelos de optimización de mantenimiento se definen [3] como aquellos modelos matemáticos cuyo objetivo es encontrar el equilibrio óptimo entre los costos y beneficios de éste, tomando en cuenta todo tipo de restricciones. En casi todos los casos, las ventajas del mantenimiento consisten en ahorros de costos en los cuales de otro modo se incurriría (por ej, menor costo de fallas). Esta definición no incluye todos los modelos de investigación de operaciones aplicados en el mantenimiento. La programación de interrupciones de plantas de energía eléctrica para mantenimiento no es considerada, a menos que los aspectos de mantenimiento típicos (como el deterioro) sean modelados explícitamente. Se excluyen técnicas de dirección de proyecto, aunque algunas sean usadas en la planificación de cierre de instalaciones principales en la industria de proceso, cuando éstos carecen de los aspectos costo-beneficio del mantenimiento.
10
También se excluye los modelos de reemplazo de repuestos cuando éstos se enfocan principalmente en el control de inventario.
En general, los modelos de optimización de mantenimiento cubren cuatro aspectos:
1. Una descripción de un sistema técnico, su función y su importancia, 2. Un modelado del deterioro del sistema en el tiempo y consecuencias posibles para
el sistema, 3. Una descripción de la información disponible acerca del sistema y las acciones
dispuestas por la dirección 4. Una función objetivo y una técnica de optimización que ayuda en el descubrimiento
del mejor equilibrio.
En [4] los modelos se clasifican según la modelación del deterioro en:
Modelos deterministicos Modelos estocásticos
o En Riesgo o Bajo Incertidumbre
Ellos distinguen entre un sistema simple (componente unico) y un sistema complejo. La diferencia entre riesgo e incertidumbre es que en caso del riesgo se asume que una distribución de probabilidad del tiempo de falla está disponible, lo que no ocurre en el caso de la incertidumbre. Este por lo tanto incluye modelos con políticas adaptativas. Los métodos de optimización empleados incluyen programación lineal y no lineal, programación dinámica, métodos de decisión de Markov, técnicas de análisis de decisión, técnicas de búsqueda y metodologia heurística.
Los modelos de optimización de mantenimiento proporcionan varios resultados. En primer lugar, las políticas pueden ser evaluadas y comparadas con respecto a las características de confiabilidad y rentabilidad. En segundo lugar, los resultados pueden ser obtenidos en la estructura de monitoreo(vigilancia) óptimas, como la existencia de una política optima en los límites de control. En tercer lugar, los modelos pueden asistir en el aspecto del tiempo: con que frecuencia inspeccionar o mantener. Todos estos resultados se refieren al concepto de mantenimiento; el último también se refiere adicionalmente a la planificación del mantenimiento. Finalmente, los modelos también pueden ayudar en la determinación efectiva y eficiente de programas y planes, tomando en cuenta todos los tipos de restricciones.
Cuando la dirección de un departamento de mantenimiento se encuentra en una condición de “mantenimiento reactivo”. Una de las mejores maneras de afrontar los inicios de la gestión para pasar a la condición de “mantenimiento planificado” es utilizando métodos sencillos de optimización de cadenas de valor como la teoría de restricciones y los modelos de colas La teoría de restricciones [5 ]se centra, básicamente, en la búsqueda del flujo perfecto de bienes o servicios a través de una cadena de valor balanceada, coordinada y
11
sincronizada de estaciones de trabajo, logrando así, bajar los costos de operación, reducir los inventarios y aumentar las ventas.
En el caso de un departamento de mantenimiento aplica todo lo anterior, ya que por un lado, la función mantenimiento no es otra cosa que un conjunto ordenado de actividades que agregan valor a un “servicio prestado”, desde una condición inicial conocida hasta una condición final que debe cumplir con los parámetros de calidad y seguridad establecidos o convenidos entre el ente encargado de agregar valor (Departamento de Mantenimiento) y el que lo recibe (clientes internos) en un tiempo determinado. Siendo el servicio prestado un bien intangible podemos tomar la “solicitud de trabajo” como elemento tangible del servicio en su condición inicial, la “orden de trabajo en proceso” como elemento tangible del servicio en tránsito y la “orden de trabajo culminada” como elemento tangible del servicio en su condición final.
Por otro lado, en cuanto a los resultados esperados, podemos establecer una relación directa, ya que, los costos de operación son los gastos de mantenimiento, los inventarios estarían representados por las ordenes de trabajo (sin atender y en tránsito) y las ventas se pueden asociar directamente con el nivel de servicio (cantidad de solicitudes atendidas en una cantidad de tiempo determinada).
Según la teoría de restricciones, el primer paso para la implantación es identificar los cuellos de botella (estaciones de servicio que determinan la velocidad del flujo en el sistema), luego se asignan las prioridades a los trabajos a ser ejecutados y finalmente se balancea el sistema. Este proceso es reiterativo, ya que al cambiar las condiciones externas o internas del sistema, van apareciendo nuevos cuellos de botella, lo que trae consigo nuevas acciones correctivas.
4.6 Relación entre Mantenimiento, Disponibilidad y Rentabilidad
Análisis de un caso particular 1
Relación entre el Mantenimiento Programado y las salidas forzadas, su impacto Económico en la elección de Metas de Disponibilidad [7].
Las técnicas para estimar la Disponibilidad Optima Económica (OEA) de una unidad generadora se ha enfocado en la comparación del costo "frontera" [8] de la unidad por el porcentaje de mejora de su valor marginal. Aunque ha sido normalmente aceptado que la cantidad de salidas no planeadas que una planta experimenta es, en parte, una función de la cantidad del mantenimiento programado, aquella relación no ha sido bien determinada. El estudio [7] explora aquella relación y examina su impacto económico en la elección de metas de disponibilidad.
Análisis
Usando una base de datos del Edison Electric Institute (un predecesor del actual GADS system administered by the North American Electric Reliability Council) para grandes
12
unidades carbón de 1971 a1978, fue deducida una relación lineal entre la indisponibilidad planeada y la indisponibilidad no planeada. El coeficiente de correlación fue 0.895, informando de una fuerte relación. Como los datos tienen ahora más años y la disponibilidad de la industria ha mejorado considerablemente desde aquel tiempo, la constante en la ecuación ya no es acertada o verdadera. Sin embargo, se considera que la pendiente (slope) de la curva permanece cerca del original calculado en un valor de -0.5897 [6]. Esto significa que por cada punto porcentual adicional que aumentamos nuestras salidas programadas (el total planeado, salidas por mantenimiento y derating equivalent) las salidas forzadas y derating equivalent decrecerán en 0.5897 puntos porcentuales.
Maximizar Disponibilidad
Como se puede ver fácilmente, a fin de maximizar disponibilidad usando la ecuación deducida de estos datos, se debería minimizar la cantidad de interrupciones programadas dado que, por cada punto porcentual que se reducen las interrupciones planeadas, se podría esperar un aumento de la disponibilidad de la unidad en 0.4103 puntos porcentuales (1-0.5897) (Obviamente este se aplica sólo dentro de los límites de los datos; fuera de aquellos límites la relación es probablemente no- lineal).
Si maximizar disponibilidad fuera la tarea de una compañía de generación, entonces este modelo o estrategia sería óptimo. Sin embargo, no se esta simplemente encargados de maximizar la disponibilidad, sino mas bien de minimizar los costos de producir y distribuir energia para satisfacer la demanda de los clientes (o maximizar la ganancia de la compañia en caso de sistemas desregulados). Aunque maximizar disponibilidad ha usualmente sido considerado sinónimo de minimizar costos, el análisis siguiente demuestra que esta aseveración no es necesariamente válida.
Minimizar Costos
Ha sido siempre reconocido que una hora o día o un porcentaje de salida programada es normalmente mucho menos costoso (en términos de reeplazar el costo de la energía) que una hora o día o porcentaje de estos de salida forzada, ya que una compañía de generación intenta programar sus interrupciones durante períodos de demanda mínima (o de costos minimos para la empresa- otra forma de verlo es en que lo que se deja de ganar sea minimo). Durante muchos años algunas compañías de generación han estado calculando estos costos por hora, diariamente, semanalmente y estacionalmente. Un análisis de estos costos ha mostrado que para grandes unidades a carbón base-carga la razon"promedio" entre el costo “de salidas forzadas” y el “costo de salidas programadas” varía entre 3.0 y 4.5 (excepcionalmente durante condiciones “ajustadas" entre la oferta y demanda esta razón puede ser mucho más alta y la volatilidad puede ser mucho mayor durante peaks estacionales). También, esta razón de costos para unidades cíclicas y unidades de punta es mucho mayor (al menos uno a dos órdenes de magnitud mayor).
Por lo tanto, cuando se calcula el costo de interrupciones y se usa la razón mas baja para grandes unidades de carbón, osea 3.0 según lo dicho anteriormente, en efecto se cambia la pendiente de la ecuación (en términos monetarios, no porcentuales) en un factor de 3.0 de
13
modo que ahora: Pendiente(Slope) = 3.0 x -0.5897 =-1.7691
Esto significa que por cada dólar que se "ahorra" reduciendo el mantenimiento programado, se puede esperar “gastar o pagar" un promedio de 1.7691 dólares extra por efecto de interrupciones forzadas incrementadas. Entonces si el objetivo es minimizar el costo total se debería obviamente aumentar la programación y salidas por mantenimiento a efectos de reducir nuestro costo de salidas no programadas, sin tener en cuenta el efecto que podría tener en nuestra disponibilidad.
Nueva Medida
Algunas compañías que han identificado el problema de utilizar el Factor de Disponibilidad Equivalente (EAF) para evaluar el rendimiento de la planta han comenzado a usar el término Disponibilidad Comercial (CA), anteriormente analizado, que intenta enfrentar el tema "ponderando o “pesando" las medidas de disponibilidad tradicionales por algún indicador de costo marginal o costo de mercado. Entre tanto se mantienen estas grandes promesas de medir adecuadamente el verdadero impacto económico de las interrupciones de una planta en el rendimiento financiero (rentabilidad) de la compañía, ninguna definición única ha sido adoptada por la industria y aún hay otras implicaciones que no han sido totalmente resueltas [9]y[10].
Análisis de un caso particular 2
Optimizar Costos de O&M para Maximizar Rentabilidad [11]
A menudo en la proforma de una central eléctrica propuesta, los costos O&M son tratados como un commodity (activo); un número para ser reducido tanto como sea posible. Sin embargo, varias estudios de la industria han mostrado que hay una correlación directa entre un cambio en el gasto de O&M en una central eléctrica dada y el resultante desempeño de aquella planta. El objetivo entonces, sería encontrar el nivel óptimo de gasto O&M que minimice el coste TOTAL ($ diseño + $ O&M + $ desempeño) y que maximice la rentabilidad.
Este proceso es muy difícil porque la relación entre el gasto de O&M y el desempeño de la planta no esta bien determinado o cuantificado. Varios estudios han mostrado que numerosos factores afectan esta relación, extendiéndose hacia atrás por todas partes a las decisiones iniciales de diseño (tecnología, equipamiento, calidad y configuración, tipo de combustible y calidad, etc.) y a través de la construcción, puesta en servicio y operaciones de ciclo de vida y mantenimiento, y decisiones de renovación o reemplazo.
O&M es especialmente importante ya que como se mostrará, como el 75% de una variación en la confiabilidad de la planta es inflluido por la calidad de la O&M, sólo el 25% es inflluido por el diseño o modo de operación. Todos estos factores interrrelacionados y la filosofia de O&M óptimo debe tomar en cuenta todas sus influencias, incluyendo factores “near-term” como ciclo de vida.
14
Pero, no es suficiente determinar simplemente el mejor plan de O&M una vez que el diseño esta determinado. Debería haber un diálogo activo entre el equipo de diseño y el equipo de O&M para encontrar la mejor combinación que producirá el máxima beneficio para cualquier proyecto en particular.
Antecedentes
La Southern Company es una de las grandes compañias privadas de servicios en los Estados Unidos. Establecido en Atlanta, Georgia, tiene activos por sobre los 25 mil millones de dólares y opera aproximadamente 35.000 MW . En 1993, sus plantas generaron más de 144 billones de kWh de electricidad con un 78 % de plantas de carbón , 17% nuclear, 14 %hidro y 1 % gas y petroleo. Sus unidades de carbón y nucleares tienen una confiabilidad promedio de 96 % (1- Indice de Interrupción Forzado equivalente - EFOR), este valor experimentó un incremento de 19 puntos porcentuales desde 1976 en que era de 77%. (Figura 1a)., Muchos factores se combinaron para conseguir esta importante mejora [12], un aumento significativo en gastos de capital en O&M y mejoras . Muchas de las plantas más viejas experimentaron el mismo patron en distintos grados. Esto es, que al principio se disminuia el gasto en O&M, seguido por un deterioro en la confiabilidad; se disponia entonces el dinero para las mejoras de la planta e invertir en incrementar la confiabilidad, aunque amenudo los gastos se postergaban por años. Esto condujo a analistas de la Compañía en un esfuerzo por intentar cuantificar la relación gastos/confiabilidad de las centrales eléctricas de la Southern Company.
Unidad Beanchmarking “par”
En 1991, el North American Electric Reliability Council (NERC) and Southern Electric Internacional (SEI) (el brazo desregulado de la Southern Company) desarrolló una metodología para determinar según estadísticas las caracteristicas de diseño y operación, mas significativas, para comparar el desempeño de unidades de generación similares [13]
El proceso de la unidad “par” beanchmarking actualmente empleado en NERC/SEI join ventures es el resultado de una evolución de ideas asociadas con el objetivo común de predecir o pronosticar el desempeño de las unidades de generación eléctrica. Los sistemas de planificación de las organizaciones confían en estas predicciones, y la exactitud o la inexactitud de tales proyecciones pueden ahorrar o bien costar millones de dólares en utilidades.
Por años, el método utilizado para hacer estas proyecciones en el Southern electric system fue una especie de “fuzzy trending”, donde los datos históricos y la información acerca de los planes de mantenimiento futuros de la unidad, modificaciones, y nivel de la utilización estan todos considerados en la predicción del desempeño de la unidad en el futuro. En un paper presentado en 1988 en la American Power Conference titulado, "Trends in Generating Unit Performance and the 1990's Power System," la General Electric Company desarrolló una ecuación para predecir la disponibilidad de unidades térmicas basada en la operación histórica y en la estructura o patron de gastos de mantenimiento. Este paper nos condujo a preguntarnos si una metodología con una base matemática estadística podría producir resultados más exactos que el método “fuzzy trending” usado en el pasado. La
15
ecuación fue aplicada a datos a nivel de sistema del Southern electric systemcon buenos resultados; sin embargo, los resultados eran erráticos cuando la ecuación fue aplicada a datos a nivel de unidades. En un esfuerzo para conseguir datos mas adecuados a nivel de unidades, el siguiente paso fue desarrollar una nueva ecuación usando análisis de regresión y datos de 85 unidades termicas del Southern electric system (25,000 MW). Más que asumir desde el comienzo que los factores principales que afectan la disponibilidad de la unidad eran ya conocidos, el proceso que fue desarrollado evaluaba el desempeño de la unidad (EFOR) relativo a numerosas características de diseño y de operación a fin de determinar los factores más importantes. La ecuación de regresión que resulta incluyó algunos años recientes y variables operacionales anteriores (EFOR, factor de servicio, y factor de interrupciones planeadas), algunas características de diseño (tipo de combustible, fabricante de la caldera, y fabricante de la turbina), y históricos desembolsos de O&M. Una comparación de la exactitud de las proyecciones hechas con el nuevo modelo matemático versus el viejo método fuzzy trending mostró que el modelo matemático fue superior. Aproximadamente el 80 % de las proyecciones del viejo método fueron altas, mientras que las proyecciones con el nuevo método fueron más cercanas a valores reales tanto con estimaciones bajas como altas. Fue alentador que aun en sus inicios, el modelo matemático apareció superior al método previamente usado. (Fig. b y c)
Hasta este punto, la metodología resultó en una gran ecuación que se aplicó a todas las unidades incluidas en la base de datos. Adicionalmente, el método usado para incorporar variables nominales en el análisis de regresión, como tipo de combustible, fabricante de la caldera y fabricante de la turbina fue un proceso engorroso. Fue decidido que el mismo, o aún mejor, los resultados podrían ser logrados subagrupando los datos por variables nominales importantes y aplicando el análisis de regresión a nivel de subgrupo. Este es el punto en cual la primera generación de unidades benchmarking pares se desarrolla. NERC y SEI firmaron un joint ventur para dar servicio a clientes en benchmarking de desempeño de sus unidades versus el de las unidades “par”. Los grupos “pares” para las unidades del cliente fueron desarrollados usando el análisis estadístico para determinar la característica que tenia el mayor impacto en el desempeño de la unidad, y dividiendo la base de datos en subgrupos basados en esta característica. El proceso fue seguido a niveles de subgrupo, con una división tras otra, hasta que ninguna característica restante fuera significativa para aquella division, o hasta que el número de unidades de par en la division cayera a un nivel mínimo aceptable. El resultado divide las 1213 unidades térmicas de la industria en 19 grupos de “unidades par” generales, con las características más significativas que son criticas, vintage, modo de operación, tamaño, tipo de diseño, tipo de combustible y el fabricante de caldera (Fig d). El diseño y los datos operacionales de las unidades de clientes fueron usados para localizar cada una de las unidades de clientes dentro de los 19 grupos de par, y fueron proporcionadas distribuciones mostrando el desempeño de las unidades del cliente con relación a aquel de sus pares.
Nuevas Perspectivas
Cuando los resultados de los estudios anterior de benchmarking fueron examinados en profundidad, nuevas relaciones fueron reveladas. Cuando los mejores exponentes (EFOR) en cada grupo par (10º percentil ) fueron comparados uno a otro, la función densidad de probabilidad resultante tenía una anchura relativamente estrecha ( Fig e) en otras palabras,
16
la diferencia entre el mejor exponente en el mejor grupo par tenía un EFOR de sólo 5 puntos porcentuales más abajo que el mejor exponente en el peor grupo par (la selección del grupo par esta basada sólo en parámetros de diseño o modo de operación).
Si ahora comparamos a los exponentes más pobres uno a otro (90º percentil) en cada grupo par, conseguimos la función de densidad de probabilidad mostrada en la Fig f. Finalmente, cuando sacamos el mejor exponente EFOR del peor exponente EFOR en cada grupo, podemos ver el rango o la variabilidad entre el mejor y el peor (Fig g). De esta curva, se puede ver que la diferencia entre los mejores exponentes y los peores con los mismos factores estadisticamente significativos de diseño/modo de operación es de aproximadamente 20 %. Por lo tanto, la percepción de los analístas es que sólo entre el 20 y 25% de la variación en la confiabilidad de unidades generadoras, en general puede ser explicado debido a diferencias en el diseño o modo de operación. El 75-80% restante de la variación es debido a otros factores. Se estima que la mayoría de aquel impacto es debido a la calidad de los programas de Operación y Mantenimiento de las unidades (entrenamiento, procedimientos, staffing lavels, herramientas, equipo, datos, etc.) así como los gastos de O&M.
La relación entre parámetros de diseño, operación, y calidad de O&M debe ser bien entendida a fin de determinar la mejor combinación que conducirá al costo más bajo del producto. Las figuras h e i muestran como esta interrelación afecta el costo total y la rentabilidad de las plantas.
17
(d)
18
(h)
19
(i)
Figura 4.5: Southern Company SystemFossil – Fired Units Reliability .
(a) (b)
20
(c) (e)
(f) (g)
Figura 4.6: Southern Company SystemFossil – Fired Units Reliability .
21
Capturando la cantidad correcta de datosComentar
Ver commentarios
Imprimir
Uno de los desafíos clave que enfrentan los gerentes de mantenimiento y confiabilidad es
determinar el nivel apropiado de tecnología de de monitoreo de condición para los activos de la
planta que se encuentran en el medio del espectro, desde el punto de vista de la criticidad en
general.
La mayoría de los activos de la planta, por lo general maquinaria de bajos caballos y menos
critica, comúnmente se monitorean con tecnologías predictivas portátiles.
Del mismo modo, es una decisión fácil para seleccionar soluciones de monitoreo de condición en-
línea para el equipo de gran caballaje que son altamente críticos para la operación de la planta.
El dilema, a menudo, es determinar el nivel adecuado de monitoreo de condición de los activos
que se encuentran en algún lugar entre estas dos clasificaciones.
Por lo general, el ranking de criticidad se utiliza como un criterio en el desarrollo y aplicación de
programas preventivos y de predicción en una población amplia de los activos. Los factores
ambientales y de seguridad solos a menudo proporcionan la justificación necesaria para una
solución de monitoreo de condición en particular. Sin embargo, cuando la seguridad y las
consideraciones ambientales no son una preocupación abrumadora, un verdadero análisis de
costo/beneficio puede ser útil para apoyar el argumento empresarial para la correcta tecnología
del monitoreo de condición para los activos que quedan en el medio del espectro de la criticidad.
Este artículo demostrara los métodos basados en el Análisis de Modo de Falla y Efectos FMEA,
por sus siglas en inglés) para el análisis de costo/beneficio de las soluciones de monitoreo de
condición para activos y grupos específicos de equipos similares que entran en esta categoría.
Estos métodos, especialmente cuando se realiza en conjunto con análisis de RCM, ayudan a
responder preguntas clave acerca de si o no una propuesta de solución de monitoreo de
condición es técnicamente factible y vale la pena.
El Espectro de Criticalidad
Prácticamente todas las operaciones industriales se basan en los equipos considerados
fundamentales para sus procesos. Algunas de estas operaciones involucran maquinaria de gran
potencia y activos fijos que tienen un impacto significativo en la producción de la planta, y
representan altos costos de reparación o consideraciones de seguridad, en el caso de un fracaso.
Para estos activos, el monitoreo continuo del comportamiento de los equipos y los indicadores
del estado con transductores fijos y los sistemas de protección en-línea se han considerado las
mejores prácticas durante décadas. Con un canal dedicado de monitoreo para cada transductor,
los sistemas continuos no solo proporcionan funciones de protección, sino permitir un análisis
profundo de los parámetros medidos y las capacidades de diagnóstico. Las recomendaciones del
Fabricante Original de los equipos (OEM, por sus siglas en ingles), las mejores prácticas del
22
usuario final, las directrices del asegurador industrial, y las normas como API 670 han servido
para reforzar estas aplicaciones como práctica estándar para los activos críticos. Además del
monitoreo continuo en-línea, las mejores prácticas para los activos críticos también incorporan
técnicas periódicas fuera-de-línea, tales como técnicas de análisis del aceite lubricante,
termografía infrarroja, análisis de la corriente del motor, y otros.
Hacia el otro extremo del espectro de la criticidad, pero todavía por encima del umbral en el que
la estrategia de que “trabaje hasta la falla” (“run to failure”) podría ser considerada, los grupos
colectivos de maquinaria de uso general de caballaje más pequeño y los activos fijos se suelen
manejar con programas que aplican estas tecnologías predictivas “portátiles” como la estrategia
principal. Sobre una base periódica, los datos son recolectados y analizados con la ayuda de los
recolectores de datos portátiles de vibraciones, cámaras de termografía infrarroja, muestreo del
aceite lubricante y análisis, equipos de detección de ultrasonidos y otras técnicas que
proporcionan las indicaciones de la condición de los activos a un costo relativamente bajo por
cada punto cuando se aplica a través de una base de activos de tamaño regular. Los datos de la
evaluación competitiva de una variedad de industrias dan prueba de que los programas de
mantenimiento predictivo, cuando estén diseñados e integrados con las operaciones y
actividades de mantenimiento, paga dividendos importantes y recurrentes1. Una de las razones
principales para esto es que el mantenimiento realizado según las indicaciones del estado de la
máquina suele ser más eficaz y eficiente que el mantenimiento que se basa exclusivamente en
las estrategias reactivas o basadas en el tiempo.
La necesidad de Métodos Basados en FMEA de justificación de Costos
Para los bienes de equipo que se sitúan entre estas dos clasificaciones, el nivel adecuado de
monitoreo de condición puede no ser una alternativa tan clara. Una buena pregunta a la hora de
evaluar una posible solución es “¿cuál es el rendimiento esperado de la inversión y el período de
recuperación? La siguiente discusión sobre los métodos basados en FMEA se ofrece para ayudar
a responder esta pregunta.
La mayoría de los programas de mantenimiento y confiabilidad exitosos han desarrollado una
clasificación de la criticidad global para todos los activos en sus instalaciones. Factores típicos
utilizados en la determinación de la criticidad del impacto potencial que podrían llevar a un
fracaso:
Seguridad
Ambiental
Producción
Costos
Calidad del Producto
Lo que generalmente resulta de este ejercicio es una lista de los activos clasificados en términos
de criticidad relativa usando una escala arbitraria como 0 a 10, A/B/C, u otro régimen
alfanumérico. Estas clasificaciones se utilizan normalmente para dar prioridad a la dirección de
23
recursos limitados de la administración de activos (tanto de personas como de tecnología), a
donde tendrán el mayor impacto. Aunque estas clasificaciones pueden incorporar puntuación
numérica y pueden ser más o menos vinculados a las cantidades reales, como el coste, son en
su mayor parte cualitativas, es decir, los números se determinan con base en la interpretación
subjetiva de las características relativas a los criterios de clasificación establecidos. Esto es
totalmente apropiado cuando la tarea es determinar la criticidad relativa de varios miles de
piezas individuales del equipo de la manera más eficiente posible.
Los resultados de criticidad desarrollados de esta manera, sin embargo, normalmente carecen
de detalles precisos y fiables que puedan apoyar de forma cuantitativa o “absoluta” la
determinación de riesgo en términos de probabilidad de un suceso real y la gravedad en
términos financieros. Un análisis más científico que determina el riesgo financiero anualizado o el
costo probabilístico, es útil para aquellos casos en donde los análisis de costo-beneficio son
necesarios para evaluar la viabilidad de las posibles soluciones.
La necesidad del análisis de coste/beneficio es también una parte importante del proceso de la
toma de decisiones del análisis del Mantenimiento Centrado en Confiabilidad. Medidas
proactivas, incluida la aplicación de monitoreo de condiciones, ha de ser “técnicamente viable” y
que “valga la pena de hacer” 2. La solución debe ser eficaz en la reducción de riesgos y costes a
un nivel adecuado, y capaz de generar beneficios que superan a los costos para su aplicación.
Mediante la aplicación de conceptos de FMEA para ayudarnos a medir el grado de mitigación del
riesgo que puede lograrse por una solución posible, y utilizando los resultados en la ecuación
costo/beneficio, podemos responder a estas preguntas con mucho más seguridad.
La cuantificación de los costos y el riesgo
El resto de este artículo examinará la forma de expresar el riesgo de tipo probabilístico,
determinar el nivel de reducción del riesgo de que se puede lograr mediante la aplicación de
soluciones de monitoreo de condición, y pesar estos beneficios contra los costes de
implementación de solución en una forma verdadera de un análisis de costo/beneficio en valor
presente neto.
Los costos y riesgos que representa un activo para un negocio, en términos financieros, se
pueden derivar con varios métodos distintos:
Método A – Datos Históricos
Si los datos históricos están disponibles en un Sistema de Administración de Mantenimiento
(CMMS por sus siglas en inglés) que tenga suficiente granularidad para vincular la producción
perdida y los costes de mantenimiento de los modos de falla específicos, entonces la
determinación de costos de probabilidad puede ser simplemente una extrapolación de la historia
coste real de un activo específico de una conjunto de datos, como se muestra en la Figura 1.
24
Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.
Los Costos de la tabla pueden ser fácilmente ordenados por tipo de falla y convertirse en valores
equivalentes de costo anual que puede ser utilizado en un análisis de costo/beneficio en valor
presente neto de posibles soluciones.
Método B – Estadísticas de Confiabilidad Publicadas
Cuando el historial de costes no está disponible porque un registro exacto no se han cumplido o
tal vez la planta todavía no está en operación, el riesgo anual, en términos financieros, todavía
se puede estimar a partir de estadísticas de confiabilidad elaboradas por una variedad de grupos
de usuarios de la industria y disponible en un número de fuentes publicadas. El riesgo se define
como sigue:
Riesgo = Probabilidad x Severidad
Donde:
Probabilidad = la probabilidad estadística de que ocurra el evento
Severidad = consecuencias del evento si llega a ocurrir
La probabilidad es un valor de porcentaje que representa la probabilidad estadística de que
ocurra un evento dentro de un tiempo de misión definido. Esto puede ser calculado a partir de la
fórmula:
Probabilidad = 1 – e-(t/MTBF)
Donde:
25
MTBF = Tiempo Medio Entre Fallas
t = tiempo de misión
Para simplificar, en la fórmula anterior, estamos asumiendo una distribución aleatoria de fallas
es decir, las fallas no dependen del tiempo-de-operación. Sin embargo, para los modos de fallo
que son fuertemente dependientes del tiempo, como la mortalidad prematura o el desgaste, los
parámetros de Weibull y Eta Beta se deben utilizar en la función exponencial como se muestra a
continuación para dar mayor precisión de cálculo de probabilidad de falla por un tiempo de
misión determinado:
Probabilidad = 1 - e-(t/η)β
Donde η = vida característica
β = parámetro de forma
Como los valores para los parámetros de confiabilidad pueden variar ampliamente, algunas
bases de datos de confiabilidad publicadas presentan parámetros de MTBF y Weibull, como
valores de porcentajes superiores e inferiores así como valores medios. Los valores superiores e
inferiores suelen representar el 5% y el 95% de puntos porcentuales dentro del rango de valores
de la base de datos. Dado que el 90% de los valores de las base de datos se encuentran entre
esos dos límites, los cálculos de confiabilidad que utilizan tanto los límites superiores como los
inferiores producirá un rango de probabilidad correspondiente a un intervalo de confianza del
90% o 90% de certeza.
El factor de Severidad que se utiliza en la definición de riesgos, se puede expresar en unidades
financieras. Esta es la severidad o el coste esperado para el negocio en la pérdida de producción,
mano de obra, gastos de reparación, multas o penas, y la pérdida de calidad de los productos
que se producirán si se produce un fallo detectado. Si el tiempo de la misión utilizado en el
cálculo de probabilidad es de un año, y luego multiplicar Severidad X Probabilidad se obtiene la
probabilidad de gravedad del riesgo o el coste anual de probabilidad anual que representa para
la empresa por ese activo o grupo de activos.
Cuando la cuantificación de los costes y riesgos asociados con un activo o un grupo de activos, lo
mejor es mirar a los modos de falla dominante de forma independiente. Esto es porque cada
modo de fallo tendrá su propia probabilidad asociada y su severidad. El ejemplo de la Figura 2 se
obtuvo a partir del análisis de cuatro conjuntos de motores de impulsión de bombas que tenían
un nivel intermedio de impacto en la producción de la planta. La Probabilidad de fallo en
cualquier año dado (tiempo de misión = horas de funcionamiento necesarios en 1 año) se
calcularon de forma independiente para una breve lista de los modos de fallo dominantes
utilizando estadísticas de MTBF calculadas por varias fuentes. Las estadísticas del Tiempo Medio
de Reparación (MTTR por sus siglas en ingles) se utilizaron para estimar la pérdida de producción
y las horas de trabajo de reparación. Multiplicando los valores de probabilidad por la suma de los
costes previstos para la pérdida de producción, mano de obra, y las partes asociadas con una
posible falla de los rendimientos de los costes conlleva a la probabilidad de costos, o a la
exposición anual, que estos activos representan para la empresa.
26
Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.
Tenga en cuenta que varias hipótesis se utilizaron en este ejemplo para mantener los cálculos
relativamente simples. En primer lugar, la distribución de los fallos aleatorios (parámetro de
Weibull Beta = 1) fue considerado, es decir, la probabilidad de fracaso no depende del tiempo y
es básicamente la misma año tras año. Este no será el caso concreto de los modos de falla que
presentan fuerte mortalidad prematura o características de desgaste. Además, los valores
medios de MTBF se utilizaron, los valores superiores e inferiores límite que representan el 5% y
95% también podrían haber sido utilizados, en su caso, llevando a la obtención de una serie de
riesgos anuales que representa el intervalo de confianza del 90%. Las consideraciones
financieras debido a la seguridad y el medio ambiente podrían haberse incluido, pero no se
aplicaron en este ejemplo.
Método C – Información del Equipo
Cuando el historial de costos o las estadísticas de confiabilidad no están disponibles, otro método
puede ser empleado que utiliza la aportación colectiva de los miembros del equipo basándose en
su experiencia para identificar los modos de fallo dominante y determinar los costes esperados
asociados con ellos. El rango de costo se determina para las tres categorías de fallas tales como
“menores”, “moderada” y “severa” en términos de pérdida de producción, piezas y mano de
obra. Los Modos de falla se clasifican por equipo en términos de ocurrencia, a continuación, las
tres clasificaciones de los costos se asignan a cada modo de fallo con coeficientes determinados
por el equipo. Se completa el ejercicio de matemáticas al multiplicar los valores y factores de
ponderación se obtiene un costo anual para cada uno de los modos de falla identificados que
reflejan los datos aportados por el equipo colectivo.3
27
Una variante de este método, que también se basa en la experiencia colectiva y las aportaciones
de los miembros del equipo puede ser usado para estimar el tiempo de reparación. Tres rangos
de tiempo están determinados por el equipo, y las probabilidades se asignan a cada intervalo de
tiempo para cada modo de falla.4
Desarrollando Factores de Mejora
Ahora que los costos y riesgos de los modos de falla dominante se han determinado y
expresados en valores anuales, el siguiente paso es estimar con la mayor precisión posible el
nivel de mejora que se puede esperar sobre la base de la capacidad de las soluciones
recomendadas para reducir los riesgos. El concepto del Número de Prioridad de Riesgo (RPN, por
sus siglas en ingles) es de uso común en FMEA y puede ser empleado en un análisis de
antes/después para determinar un factor de mejora para cada modo de falla analizado.
RPN = factor de Ocurrencia x factor de Severidad x factor de Detectabilidad
Donde:
- factor de Ocurrencia describe la frecuencia relativa o la probabilidad de un evento,
esencialmente relacionados con el MTBF
- factor de Severidad describe la severidad relativa de los eventos
- factor de Detectabilidad describe la capacidad relativa para detectar el evento de antemano
El cálculo RPN es similar a la expresión de riesgo descrito anteriormente, con excepción del
tercer factor de Detectabilidad que es utilizado como un modificador. El factor de Detectabilidad
es un indicador de lo bien que podemos detectar el evento con antelación y reducir las
consecuencias a través de una acción oportuna. Esto hace el uso del factor de Severidad más
28
directo, clasificándolo basado en las consecuencias de un evento que pudiera pasar sin ser
detectados.
Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.
Una escala de clasificación genérica de 1 a 10 se utiliza comúnmente para cada uno de los tres
factores de RPN con 10 siendo el riesgo más alto, pero la ampliación puede ser personalizada
para satisfacer las necesidades específicas de la organización o un análisis particular. La escala
de clasificación utilizada debe ser cotejada con las cantidades físicas reales cuando sea posible,
como se muestra en la Figura 3. Una nota importante en este momento es que los factores de
mejora son una proporción sin dimensión calculado dividiendo el riesgo inicial o valor de RPN por
el valor final o esperado de RPN para un tipo de falla en particular. Para seguir siendo válida, el
cálculo requiere que los criterios de clasificación se aplicarán de manera uniforme en todo el
análisis. Además, la escala de clasificación debe ser diseñada de forma que un cambio
proporcional en uno de los factores RPN equivalga a la misma variación proporcional en una
cantidad física, como los costes (Severidad), tasa de fracaso (Ocurrencia), o el porcentaje de
fracasos que no son detectadas (Detectabilidad).
29
Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.
Los pasos siguientes describen el proceso para determinar factores de mejora y completar el
análisis:
1) Determinar el RPN Inicial
El RPN inicial debe ser calculado observando los modos de falla dominantes para el
sistema/activo en cuestión. Para los cuatro conjuntos de bomba revisados en la figura 4, se
desarrollaron los FMEA abreviada y unos valores iniciales RPN basados en los modos de fallo
dominante. Los valores iniciales RPN mostrados se basan en las consecuencias, la frecuencia y la
detectabilidad de falla basados en el mantenimiento que se aplica actualmente y la estrategia de
confiabilidad de estas máquinas.
2) Calcular los RPN revisados
En el ejemplo de los cuatro grupos de bombas, los valores de RPN revisados se calcularon sobre
la base de los beneficios de la aplicación de un escaneo de una condición de monitoreo en línea.
Esta tecnología aprovecha la instalación permanente de transductores de bajo costo y procesa
entradas variables conectadas a un sistema anfitrión a través de una arquitectura de red
distribuida con capacidad inalámbrica. El sistema circula automáticamente a través de la
arquitectura de punto, recolectando datos a intervalos de tiempo lo suficientemente corto como
para ser considerado “casi continuo” en la mayoría de los casos. Aplicado a una variedad de
maquinaria de rotación y fija, la tecnología de escaneo representa una solución menos costosa
donde se requiere un seguimiento permanente y aporta muchos beneficios normalmente
asociados con los sistemas continuos en-línea:
Detección temprana de fallas potenciales
Repetibilidad de datos
30
Monitoreo en tiempo real de la condición y de los parámetros del proceso por los
Operadores
Toma de muestras automatizada segura de datos de puntos de medición peligrosos o de
difícil acceso
Capacidad de diagnostico profundo
Cada uno de los factores que componen el cálculo de RPN fue re-clasificados para cada modo de
falla basado en la mejora de la situación. Como se muestra en la tabla en la figura 5, la reducción
más pronunciada en RPN se puede ver en los factores de detectabilidad para fallas de cojinetes y
sellos. También note una mejora gradual en el factor de Ocurrencia, así como para estos mismos
modos de fallo dominante.
Severidad - Como se muestra en la Figura 5, el factor de Severidad permanece sin cambios.
Tenga en cuenta que el factor de Severidad, tal como se aplica aquí, es una clasificación de las
consecuencias relativas de falla si permanece sin ser detectada. La capacidad para reducir el
riesgo general a través de la detección temprana es plenamente representada por el factor de
detectabilidad. Algunos ejemplos de acciones que pueden mejorar el factor de Severidad,
aunque no considerados en este modelo en particular, es el de agregar redundancia de equipos
para minimizar el impacto sobre las operaciones y la optimización de planes de reparación y
procedimientos para minimizar el costo y la duración de tiempo de inactividad forzado.
Ocurrencia - Este ejemplo también muestra cómo los beneficios de la tecnología del escaneo
del monitoreo de condición en-línea no se limita a la detectabilidad. Mejoras incrementales en los
factores de Ocurrencia de estas mismas fallas dominantes se muestran en la Figura 5. El factor
de Ocurrencia está directamente relacionado con MTBF. Hay una serie de factores que
repercuten MTBF, incluyendo el diseño de los activos, servicios y prácticas de mantenimiento.
Una buena alineación, balanceo, y las prácticas de lubricación en general, contribuyen al MTBF
extendido.
Las Prácticas del operador también pueden impactar dramáticamente en MTBF. El
funcionamiento de una máquina en una carga o un régimen de velocidad en detrimento del
estado de la máquina acortaran su vida - algo que normalmente ocurre cuando los operadores
no pueden ver en “tiempo real” cómo sus acciones afectan el comportamiento de la máquina.
Esto es especialmente cierto con los conjuntos de bombas, donde los operadores pueden
ejecutar inadvertidamente una bomba mas allá de su punto de diseño y, sin saberlo, inducir a la
cavitación que acelerará al impulsor, cojinetes, y desgaste del sello (como en el ejemplo de la
bomba mostrado en la Figura 5). La tecnología del escaneo en-línea del monitoreo de condición,
permite una observación en tiempo cuasi-real, permitiendo a los operadores ver los resultados
de sus acciones y aprender a manejar sus activos de manera más segura y saludable. Al igual
que la mejora del balanceo, la alineación y las prácticas de lubricación hacen, el mejorar las
prácticas de Operaciones extienden la vida de la maquinaria, lo que resulta en un cambio
positivo en MTBF con en el tiempo.
31
Otra ventaja de permitir a los operadores que puedan observar el comportamiento de la
maquinaria en tiempo real, es evidente cuando una máquina arranca después de una revisión.
Los Operadores reciben notificación casi instantánea de la nueva “referencia” de condición de
esa máquina tan pronto como se presione el botón de arranque. En el caso de un problema con
la alineación, balanceo, o problemas generados por el montaje incorrecto de la maquina, los
operadores de inmediato sabrán que hay un problema. Sin tener que confiar en el equipo de
mantenimiento predictivo para tomar datos sobre arranque de máquinas, los operadores pueden
empezar a adoptar medidas para evitar poner horas de operación en una máquina problemática
y que la situación sea corregida rápidamente. El resultado final es que las máquinas estarán
operando con menos fallas de funcionamiento, aumentando aún más MTBF de la población a
través del tiempo. Esto es mucho mejor que la alternativa de operar una máquina con un mal
funcionamiento, como la alineación o un problema de acoplamiento de montaje, que conducirá a
un fracaso prematuro.
Detectabilidad - Este ejemplo también muestra que cuando los riesgos asociados a los modos
de falla del activo demanda un monitoreo más profundo del que puede ofrecer un programa
típico de recolector de datos portátil, la tecnología del escaneo del monitoreo de condición en-
línea ofrece varias ventajas:
Recolección de datos Cuasi-continua
Repetibilidad de Datos
Correlación de datos y capacidad de diagnóstico a profundidad
Un breve análisis del intervalo de P-F es útil para entender estos beneficios y el nivel de mejora
que se puede lograr con la tecnología de monitoreo de condición en-línea. El intervalo P-F suele
interpretarse como el tiempo (u otra unidad de medida tal como horas de operación) de cuando
una posible falla (P) se puede detectar primero a cuando una falla funcional real (F) occure5.
32
Como se muestra en la Figura 7, la regla de oro para el muestreo de datos periódico es que no
debe ser mayor que la mitad del intervalo de P-F. El peor caso deja tiempo para el muestreo de
datos periódico de esta manera no sería mayor que la mitad del intervalo P-F. El plazo medio
sería aproximadamente ¾ del intervalo P-F.
El Error en la comprensión del intervalo de P-F y la variabilidad natural debido a circunstancias
fuera del control del analista/recolector de datos hace que este enfoque sea una ciencia
imperfecta. Para la mayoría de las aplicaciones de maquinaria de uso general, alguna perdida
puede ser aceptable. Sin embargo, cuando las fallas no detectadas son demasiado costosas e
inaceptables para el negocio, los beneficios proporcionados por la tecnología en-línea es mucho
más visible. La Vibración y los datos variables del proceso se muestran casi continuamente con
esta tecnología, por lo que la detección de las fallas potenciales será casi siempre en el punto
“P”. Todo lo demás es igual, esto representa una mejora del 33% en el tiempo de espera
promedio contra el muestreo de datos portátil de programas de caminatas de reconocimiento
(ver Figura 8). Esto también elimina la preocupación sobre que tan bien el intervalo P-F fue
estimado en primer lugar y la desviación de tiempo de falla real del intervalo estimado. Otra
consideración importante es que los transductores fijos utilizados por la tecnología del escaneo
en-línea también ofrece datos muy precisos y constantes para propósitos de tendencias. Esto
elimina datos “anómalos” que resultan de la lectura altamente variable de los aparatos
portátiles, mejorando entonces la detectabilidad.
33
En este ejemplo, en comparación con una estrategia periódica de recolección de datos o en una
máquina totalmente sin monitoreo, la suma total de los beneficios proporcionados por la
tecnología del escaneo de monitoreo de condición en-línea en gran medida disminuye el factor
de detectabilidad en el cálculo RPN.
El factor de detectabilidad inicial (y los otros dos también) debe basarse en el escenario de
“referencia” deseado con el fin de hacer comparaciones. Por ejemplo, la detectabilidad inicial
puede basarse en una máquina no monitoreada. O podría ser sobre la base de una máquina ya
cubierta por un programa de muestreo de datos periódicos, por lo tanto, este enfoque daría
directamente el análisis coste-beneficio de la solución del escaneo en-línea sobre el programa
periódico actual para esa máquina.
3) Calcular los Factores de Mejora
Los Factores de Mejora se calculan como sigue para cada modo de fallo dominante (vea la Figura
5):
Factor de Mejora =
RPNinicial/RPNrevisado
El factor de mejora es una cantidad adimensional. Como se dijo antes, las escalas de
clasificación utilizada para el cálculo de RPN debe aplicarse de manera consistente durante todo
el análisis para que resulte en Factores de Mejora válidos. Las escalas de clasificación deben ser
lineales, significando un cambio proporcional en cualquiera de los factores RPN debe
corresponder a un cambio correspondiente equivalente a una métrica cuantitativa (por ejemplo,
una reducción en el factor de Ocurrencia 8-4 corresponde a una reducción del 50% en la tasa de
fracaso, o una mejora de 2X de MTBF mirando a la inversa).
4) Ahorros Derivados del Costo Anualizado y reducción de riesgos
Ya que los factores de mejora se calculan individualmente para cada uno de los modos de falla
dominante, pueden ser aplicados al perfil de costo/riesgo desarrollado previamente para cada
modo de fallo. El costo original o el valor de riesgo anual se divide por el factor de mejora para
calcular un nuevo costo o valor de riesgo que representa el costo probabilístico nuevo. La
diferencia entre el valor de costo/riesgo original y el nuevo valor de costo/riesgo representa el
ahorro anual o la reducción del riesgo que se puede esperar por la aplicación de la solución
propuesta (véase la Figura 9).
5) Desarrollar el análisis del Valor Presente Neto
Ahora que el estimado de la reducción de ahorros/riesgo anual se han calculado, la comparación
del coste de aplicación de la solución con beneficios estimados se puede realizar en un análisis
de Valor Presente Neto (NPV, por sus siglas en inglés). Este es un cálculo sencillo que da valor
actual neto, tasa de rendimiento, y el periodo de recuperación, teniendo en cuenta el valor
temporal del dinero (costo de capital).
34
El costo de la aplicación de la solución debe basarse en el suministro de una solución que
coincida con el nivel de costo/riesgo y la reducción utilizada en RPN y los cálculos del Factor de
Mejora. En otras palabras, la solución debe centrarse en los modos de falla dominantes
determinados y reducir los costos y riesgos, modelado en el FMEA. Una solución de bajo precio,
que no aborda adecuadamente los modos de falla dominante tendrá una recuperación pobre. Del
mismo modo, una solución de alto precio que ofrece, a un costo adicional, más características y
funciones que no afectan los factores de RPN también pueden tener resultados más pobres de
recuperación. La justificación de costo basada en métodos de FMEA descritos en este artículo
permite el análisis “que pasaría si” y la capacidad de hacer comparaciones para determinar el
nivel de la solución que proporciona rendimiento óptimo de la inversión.
El diagrama de flujo de efectivo en la Figura 10 es un ejemplo de parte de la producción de un
análisis NPV. El diagrama muestra un período de amortización de 1.7 años, basado en el costo
anualizado de reducción de riesgos de aproximadamente 20.000 dólares y una inversión inicial
de alrededor de 30.000 dólares para implementar la solución.
Conclusion
Los métodos de análisis costo/beneficio basados en FMEA descritos en este artículo ayudan a
articular la justificación financiera, cuando existe, para implementar las soluciones de monitoreo
de condición para reducir costes y mitigar los riesgos. Como se pide en el proceso de toma de
decisiones del análisis de RCM, la adopción de medidas proactivas, tales como soluciones de
monitoreo de condición deben ser tanto técnicamente viables como que valgan la pena. Al mirar
el costo inicial y el riesgo asociado con los modos de falla dominante, y abordar la cuestión de
los costos y la reducción del riesgo que se puede lograr por la tecnología, un análisis válido de
costo/beneficio puede ser realizado que ayuda a responder preguntas acerca de la efectividad de
la solución y el valor, y hacerlo en las unidades financieras que se utilizan habitualmente para
evaluar proyectos competitivos.
El ejemplo utilizado en este artículo también trae a la luz muchos de los beneficios de la
tecnología del escaneo del monitoreo de condición en-línea. Esto incluye la Detectabilidad
mejorada sobre los programas de rondines de inspección donde un monitoreo del estado de la
maquinaria necesita ser más profundo del que puede proporcionar un programa periódico de
muestreo de datos periódicos. El ejemplo utilizado mejora la Ocurrencia (reducida), basándose
en que los operadores puedan mejorar las prácticas de Operación y prolongar la vida de la
maquinaria, dándoles tiempo real de los indicadores de comportamiento de la máquina y la
condición.
Para reflexionar: Los métodos de justificación de costos basados en FMEA descritos en este
artículo pueden ser extendidos y ampliados para evaluar otras soluciones, independientemente
de si están basados en la tecnología, mejores prácticas, o combinaciones de ambos.
Rob Bloomquist tiene más de 20 años de experiencia en la entrega de soluciones de
confiabilidad y cuidado de activos para las industrias de la generación de energía y de procesos,
y actualmente es Gerente de Capacitación de Servicios de confiabilidad para GE Energy. Su
35
experiencia incluye la especificación y desarrollo de programas de monitoreo de condición, el
desarrollo de soluciones de confiabilidad y ejecución, análisis de vibraciones, alineación y
balanceo de la maquinaria, y la capacitación de los clientes en confiabilidad y monitoreo de
condición. Rob tiene una licenciatura en Ingeniería Mecánica otorgado por la Universidad Estatal
de California, Chico y es un ingeniero profesional en el Estado de Colorado. Rob es un profesional
certificado de mantenimiento y confiabilidad por la organización SMRP.
Referencias:
1. DiStefano, Robert, The Business Case for Reliability
2. Moubray, John, Reliability-centered Maintenance RCM-II, 2nd Edition, Industrial Press,
1997.
3. Troyer, Drew, Demonstrating Financial Benefits from Equipment Reliability Projects,
Process and Power Plant Reliability Conference, Houston, TX, 2001
4. Andrews and Moss, Reliability and Risk Assessment, 2nd Edition, ASME Press
5. op. cit. 2
El Método de Máxima Verosimilitudpor Francisco Poujol Galván, Insituto de Investigaciones Eléctricas
Comentar
Ver commentarios
36
Imprimir
El método de máxima verosimilitud (MLE) es uno de los más robustos y poderosos de los
métodos modernos para obtener una aproximación de la confiabilidad.
La evaluación por el método de máxima verosimilitud procura encontrar los valores más
probables de los parámetros de la distribución para un conjunto de datos. Maximizando el valor
de lo que se conoce como la “función de verosimilitud” La función de verosimilitud se basa en la
función de la densidad de la probabilidad fdp para una distribución dada. Como ejemplo
considere una fdp genérica:
Donde x representa los datos (tiempo a la falla), y θ1, θ2, ...,θk son los parámetros que se
estimarán y k el número de parámetros a evaluar. Por ejemplo para una distribución de Weibull
de dos parámetros, β beta y θ theta son los parámetros que se deben estimar. Para un conjunto
de datos de observación completa, la función de verosimilitud es un producto de la función de la
densidad de la probabilidad, con un elemento por cada punto en el conjunto de datos:
R es el número de observaciones independientes que corresponden al tiempo a la falla en un
análisis de ciclo de vida, xi es la iésimo tiempo a la falla. Matemáticamente es más fácil
manipular esta función tomando su logaritmo. Luego la función logarítmica de la verosimilitud se
expresa de la siguiente forma:
Por lo tanto para encontrar los valores de los parámetros θ1, θ2, ...,θk se debe maximizar L ó Λ.
Esto comúnmente se hace tomando la derivada parcial de la ecuación de Λ para cada uno de los
parámetros e igualándolos a cero:
37
Esto resulta en un número de ecuaciones con un igual número de variables, las cuales pueden
resolverse simultáneamente. Si existen las soluciones de forma cerrada para las derivadas
parciales la solución puede ser relativamente simple. En las situaciones donde no se da el caso,
se necesitan emplear algunos métodos numéricos.
El método de estimación de máxima verosimilitud tiene varias propiedades que hacen atractiva
su aplicación. Por ejemplo:
Es consistentemente asintótico, que significa que mientras que el tamaño de muestra aumenta,
las estimaciones convergen a los valores correctos. Es asintótico eficiente, que significa que para
conjuntos de datos grandes produce las estimaciones más exactas. Es asintótico imparcial, que
significa que para conjuntos de datos grandes uno espera conseguir el valor correcto en
promedio. La distribución de las estimaciones mismas es normal, si el conjunto de datos es
bastante grande. Todas éstas son características excelentes para conjuntos de muestras
grandes. Desgraciadamente, el tamaño necesario de la muestra para alcanzar estas
características puede ser bastante grande: treinta a cincuenta hasta cientos de muestras de
tiempos exactos de falla, dependiendo de la aplicación. Con pocas muestras, los métodos
pueden ser desgraciadamente polarizados o tendenciosos. Se han conocido resultados, por
ejemplo, que la estimación por máxima verosimilitud del parámetro de forma para la distribución
Weibull ha sido polarización para tamaños de muestras pequeños, y el efecto puede aumentar
dependiendo de la cantidad de datos censurados. Esta polarización puede causar discrepancias
importantes en el análisis.
En general, la recomendación de la literatura es utilizar técnicas de regresión (gráficas de riesgo
y probabilidad) cuando la muestra de datos es pequeña y sin censura. Cuando hay muchos datos
censurados y/o cuando el tamaño de muestra es suficiente, Máxima verosimilitud (MLE) debe ser
preferido.
Superficie de la función de verosimilitud
La representación tridimensional de la función logarítmica de la verosimilitud para dos
parámetros, los parámetros están en los ejes Y y X, y los valores logarítmicos de la verosimilitud
en el eje Z. En la siguiente gráfica es un ejemplo de la superficie de la función de verosimilitud
para una distribución Weibull de dos parámetros. Los valores del logaritmo de la verosimilitud
están normalizados a un valor de 100 %
38
En esta gráfica “la cima” de la superficie de la función verosimilitud corresponde a los valores de
los parámetros que maximizan la función de verosimilitud.
Ejemplo de MLE para la Distribución exponencial
Este ejemplo es para una distribución de un solo parámetro y por lo tanto hay una sola ecuación
diferencial a resolver. Además esta ecuación diferencial está en forma cerrada, debido a la
naturaleza misma de la función de la densidad de la probabilidad. La función de verosimilitud
para la distribución exponencial se representa a continuación:
39
Donde lambda λ es el parámetro a estimar. Tomamos el logaritmo natural de la función de
verosimilitud debido a que matemáticamente es más fácil de manipular tenemos la siguiente
expresión.
Si se deriva la ecuación con respecto a λ e iguala a cero se obtiene como resultado
Reordenando los términos o resolviendo por λ la expresión queda:
Esta es la solución de forma cerrada para la estimación de la máxima verosimilitud para la
distribución exponencial de un solo parámetro. Obviamente, este es el ejemplo más sencillo,
pero sirve para ilustrar el proceso. La metodología es más compleja para distribuciones con
múltiples parámetros o que no tengan una solución cerrada.
Referencias
1. Gupta S., “Order Statistics from the Gamma Distribution”, Technometrics, Vol. pp 243-
262, 1962.
2. Howard, B. T. y G. A. Dodson, “High Stress Aging to Failure of Semiconductor Devices”,
Proceedings of the Seventh National Symposium on Reliability and Quality Control,
1961.
3. B. S. Dhillon, “Design Reliability Fundamentals and Applications”, CRC Press, United
States of America, 1999. TA 174.D4929
4. Schafer Ray E., Singpurwalla Nozer D., Mann R. Nancy, “Methods for Statistical Analysis
of Reliability and Life Data”, John Wiley & Sons.
5. Información general de las distribuciones: Weibull, Exponencial, Normal y Log_normal
www.itl.nist.gov/div898/handbook/.
40
6. Beckwith, Thomas G., Buck, N. Lewis, Maragoni, Rod D., “Mechanical Measurements”,
Third edition, Addison-Wesley, Reading, Massachusetts, 1981
7. http://www.weibull.com/
El Costo de la Disponibilidadpor Jorge Kalocai, Profertil SA
Comentar
Ver commentarios
Imprimir
Es una práctica común definir, ó al menos acotar, los presupuestos económicos de
mantenimiento en la industria sobre la base de bench marking, por ejemplo tomando en cuenta
el muy conocido cociente entre el costo del mantenimiento y el de reposición del activo.
41
Sin cuestionar este criterio globalmente aceptado, el objetivo de este trabajo es desarrollar un
enfoque posible para resolver la cuestión: ¿Cuál es el Costo de Mantenimiento asociado al logro
de un determinado objetivo de Factor de Disponibilidad, con una probabilidad de éxito definida?,
en un complejo industrial.
Para comenzar con esto, vamos a homologar previamente algunos sencillos conceptos básicos
de aplicación:
Factor de Disponibilidad (AF): porcentaje de tiempo en que el complejo está apto para
producir (disponible) en relación al total del tiempo calendario evaluado.
Entonces, si:
UT: Tiempo de Indisponibilidad
T: Tiempo Total Evaluado
Tasa de Fallos (λ): Cantidad de Fallos contabilizados en un Tiempo definido. Es una medida
histórica (hecho consumado). Está claro (y se da por descontado) que es conocido el concepto de
fallo en relación a la función definida, con sus parámetros de aceptación, conforme a la filosofía
del RCM. Se menciona asimismo que también consistentemente con los conceptos de RCM, la
tasa de fallos puede ser genérica (cualquier fallo) u orientada a modos de fallo específicos,
dependiendo la elección particular de las necesidades de aplicación. También se asume conocido
que la medición se desarrolla típicamente sobre una población, lo que hace que la cantidad de
fallos sea el verificado en el espacio muestral definido, y el tiempo computado el
correspondiente al producto del tiempo calendario transcurrido multiplicado por el tamaño de la
muestra.
Entonces, si:
FQ: Cantidad de Fallos
T: Tiempo Total Evaluado
Tiempo Medio entre Fallos (MTBF): inversa aritmética de la Tasa de Fallos. Es una medida
histórica (hecho consumado).
Tiempo Medio de Reparación (MTTR): Promedio de los períodos de tiempo insumidos para las
reparaciones, en un tiempo total de evaluación. Es una medida histórica (hecho consumado).
42
Entonces, si:
TTR: Tiempos de Reparación
T: Tiempo Total Evaluado
RQ: Cantidad de Reparaciones desarrolladas en T
A su vez, también se define:
Donde a μ se la conoce como Mantenibilidad, y que sería entonces la relación entre la cantidad
de reparaciones desarrolladas en un período de tiempo total a evaluar, y la sumatoria de los
tiempos insumidos en cada reparación, en ese período.
Disponibilidad (A): relación entre el MTBF y éste más el MTTR.
Confiabilidad (R): probabilidad matemática de que un activo ó conjunto de ellos alcancen el éxito
en el desempeño de su función definida, en un período de tiempo determinado. Es una
predicción estadística (a futuro).
Si asumimos un escenario de fallos aleatorios (como demuestran ser alrededor del 80% de los
fallos una vez superada la etapa de fallos de infancia), lo que equivale estadísticamente a
adoptar una distribución exponencial, y si:
λ: Tasa de Fallos Aleatorios
T: Tiempo Total Evaluado
Tiempo Medio No Productivo (MDT): Promedio de los períodos de tiempo de no producción,
en un tiempo total de evaluación.
Entonces, si:
43
NPT: Tiempo de No Productivo
T: Tiempo Total Evaluado
NPPQ: Cantidad de Períodos de Tiempos No Productivos
A esta altura quedará claro que A (que es función de los MTBF y MTTR) se asocia a un enfoque
de mantenimiento y AF (que es función del tiempo de producción) a uno productivo. Con esto en
mente, vamos a comenzar entendiendo las sensibles diferencias entre A y AF, que pondrán en la
superficie lo importante de no confundir conceptualmente uno con otro. Para evidenciarlo
pondremos las cosas en el contexto de un ejemplo numérico:
Supongamos un escenario en el que, desde una perspectiva productiva, se propone como
objetivo el logro de una cantidad máxima de 5 días no productivos, en 1 año calendario (estos 5
días se tomarán como la medida del MDT). Esto implica:
AF= 98,63%
Si ahora tomáramos este valor de AF como el de A (los forzamos iguales ⇒ A=98,63%), en base
a una sencilla formulación algebraica que no detallaremos aquí (pero que se desprende de las
expresiones básicas mostradas), y si asumimos un MTTR del 70% del MDT (por ejemplo), resulta
que:
R (1 año)=23,5%
Lo cual significa que, si la Disponibilidad demostrable fuese de A=98,63%, asumiendo un MTTR
del 70% del MDT, la probabilidad de alcanzar el éxito productivo planteado (AF=98,63%) en el
año siguiente es de tan sólo 23,5%.
Supongamos ahora que el mismo escenario de propuesta de un objetivo de logro de una
cantidad máxima de 5 días no productivos en 1 año calendario, se plantea alcanzarlo con una
probabilidad de éxito de 95%. Si repetimos la premisa de un MTTR del 70% del MDT, resulta
entonces que la A que debiésemos demostrar para satisfacer lo pedido es:
A=99,95%
Lo cual significa que, para lograr un AF de 98,63% (5 días no productivos en 1 año calendario)
asumiendo un MTTR del 70% del MDT, con una probabilidad de éxito del 95%, se debe trabajar
para obtener un valor de A de 99,95%.
A primera vista se podría pensar que no hay gran diferencia entre una A de 98,63% y otra de
99,95%. Veamos entonces qué significa en términos más evidentes, para lo cual desarrollaremos
a su vez otro ejemplo numérico.
44
Supongamos que un modo de fallo determinado (orientamos en este ejemplo el concepto de fallo
a modo de fallo), presenta un MTTR de 24 hs sobre un período de evaluación de 1 año
calendario. En tal contexto, una A de 98,63% implicará un MTBF de 72 años. Si ahora
proponemos una A de 99,95% para el mismo MTTR de 1 día, el MTBF requerido se eleva a 1999
años.
Otro camino ciertamente sería disminuir el MTTR. Ir de un A de 98,63% a otra de 99,95%
manteniendo un MTBF de 72 años, implicaría reducir el MTTR de 1 día (el planteo original) a poco
menos de 52 minutos.
No cabe duda que el ejemplo pone a las claras que, cuando hablamos de A y dado que
usualmente MTBF >> MTTR, son necesario importantes incrementos de MTBF ó importantes
decrementos de MTTR, para el logro de mínimos incrementos de A.
La cuestión inmediata ahora es, obviamente, cuáles son las acciones concretas de
mantenimiento que soportan el logro de un objetivo de A.
Como ya vimos desde su expresión algebraica, A depende de MTBF y MTTR, ó lo que es lo
mismo, de λ y de μ. Aumentar A implica aumentar el MTBF y disminuir el MTTR.
El control de la Tasa de Fallos λ se logra con un adecuado planteo de planes de mantenimiento
preventivo y predictivo (PM/PdM), mientras que el control de μ dependerá del correcto desarrollo
de los procedimientos de reparación y estrategias de repuestos.
No es objeto de este trabajo mostrar alternativas de desarrollo de planes de mantenimiento,
procedimientos de reparación y estrategias de repuestos, pero sí se mencionará que para todo
esto es extensamente aconsejable tomar en cuenta el uso de herramientas como RCM, FMEA,
PMO, RCA, RBI, LOPA y RCS.
No se pierde de vista que obviar el desarrollo en detalle de lo mencionado en este último
párrafo, no es una cuestión menor. Esto daría para pensar por ejemplo que si no se explica cómo
los planes PM/PdM permiten controlar numéricamente λ, todo esto podría no pasar de ser un
bonito planteo teórico. Para resolver esta duda razonable, sin entrar en profundos detalles, se
mencionarán algunos conceptos que concurren a la sabia filosofía del RCM:
Para diseñar un plan de mantenimiento, hay que entender previamente cuáles son los
fallos que se quieren manejar.
Los Modos de Fallo potenciales se deben proponer en base a la previa definición de las
Funciones y los Fallos Funcionales, con atención a explícitos parámetros y criterios de
aceptación.
Un completo conjunto de Modos de Fallo para un activo determinado, se puede listar con
el auxilio de FMEA. Por otro lado y esto si fuese posible y necesario, el mismo método de
puntuación asociado al FMEA permitirá una selección previa de los Modos de Fallo más
importantes.
45
Las acciones de mantenimiento orientadas a resolver cada Modo de Fallo, deben
observar un criterio de costo-efectividad.
Las acciones predictivas y/o preventivas orientadas a resolver cada Modo de Fallo, deben
tomar en cuenta el período P-F del mismo a los efectos de proponer una frecuencia de
intervención, y su contenido conceptual tendrá como objetivo predecir y/o prevenir el
fallo. Se destaca: la frecuencia de intervención está en función del período P-F y no de λ,
que es una confusión bastante común.
Con todo esto en consideración, va resultando más claro que un plan de mantenimiento pensado
en base a los fallos que se quieren manejar, con acciones específicas y frecuencias adecuadas,
permitirá tomar control sobre λ, en términos de anticipación y prevención de la ocurrencia de la
pérdida de una determinada función. Por supuesto, para que cualquier acción preventiva sea
ejecutable sin afectar la función que se quiere conservar, la arquitectura constructiva del sistema
que provee la función deberá ser adecuada. Donde no lo fuere y se lo encuentre costo-
efectivamente conveniente, hay una oportunidad de mejora que deberá ser evaluada en función
de su relación costo-beneficio.
Un capítulo aparte merece el mencionado LOPA (como una de la herramientas posibles), cuyo
campo de aplicación alcanza específicamente a los sistemas de seguridad, y lo mismo para RBI
en relación a los equipos estáticos.
Una vez desarrollado lo anterior, será necesario un conjunto de recursos de mantenimiento para
su planificación, programación y ejecución.
Volviendo no obstante al primer hilo del planteo, si hablamos del logro de un objetivo de AF para
una planta completa, ciertamente hablamos de lo mismo para A (en el marco de un valor de R
como condición de borde). Y para ir desde un planteo de A para una planta completa a los planes
PM/PdM y los procedimientos de reparación y estrategias de repuestos, hace falta comprender
cómo la función de cada activo impacta sobre la función del complejo bajo análisis; y aquí es
donde se propone el uso de Árboles de Fallos (FTA).
Para alimentar los FTA, se propone la utilización de RCM y/o FMEA y/o RBI para la identificación y
parametrización de los Modos de Fallo, cada uno con sus Causas Iniciadoras y sus
correspondientes MTBF y MTTR. La arquitectura lógica que interconecta las hipótesis de fallo
hasta llegar a lo que se conoce como Evento Tope (en el lenguaje del FTA), permitirá el cálculo
de la A y MTBF del mismo, que no es otra cosa que la función de la planta bajo estudio. Desde ya
que estos FTA se podrán componer desde una desagregación previa en sistemas más pequeños,
conforme lo permita el proceso involucrado y de acuerdo a la mejor conveniencia.
¿Y cómo se conecta esto con costos?. El desarrollo de los FTA (en base a RCM y/o FMEA y/o RBI),
permitirá el diseño de los planes con el grado de detalle necesario. Tampoco es objeto de este
trabajo, pero se menciona que todas las herramientas de confiabilidad mencionadas bien pueden
armonizarse en el marco de un modelo de integración cooperativa, donde el RCA, el FMEA y el
46
LOPA concurran a enriquecer las salidas de RCM, PMO y RBI. El RCS por su parte, cumple su
función en la definición de los stocks de repuestos óptimos necesarios.
Es evidente a esta altura que, en términos de aplicación práctica, se habrán de seleccionar las
herramientas que se juzguen balanceadamente valiosas en atención a la complejidad del
problema a resolver. Lo que sí se resalta es que cualquiera sea el conjunto de técnicas de apoyo
utilizadas, es importante el desarrollo del FTA para establecer con el grado de detalle necesario,
la relación entre las actividades de mantenimiento y la A obtenible. Y es justamente esta
definición detallada la que permite conectar A con los costos de mantenimiento asociados.
Para hacerlo más claro, los planes y procedimientos diseñados son los que deben permitir ganar
control sobre la tasa de fallos λ y la mantenibilidad μ, en términos numéricos. Siendo estos dos
parámetros los datos de entrada de las hipótesis de fallos en el marco del FTA cuyo cálculo final
arrojará el valor de A de su Evento Tope, queda explícita la relación de cálculo entre los MTBF y
MTTR de cada hipótesis de fallo y la A del sistema considerado.
Si encadenamos todos los conceptos expuestos, vemos que el costo del mantenimiento crece
proporcionalmente con la demanda de AF. Siendo que a su vez el objetivo de AF se vincula a los
presupuestos de producción y éstos con los objetivos de ganancia de la compañía vemos que,
para un complejo dado, aumentar volúmenes de producción incrementa las ganancias sólo hasta
el punto en que los costos de mantenimiento asociados al sostenimiento del AF requerido,
comienzan a hacer disminuir la ganancia final. El conocimiento del álgebra de este balance,
permite tomar decisiones de objetivos productivos consistentes con costos de mantenimiento
(que desde ya, no son los únicos que concurren al costo final).
Este planteo integral no sólo permite dimensionar consistentemente un presupuesto económico
de mantenimiento, sino que además le da un cuerpo estructurado, hilvanado y sólido a las
estrategias del área, en base a los requerimientos productivos del complejo a mantener, en
términos de AF y R.
El Futuro del Mantenimiento Predictivopor Jack Nicholas Jr., PE, CMRP, Autor
Comentar
Ver commentarios
Imprimir
Estamos al borde de otro cambio de paradigma en las organizaciones de la manera en que
manejan sus programas de Mantenimiento Predictivo (PdM, por sus siglas en ingles).
Este sigue de los dos cambios mayores anteriores en los programas de PdM: el primero, cuándo
el equipo fue de paquetes pesados transportables en carrito para la recolección de datos y algún
análisis (los 80’s) a los paquetes de mano basados en microprocesadores portátiles; y el
47
segundo, cuando las computadoras portátiles y las computadoras personales de escritorio con
programas robustos de software y capacidad substancial de memoria entraron en uso (los 90’s).
Juntos transformaron la recolección, el almacenamiento y el análisis de datos y, como resultado,
el mantenimiento predictivo cambio fundamentalmente.
Los originales “Sistema de Granja de PdM” en las plantas, donde técnicos veteranos enseñaban a
los aprendices a hacer vibración y otras pruebas relacionadas de condición, están
desapareciendo. En algunas plantas, estos grupos han sido disueltos enteramente. A menudo el
experto es compartido entre otras plantas o se recurre a terceros, y ya no es un residente. En
otros lugares, menos pero especialistas más hábiles y formalmente entrenados en PdM
comienzan a aplicar múltiples tecnologías para el análisis predictivo de monitoreo de condición.
Ellos llegan a ser “trabajadores de conocimiento,” una frase acuñada y definida por el Dr. Peter
F. Drucker, en su libro titulado Señales del Mañana.
¿Cuales son las opciones para proporcionar la misma o una mejor calidad, de información para el
personal que ha venido a depender de esta información para llevar al máximo la producción?
¿Cómo podemos vencer nosotros el continuo tiempo-espacio y estar en dos, tres o cuatro lugares
al mismo tiempo? Las respuestas a estas preguntas caen, como tan a menudo lo hacen, en la
rápidamente desarrollada nueva tecnología.
Programas de PdM Tradicionales
El Mantenimiento Predictivo y el Monitoreo de Condición ha estado presente cerca de 50 años,
pero ya podemos distinguir 5 programas de mantenimiento predictivo “tradicionales de los viejos
tiempos” de los programas más modernos. Para la mayor parte de esos 50 años, la recolección
de datos rutinaria fue realizada utilizando equipo “portátil”. En los primeros días de casi todas las
tecnologías, como el análisis de vibración y la termografía infrarroja, “portátil” significaba que un
equipo arrastraría o acarrearía varios componentes de una serie de monitoreo que pesaba de 30
a 50 libras cada una en las áreas de la planta donde el monitoreo era requerido. Esto era
incómodo y consumía mucho tiempo aún antes que la recolección de datos pudiera ser realizada.
La llegada de los microprocesadores en los 80’s, redujo estos instrumentos de recolección de
datos a “portátiles”. Los datos podrían ser reunidos y podrían ser analizados, por lo menos hasta
cierto punto, en la máquina.
En los 90’s, la introducción de sensores electrónicamente enfriados permitió a los termografistas
infrarrojos jubilar su equipo enfriado por Nitrógeno líquido. Este desarrollo, combinado con
circuitos integrados cada vez más capaces y tecnología digital, permitió a los practicantes de
PdM a crear imágenes intuitivamente interpretadas mucho más vívidas que hasta un principiante
podía comprender.
La introducción de computadoras personales a finales de los años 80 y a las computadoras
portátiles operadas por batería con memoria suficiente a inicio de los 90’s aumentaron aún más
la habilidad de los técnicos de PdM’ la capacidad de realizar (con la ayuda de software cada vez
más sofisticado) el análisis detallado en el campo. Más recientemente, los desarrollos en
48
capacidades radiofónicas de comunicación han hecho la cobertura del campo, ya sea por
humanos o por máquinas, aún más fácil.
Hoy, para la mayoría de las tecnologías, como las utilizadas en la prueba de motor, el análisis
ultrasónico y el conteo de partícula en lubricantes y líquidos hidráulicos (en el sitio), el uso de un
paquete de monitoreo electrónico combinado con una computadora personal portátil (laptop) o
un microprocesador constituyen los “últimos adelantos”. El conjunto de aplicaciones es
“empacado” en un portafolio o mochila y es capaz de la operación de campo con batería para
cuatro a ocho horas cada vez. El software más sofisticado puede ser residente en una
computadora de escritorio para el uso por el analista de PdM para realizar el análisis más
detallado, conclusiones de informe o en organizaciones más avanzadas inicia órdenes de trabajo
basado en las conclusiones.
El equipo más crítico, como un generador de turbina en una planta de Servicios, tendrá instalado
un sistema de monitoreo que siente múltiples indicadores de condición incluyendo vibración,
espacios libres, temperaturas y muchos otros parámetros. Estos sistemas instalados
generalmente son cableados en red para proporcionar datos de análisis y alarma al operarios
para la toma de decisiones. El costo de tales sistemas puede exceder fácilmente los USD
$100,000. El rendimiento de la inversión, sin embargo, teniendo en cuenta los valores de los
activos para ser monitoreados, invariablemente vale la pena. Parte del regreso continuo son los
ahorros en el costo de mano de obra que de otro modo sería requerido para reunir manualmente
suficientes datos en activos de valor para hacer decisiones útiles.
Uno puede ver que ha habido un cambio en la asignación de tiempo. Equipos de conjuntos de
aplicaciones más ligeros operados por baterías puede ser posicionado tan rápidamente como
una persona pueda llegar al sitio. Los datos pueden ser tomados en la máquina para el análisis
local. También hoy, redes de comunicaciones radiofónicas pueden transmitir (por ejemplo,
Asistente Personal de Datos - PDA, por sus siglas en ingles) informes urgentes u ordenes de
trabajo justo del mismo lugar de la máquina, un ahorro adicional de tiempo.
Así, el programa tradicional de PdM ha evolucionado en lo que podemos llamar un enfoque
“moderno” basado en combinaciones disponibles comercialmente de sensores,
microprocesadores, computadoras y software, y permanentemente cableado de sistemas
instalados de monitoreo.
El profesional de PdM ha evolucionado en un “trabajador de conocimiento”. Tales trabajadores
no son “baratos”, ni son fáciles de retener. Los costos de capacitación pueden promediar nos
USD $6,000 por trabajador por año, si un régimen de la mejora constante en habilidades es
seguido. Aparte de la capacitación, un trabajador en un programa interno puede costar de
USD$80,000 a $90.000 por año, incluyendo todos los costos. La inversión de capital en las
tecnologías finales superiores (vibración, termografía infrarroja, prueba de motor) pueden costar
USD $50,000 cada una y requerir gastos de actualizaciones y ayuda técnica de ~15% del costo
de la inversión de capital anualmente. Algunas tecnologías muy útiles como el análisis
ultrasónico y el equipo portátil de conteo de partícula del lubricante tienen costos más bajos de
inversión de capital, pero casi igualan los costos anuales para el personal y la capacitación.
49
Los que entran el campo del mantenimiento predictivo y del monitoreo de condición están entre
los mejor y más brillantes en cualquier organización. Su retención es generalmente una alta
prioridad, pero no es excepcional para ellos poder pasar a supervisión o inclusive a posiciones
gerenciales. Así, ellos pueden salir detrás de las condiciones calientes y sudorosas en las que
están la mayoría de los profesionales actuales de PdM. Además, ellos pueden salir de parte de
los aspectos más frustrantes de su campo como el que ignoren sus informes y los resultados del
análisis, y ser visto como el portador constante de malas noticias con respecto a las máquinas
que necesitan reparación y que Producción tiene que interrumpir su trabajo.
Algunas compañías, enteradas de los costos de los programas de PdM, pero no dispuestas a
prescindir de estos, comienzan a contratar terceros para su PdM. Así, aún en USD $75-$150,
cuando se requiere un especialista de PdM menos de tiempo completo, el recurso externo llega a
ser atractivo. Especialistas equipados en múltiples tecnología de guardia llegan a estar
disponibles por todos los EEUU (aún en vacaciones, y fines de semana cuando la mayoría de las
emergencias parecen ocurrir) de compañías como Allied Reliability, una nueva compañía que
opera en este campo desde hace ocho años.
Los siguientes Programas de PdM
Lo que nosotros acabamos de describir suena completamente moderno, y lo es. Pero esta
cambiando - y rápidamente. El cambio será como aquel que lo fue en los 80’s y en los 90’s.
En un editorial en la Revista Sound and Vibration, Nelson Baxter hizo los siguientes puntos con
respecto al futuro del Mantenimiento Predictivo y al Monitoreo de Condición:
Habrá menos personas recolectando datos y realizando el análisis, debido a la
competencia global, elevando los precios de la asistencia médica, la desregulación y
otros factores.
Donde es posible, los datos serán traídos al analista, no al revés.
Los Datos de máquinas semejantes serán archivados y simplificaran la identificación de
problema a través de una flota de maquinas semejantes donde sea posible.
La combinación de redes inalámbricas y el Internet permitirá el movimiento fácil de
datos de la planta al analista.
Las grandes organizaciones de manufactura tendrán programas híbridos donde el equipo
más crítico es monitoreado diario o con más frecuencia y menos crítico menos a
menudo.
Además de estas predicciones, enfocadas principalmente en la aplicación del monitoreo del
sonido y de la vibración, lo siguiente sucede realmente o comienza a suceder en el campo del
monitoreo de condición predictivo (PCM, por sus siglas en ingles) :
Sensores nuevos y diferentes son desarrollados que tendrán aplicación en el mercado de
PCM, aunque actualmente estos sensores no estén destinados específicamente para ese
mercado.
50
Plataformas Móviles, plantas de manufactura, edificios comerciales, plantas de servicios
y sus redes de distribución asociadas, así como la infraestructura para muchas otras
aplicaciones, serán monitoreada en maneras significativamente diferente y más
extensamente de como se hace actualmente.
Los sistemas de monitoreo serán más baratos, más rápidos, más capaces y más fáciles
de utilizar, reubicar y configurar que los sistemas actuales.
Mientras la intensidad de trabajo requerida para el monitoreo de máquinas en unas
instalaciones o plataforma disminuirá a causa del aumento de la productividad de los
instrumentos de apoyo y los sistemas de PCM, el número de aplicaciones que requerirán
monitoreo aumentará por una gran variedad de razones (principalmente económicas).
Mientras el número de individuos involucrados en PCM por sitio o por flota de vehículos
disminuirá, el número de “trabajadores con conocimiento” de PCM aumentará mientras
el valor de PCM llega a ser conocido por los directores, la intención a competir
efectivamente en el mercado global.
Lo que esta ocurriendo en el mercado es que varias tecnologías que pueden afectar PdM
convergen al mismo tiempo y en el mismo lugar. La convergencia de estas tecnologías ya crea
un impacto tremendo en cómo manejamos e interactuamos con nuestros activos, productos y
entornos físicos. Por ejemplo, hasta nuestra comprensión del Internet esta cambiando.
Las Naciones Unidas publico recientemente un papel que llamó “El Internet de las cosas”. Este
es un término de marketing que salió del MIT, donde futuristas ven que el Internet no consistirá
básicamente en una telaraña para publicar y transmitir información. Será un Internet compuesto
de máquinas, lugares, objetos y cosas. Una vendedora automática, un refrigerador, una “bomba
inteligente” y otras máquinas que serán conectadas al Internet. Estas máquinas conectadas
interactuarán una con la otra y los humanos para entregar nuevos servicios y crear nuevos
mercados de servicio. Otro término de marketing que es asociado con esto es llamado “M2M” o
comunicaciones de Máquina a Máquina y Máquina a Hombre. En la actualidad, el Internet es el
medio de comunicación estándar capaz del manejo de todos estos datos, y lo hace de una
manera costo efectiva para todos. Un “Internet de las cosas” inalámbrico parece destinado a
convergir con las mejores prácticas industriales de administración de activos ahora y en el
futuro.
Métodos de análisis y herramientas de soporte del futuro
Nuevas maneras de analizar para el monitoreo predictivo y de condición de máquinas también
entra en uso. Nos estamos alejando de la intuición y el conocimiento humano adquirido en el
trabajo o en los cursos de la formación profesional o a través de textos, hacia una fusión basada
en la inteligencia humana y la computadora. Muchas veces en el pasado, los vendedores de
hardware de PCM han recomendado nuevo software “integrado completamente” de múltiples
tecnologías en un solo paquete de software. Lo que resultó realmente fueron solo plataformas de
software con múltiples módulos que trataron con almacenamiento y el análisis de datos de
varias tecnologías. Sin embargo, en muchos casos, los resultados de datos y análisis todavía
fueron contenidos en “silos” relativamente aislados. Había poca, si es que había, integración de
51
resultados de las tecnologías diferentes que utilizan alguna cantidad significativa de análisis
correlativo o de correlación. 3
Por ejemplo, un sistema llamado el Sistema Integrado de Condición de Evaluación (ICAS por sus
siglas en ingles) esta ahora en uso en más de 110 barcos de la Marina de los EE.UU. y muchas
aplicaciones comerciales. Con sus “reglas” de interfase lógica grafica de usuario programable
para poner sobre aviso a la maquinaria degradada, el sistema puede ser considerado
discutiblemente representante de los últimos adelantos actuales en el análisis, diagnóstico y
pronóstico de sistemas operativos mayores en plataformas móviles, y plantas industriales y de
servicios. ICAS ahora es sostenido por General Electric Corporation, que recientemente compró
todos los derechos sobre la propiedad intelectual del software. Junto con su adquisición de IDAX,
Inc. (Productor del software de ICAS), General Electric también adquirió parte de Bentley Nevada,
un fabricante internacionalmente reconocido de hardware de monitoreo de condición instalado y
portátil, y de software de monitoreo de condición, mas notablemente su Sistema 1® package.
Una fusión reciente de los equipos responsables de ICAS y del Sistema 1® bajo un solo director
podría llevar a la creación de la próxima generación de software de monitoreo predictivo de
condición que contiene las mejores características de ambos sistemas, junto con otras
capacidades como las descritas abajo.
La compañía que primero originó ICAS bajo los contratos con la marina de los EEUU., Dundics
Enterprises (ahora llamada DEI Group) recientemente hizo equipo con una organización en el
exterior para desarrollar y aplicar, en una base de prueba, un enfoque aún más sofisticado de
análisis en una de las aplicaciones más difíciles – los motores eléctricos y los trenes de impulsión
4. El Sistema de Sensor de Monitoreo de Condición del Motor (MCM por sus siglas en ingles),
descrito por su fabricante como un “detective multímetro”, es el resultado de la colaboración por
dos compañías, Artesis, Inc, y Inter Electric Electronic, ambas situadas en Turquía. El pequeño
paquete de MCM, que puede ser sostenido fácilmente en la palma de la mano, es instalado
permanentemente en el panel de la puerta principal de un centro de control motriz. Sus sensores
(SOCs) son conectados a los circuitos dentro del panel. El MCM aplica el monitoreo de condición
del modelo basado en la planta y avisos prematuros de los algoritmos predictivos originalmente
desarrollados para la industria aeroespacial en EEUU bajo el patrocinio de la Administración del
Espacio y Aeronáutica nacional de los EEUU. El dispositivo utiliza sólo las tres fases de corrientes,
voltajes y las líneas de señales (formas de onda) que son alimentadas al motor como entradas
para el análisis. Las salidas son transmitidas por un transmisor radiofónico separado a una red
ligada a una computadora de análisis que contiene el software del análisis. 5
El motor clave del análisis es una Red Bayesiana de Creencia (BBN por sus siglas en ingles) para
el motor eléctrico y los componentes conducidos de la carga que utilizan información del MCM.
La lógica del BBN fue derivada de parámetros de MCM (8 eléctricos y 12 mecánicos), todo el
resultado de interpretar la corriente y los valores del voltaje y de las formas de ondas. Estos son
organizados en hojas de cálculo de modos de fracaso e indicadores relacionados, eléctricos y
mecánicos. Los parámetros de MCM son medidos y son disponibles al BBN. La red entonces
calcula la probabilidad de un Modo de Falla que es VERDADERO o FALSO. Muchos productos de
software de BBN sólo pueden calcular en una dirección. El Motor basado en Diagnostico de
52
Razonamiento de BBN desarrollado colectivamente con otro socio, Quantum Leap Innovations,
pueden calcular en ambas direcciones. Esta solución predictiva de maquinaria soporta:
Monitoreo de Condición y detección continúa de anomalías de modos de falla de equipo
dominante dinámico;
Estimación del estado actual del equipo relacionado como vida útil residual y pronostico
de la probabilidad de la falla
Opciones de recomendaciones de planificación y programación basadas en la utilización
proyectada de la demanda y la disponibilidad del recurso
El software es poblado con el conocimiento específico de la operación aplicable del equipo de la
planta y reconocimiento de síntomas desarrollados por el personal de ingeniería de DEI Group.
Cuándo aplicado, por ejemplo, a un conjunto de ventiladores de torre de refrigeración
conducidos por cajas de engranes, el sistema reconocerá anomalías de equipo que surgen de: la
degradación del ventilador, los problemas eléctricos de la línea, la degradación motriz, desgaste
excesivo de la caja y del cojinete, desbalanceo y desalineación entre equipo empatados.
El sistema pondrá sobre aviso al personal utilizando notificaciones visuales o de correo
electrónico. El sistema proporciona estimación del estado actual del equipo y pronostica la
probabilidad de falla. Así, la última promesa del mantenimiento “predictivo” puede ser cumplida
por este desarrollo, que es el resultado de un esfuerzo cooperativo internacional.
El estado del equipo, como lo relacionado a la vida útil residual, es representado como un cálculo
del daño cumulativo, o de envejecimiento, que el equipo ha acumulado desde nuevo, o desde la
última revisión. Los sistemas predictivos propuestos de administración de maquinaria utilizarán
los resultados de la función del descubrimiento de anomalía y el motor de protocolización de
riesgo para estimar un valor instantáneo del estado general del equipo combinando la condición
de modos de falla de todo el equipo en una sola representación del estado.
Dado el estado actual del equipo, y de la utilización proyectada del equipo como definido por
ciclos de trabajo (las cargas durante períodos de tiempo), el sistema estima la futura conducta
del equipo relativa a la degradación que lleva a la falla o estructural. Aquí la falla es definida
como el punto de la degradación donde el equipo no sostiene más los requisitos del sistema. La
información es demostrada como probabilidad de la falla del equipo relativa a una escala de
tiempo.
La combinación de las capacidades diagnósticas y pronosticas de los sistemas predictivos de
administración de maquinaria es una plataforma poderosa para ligar los problemas de equipo a
la causa raíz específica. Proporciona recomendaciones avanzadas basadas en riesgo de
mantenimiento relativas a la resolución de la anomalía reconocida. Los diagnósticos pre-
procesados y los algoritmos pronosticados almacenarán información computada en el historiador
de datos incluido. Esto permite utilizar las funciones incorporadas para construir la interfase del
usuario y demostrar la condición y futuro riesgo de los modos pre-procesados de falla de la
maquinaria.
53
La integración con el CMMS permite la iniciación automatizada de la planificación logística
anticipada y programación para apoyar los requisitos operacionales de la planta. El componente
de Apoyo de Decisión del Mantenimiento valora lo Siguiente:
Proyección de riesgo de la falla del equipo,
Disponibilidad de recursos necesarios de material y personal,
Requisitos operacionales planeados, y los horarios planeados de la falla para recomendar
el mantenimiento necesario o las actividades operacionales asociados con manejar el
riesgo predicho del equipo. Es también capaz de valorar el impacto de diferimiento de
mantenimiento o cambios en demandas operacionales del ciclo de trabajo
El resumen de todo el análisis es una mesa completa de decisiones y probabilidades, basado en
la historia de la máquina de modos de falla y atado a datos actuales de la condición, que rinde
una “más probable” causa raíz de la degradación, como es ilustrado. El concepto total para este
muy avanzado programa de PdM, es ilustrado por un conjunto de ocho ventiladores en una torre
de refrigeración en la Figura 2.
54
Note que la primera columna de recolección de datos en la Figura 2 es el cable de alimentación
entre los motores de una torre de refrigeración de agua al control motriz central resistente a la
intemperie. El vinculo inalámbrico está entre el MCMs o los “multímetros detectives” que reciben
la corriente, el voltaje y los datos de forma de onda de los sensores del cable de energía
eléctrica y la computadora que analiza en tiempo era el monitoreo de condición en un edificio a
varios cientos de metros de distancia. Los datos de MCM son dirigidos por un acceso inalámbrico
a la red de Ethernet de fibra ligada a las computadoras que contienen el software BBN y otros
lazos de comunicaciones a personas que toman las decisiones internas, en casa o en otras
ubicaciones. Los informes proporcionados incluyen el diagnóstico del problema y un pronóstico
del riesgo de falla. Con estos informes, la persona que toma las decisiones puede hacer una
determinación más informada teniendo en cuenta la importancia de la producción que se esta
produciendo en ese momento así como las consecuencias de interrumpirla para hacer una
reparación.
Este sistema ya se encuentra en uso en el sitio Koch Primary Energy monitoreando ventiladores
y bombas de alimentación. Koch, históricamente una de las compañías más progresivas en la
aplicación de tecnología predictiva de vanguardia, de monitoreo de condición y métodos de
análisis, piensa aplicar este método de análisis a sus generadores utilizando la salida de los
sensores en los cables de salida para monitorear los datos de la descarga parcial (PD por sus
siglas en ingles), un indicador clave de aislamiento de generador y empeoramiento interno del
componente. Actualmente, el monitoreo de PD se hace cada seis meses utilizando un sistema
portátil de monitoreo diseñado y vendido por una compañía filial subsidiaria de Koch, Iris Power
Engineering de Ontario, Canadá.
Un acercamiento diferente al Futuro
55
Otro método de Monitoreo Predictivo de Condición es el de proporcionar un grupo de expertos en
varios tipos de industrias y maquinaria. Estos expertos están disponibles para proporcionar un
análisis de vanguardia cuando un sensor de una red inalámbrica indica el comienzo de las
condiciones que pueden llevar a la falla. La clave a este enfoque es el uso de la conexión de
Internet de alta velocidad entre la máquina monitoreada y el sitio central del análisis.
Azima Inc., hace sensores de dispositivos inalámbricos de estándares industriales conectándose
a una interfase en-sitio y un paquete de comunicaciones. Estos sensores son conectados a hubs
alámbricos o inalámbricos, que entonces son conectados a una red troncal de comunicaciones
(que puede ser alámbrico, fibra o una combinación de ambos, y contiene al servidor del sitio,
cualquier sensor de datos o de video conectado alambricamente al hub). Esta red, en cambio, se
conecta vía Internet a las computadoras y monitores del análisis. Estos pueden estar
dondequiera, incluyendo el sitio del análisis y/o consulta local, en casa para observación por
empleados claves de la planta, en el escritorio de un vendedor analista experto de maquinaria a
miles de kilómetro, o en una oficina de Azima donde expertos también pueden ser situados,
atendiendo a múltiples a clientes. Los datos están disponibles por cualquier navegador de
Internet estándar, y el acceso al portal de Internet es controlado por el cliente.
El concepto de una instalación típica de Azima es ilustrada en la Figura 3.
La Fuerza Impulsora para el Futuro del Mantenimiento Predictivo
El principio de la fuerza impulsora en el futuro para el mantenimiento predictivo es la economía.
Los programas autónomos e internos se beneficiarán porque los requisitos de la inversión de
capital serán más bajos de lo que son actualmente. En una planta nuclear de generación de
energía el costo de un sensor conectado por cable o fibra óptica puede ser de USD $ 2-3,000. El
precio en otras instalaciones comerciales puede ser de USD $ 1,000 o más. Un paquete de
instalación inalámbrica de sensor para un solo parámetro puede ser la tercera parte de ese
valor.
56
Además, el costo de la mano de obra para realizar un esfuerzo potencialmente mucho mayor de
recolección de datos es reducido a una fracción de lo que es ahora. El costo de mano de obra,
programado a la función del análisis, ya sea con personal interno o por medio de terceros,
aumentará la productividad del programa general.
Otro elemento económico es el consentimiento de las compañías de “asociarse” con las
organizaciones que instalan, mantienen las redes de sensores y proporcionan los servicios
completos o parciales del análisis y el apoyo por una cuota mensual. Así, el requisito de la
inversión de capital del cliente es reducido mucho o es eliminado. Esto permite la decisión con
respecto a la implementación de un sistema inalámbrico descansar más en el requerimiento
para el Monitoreo Predictivo de Condición para aumentar la confiabilidad del equipo, el
rendimiento y productividad y menos en la necesidad de procesar una petición de inversión de
capital, que en muchas compañías puede tomar años.
En la planta Covanta Energy Haverhill de desecho a energía de la Estación de Recuperación de
recursos de 48 Megawatt al norte de Boston, Massachusetts, Azima instaló equipo sensible
inalámbrico en una grúa crítica para la operación y seis ventiladores clave, de difícil acceso. Los
ahorros a la Planta son entregados por un mejor conocimiento y más reciente de la condición
crítica del componente, que ha tenido como resultado una mejor planeación para los cierres
programados y menos tiempo de inactividad no planeado y gastos de reparaciones de
emergencia. Esto coloca el control de cuando realizar una reparación en las manos del personal
y lo quita de los caprichos de fracasos aleatorios de la maquinaria de la producción o el servicio.
Para organizaciones implicadas en o afectadas por el comercio internacional, el mayor estímulo
económico para adoptar sistemas de PCM del futuro será su capacidad mejorada para competir y
sobrevivir verdaderamente en el mercado global.
De un punto de vista más práctico cualquier organización que aplica PCM, ya sea con personal
de la planta o por medio de terceros, será forzado a considerar el uso de sistemas como los
descritos en este articulo. Esto es porque puede ser los única alternativa disponible ya que los
vendedores abandona el apoyo para el legado del hardware y/o el software, un hecho frecuente
en los ciclos vitales del producto de PCM que dura cerca de diez años. En términos de software,
los vendedores de PCM a menudo son forzados a hacer esto porque el hardware de la
computadora y los vendedores del sistema operativo cambian su línea de productos con la
misma frecuencia. Lo bueno de esto es que la productividad de uso del producto casi siempre es
mejorada por estos cambios.
Manteniendo las manos en la Maquinaria
Mientras todos estos pronósticos con respecto al futuro del mantenimiento predictivo parecen
quitar a los humanos de las máquinas, uno debe ser realista y apreciar que las decisiones finales
con respecto a si se deben de cerrar para reparaciones y las decisiones finales del post-
mantenimiento a volverlos a la producción no pueden, y no deben, ser hechas sin “las manos
puestas,” y a un encuentro cercano por seres humanos. El hardware que ellos pueden utilizar
puede ser sólo algunos instrumentos de diagnostico portátiles “anticuados”, pero también
57
estarán trayendo la mayoría de los instrumentos importantes, el software de su propia
experiencia y la inteligencia, que siempre se quedará como una parte esencial del proceso de
diagnóstico y pronóstico.
Conclusiones
Los Sistemas de Monitoreo Predictivo de Condición del futuro serán más sofisticados que
aquellos utilizados actualmente, e implicará más tipos de sensores para detectar más
indicadores de la degradación de la máquina y el sistema. Al mismo tiempo serán más baratos,
más fáciles de instalar y utilizar, y de conectarse internamente y/o ligados vía Internet con
motores de análisis que pueden estar situados a miles de kilometros.
El vinculo entre la participación humana y la participación del microprocesador y/o maquinas
basadas en el analisis de computadoras que hacen la promesa del mantenimiento predictivo
llegaran a ser una realidad.
En el 2003, el reconocido inventor y futurista, Ray Kurzweil publicó su último libro titulado La
Singularidad está Cerca. Este es el último libro de más de tres décadas y cinco libros llenos de
proyecciones de la unión entre la vida y la salud de los humanos y las máquinas que ellos han
creado. En La Singularidad está Cerca, Kurzweil examina el próximo paso en este proceso de la
unificación, que él contiende es inexorable. Ese paso es la unión entre el humano y la máquina
en la que el conocimiento y las habilidades incorporadas en los cerebros humanos serán
combinados con la capacidad bastamente más grande, velocidad y la habilidad de conocimiento-
compartiendo de nuestras propias creaciones.
La singularidad esta tan verdaderamente cerca como se aplica al futuro del mantenimiento
predictivo.
Agradecimiento
Los autores reconocen con gratitud la ayuda inapreciable en forma de tiempo invertido
discutiendo el futuro de PdM y la provisión del contenido para la inclusión en este artículo que
fue proporcionado generosamente por Marton Dundics, Presidente deDEI Group, Millersville, MD
([email protected]) y de Alex Warner Presidente de Pedigree Technologies, Fargo,
Dakota del Norte ([email protected])
Elsa K. Anzalone es Gerente General de Contabilidad de Azima, Inc. Puede ser contactada en:
telefono: 781-938-0707 x751, FAX: 781-935-0179, Mobil: 713-825-1076, e-mail:
Jack R. Nicholas, Jr., P.E., CMRP es el Director General de Maintenance Quality Systems LLC de
Millersville,MD. Puede ser contactado via: Telefono 717-338-9166, FAX: 717-338-9168, Mobil:
240-463-6440, e-mail: [email protected]
Referencias
58
1. Baxter, Nelson Sound and Vibration Magazine May 2004 editorial
2. Warner, Alex, President of Pedigree Technologies, Fargo, ND from an unpublished paper
on products and services of his company prepared in support of this presentation
3. A description of correlation analysis, along with five other of the most common analysis
techniques used in PCM is found in the text Predictive Maintenance Management, 1st
Edition, September 2005 by J. R. Nicholas & R. K. Young ISBN 0-97199801-3-6
4. Most of the data on ICAS and MCM was provided by Morton Dundics, President of the DEI
Group. Mr. Dundics was the originator of the ICAS concept. Marton can be contacted via
the company web site www.dei-group.com
5. Artesis is a privately held company headquartered near Istanbul, Turkey. For more
details on the company and the array of products it has patented and sells world-wide,
visit the website a www.artesis.com
El Impacto de la Alineación de Precisión en el tiempo de Vidapor Michael Snider, Universal Technologies Companies
Comentar
Ver commentarios
Imprimir
La alineación de precisión del eje de maquinaria de rotación es uno de los factores claves a
reducir las cargas “parasitarias” en los cojinetes, sellos y línea de ejes.
Así, es lógico que la alineación de precisión aumente el tiempo productivo general de la
máquina, el Tiempo Medio Entre Fallas (MTBF por sus siglas en ingles) de los componentes de la
maquinaria, y de la capacidad de ganancia de la organización - siendo todas metas dignas y algo
que todos nosotros buscamos. El enfoque principal de este artículo es mostrar cómo la
desalineación afecta los componentes tanto del impulsor de la máquina y los equipos impulsores
una vez armados y bajo operación.
Mientras los conceptos discutidos aquí aplican a toda clase de maquinaria de rotación,
empecemos por considerar el gráfico inferior que se relaciona con una falla con un tipo muy
importante de equipo a través de la industria, la bomba centrífuga. Los resultados de un análisis
estadístico reciente de que componentes fallan generalmente en una bomba centrífuga son
mostrados en la Figura 1. Como usted puede ver, aproximadamente 69% de las fallas implican
un dispositivo que sella, más comúnmente un sello mecánico.
Rápidamente debemos notar que este gráfico no dice “por qué los fracasos ocurren,” pero
simplemente “lo que falla”? Mientras el análisis de todas las causas primordiales específicas de
estos fracasos del componente está más allá del alcance de este artículo, esta claro que fuentes
mecánicas de falla tal como la desalineación del eje contribuyen apreciablemente. De este
estudio, podemos concluir que la eliminación de la causa raíz de cojinete y sello se resolvería
59
aproximadamente 79% de los desafíos de confiabilidad de la bomba que tuvo como resultado
este estudio.
Principios Básicos de Alineación
La desalineación del equipo rotatorio es definida como la desviación de la posición relativa del
eje de un eje colineal de rotación. El término colineal, ilustrado en la figura 2, es definido como
“conteniendo los elementos que corresponden uno al otro y eso es arreglado en la misma
sucesión lineal”.
Cuándo se aplica al equipo de rotación, las líneas centrales tanto de eje del impulsor como de los
impulsores de la maquina forman una línea mientras las máquinas operan, con lo cual reducen
las cargas “parasitarias” impuestas en los componentes de la maquinaria. Estos componentes de
la maquinaria incluyen los ejes, cojinetes, sellos, rotores y coples. Note que las cargas impuestas
por el desbalanceo, los errores del ensamble, y las condiciones de funcionamiento son materias
separadas.
60
Para maquinas de acoplamiento, los ejes están desalineados cuando sus líneas centrales de
rotación no están colineales cuando las máquinas están trabajando.
La mayoría de las discusiones de la alineación del eje empiezan definiendo los dos tipos de la
desalineación: la desalineación de desfase y la angular. Estos dos tipos de desalineación son
ilustrados en la figura 5.
Desafíos comunes y malos entendidos acerca de la alineación del Eje
Una gran variedad de desafíos y equivocaciones existe con respecto a la materia de la
instalación de máquina y alineación del eje. Además, muchos de estos asuntos quedan sujetos a
debate. Entre los asuntos se encuentran los siguientes:
1. ¿Cual es el conjunto correcto de tolerancias de alineación?
2. Si se alinea a tolerancias más precisas y no se reducen los niveles de vibración de la
maquinaria, hay un beneficio real?
3. ¿Cuál es el impacto de coples “flexibles” en tolerancias de alineación?
4. ¿Si una máquina es susceptible a movimiento considerable debido al esfuerzo por la
tubería o al aumento térmico, e incluso al cambio de condiciones de funcionamiento,
cual es el beneficio de “tolerancias de precisión”?
5. ¿Cómo es que varias especificaciones del equipo tales como, velocidad de operación,
tipo de cojinete, tipo sello, etc. impactan el grado de precisión requerido?
Mientras cada uno de éstos son materias importantes y, verdaderamente, los desafíos de la
postura, nuestro enfoque aquí está en mirar el sujeto puramente de la perspectiva de los
cojinetes y de los sellos.
61
Ejemplo Gráfico de Tolerancia de alineación
Mientras la decisión final en tolerancias de alineación debe ser hecha por compañías individuales
basadas en la naturaleza del equipo y su criticalidad al negocio, los gráficos mostrados en la
figura 6 son tolerancias típicas comúnmente aceptadas en la alineación.
Los gráficos tales como éstos son muy comunes; sin embargo, unas cuantas precauciones deben
ser consideradas:
Las tolerancias de la Angulosidad y la desviación enfocan la atención en el cople, no en
la longitud de los ejes ni la cantidad de la desalineación en los cojinetes.
La velocidad de operación es un factor para ser considerado, pero muchos factores más
deben ser considerados también.
Considere la figura 7. Dar una alineación a una máquina de 1800 RPM a la “excelente”
angulosidad y desfase proporcionadas en el gráfico previo, mire la cantidad de desalineación en
los pies de la máquina, que resulta ser muy cerca de los cojinetes de la máquina.
En resumen, lo que vemos es eso, aunque los valores de la desviación y la angulosidad en el
“cople” están dentro de tolerancias típicamente consideradas “excelente,” allí se queda las
desviaciones en los patas delanteras y traseras de la máquina de 0,007” (0.175mm) y 0,023”
(0.585mm), respectivamente.
62
Mientras los valores de la desalineación en este ejemplo obviamente no son “precisos,”
necesitamos considerar por qué la desalineación lleva a fracasos prematuros de la maquinaria,
especialmente en componentes tales como cojinetes y sellos mecánicos. Vea la figura 8
Al operar, las líneas centrales del eje que de rotación buscan una posición colineal, y eso es
verdad a pesar del tipo de cople, el tipo de cojinetes, o de la velocidad operacional de las
máquinas. Al tratar de alcanzar una posición colineal en este ejemplo, considere la cantidad de
desviación en las patas, también cerca del cojinete final, 0,005” (0.125mm) y 0,006” (0.155mm).
¿Por qué éstas desviaciones son un asunto?
Para contestar esa pregunta necesita considerar el espacio libre interno radial de los cojinetes y
el espacio libre entre el cojinete y la envoltura del cojinete. Para diámetros típicos de eje de
máquina de 2 pulgadas (50 Mm), el espacio libre interno máximo del elemento rodante típico del
cojinete es aproximadamente 0,001” (0,025 Mm) y el espacio libre máximo entre el diámetro
63
exterior del cojinete y la envoltura es también cerca de 0,001” (0,025 Mm), para un suma de sólo
0,002” (0,050 Mm).
Si, en este ejemplo, al tratar de alcanzar una posición colineal los dos ejes necesitan viajar
0,006” (0.155mm) y 0,005” (0.125mm), mas hay sólo 0,002” (0.050mm) de espacio disponible.
No sólo perdemos el espacio esencial necesitado para una película de aceite dentro de los
cojinetes, pero los cojinetes también no tienen elección sino sostener la carga dinámica adicional
y los ejes sostienen las fuerzas que doblan. Estas fuerzas adicionales no sólo causan desvío del
eje, que puede llevar a la falla del eje, sino también llevan al daño extenso del componente que
la mayoría de las personas consideran la conexión más débil en la máquina, el sello mecánico.
Un estudio reciente realizado en la Universidad de Tennessee encontró que las cantidades aún
pequeñas de desalineación podrían reducir apreciablemente la vida del cojinete. El estudio
encontró que si, en promedio, un motor fue desfasado y desalineado por 10% del desfase
admisible por el fabricante, había una reducción correspondiente del 10% en la vida interior del
cojinete. Además, si un motor fue desalineado desfasadamente por 70% del cople admisible por
el fabricante, había el 50 % correspondiente de reducción en la vida interna del cojinete. Los
resultados del estudio son resumidos en la Figura 9.
Una Perspectiva Diferente en Tolerancias de Alineación
Muchas compañías se han dado cuenta de la mejora significativa en la vida de los cojinetes, la
vida del sello, y a la confiabilidad general de la maquinaria aplicando las tolerancias de la
alineación tales como aquellas descritas abajo de que se enfocan no en el acoplamiento de la
angulosidad y los valores de la desviación, sino en las desviaciones máximas que son
permisibles en el acoplamiento y en los pies de la máquina.
Dado nuestro ejemplo previo, consideremos el valor de “las tolerancias de la alineación de la
precisión” en el eje, cojinete y la vida mecánica del sello. Considere la ilustración en la figura 11.
Por los valores en la figura 10, dando una desviación máxima en el acoplamiento de 0,001”
(0.025mm) y una desviación máxima en las patas de 0,002” (0.050mm), el gráfico de abajo
muestra el peor de los casos.
64
Con los ejes en esta posición, si nosotros ahora miramos las distancias que los dos ejes
necesitarían viajar para alcanzar una posición colineal, usted puede ver el valor de tales
tolerancias. En este caso, las distancias que los ejes necesitan viajar son menos de 0,001”
(0.025mm). Y, los espacios libres típicos dados del cojinete, usted puede ver que estas distancias
son no sólo tolerables a los cojinetes; sino en la reducción en la carga del cojinete, aumento en la
vida del lubricante, disminución del estres del eje, y finalmente en la vida mecánica del sello
ahora es tomada en cuenta.
Conclusiones
Las tolerancias de la alineación a menudo han sido tratadas con una actitud de desgano de “solo
aproxímate”. Sin embargo, las tolerancias de la alineación son realmente la medida de un
trabajo bien hecho. Hay dos razones de utilizar las tolerancias. La razón clave es de establecer
las metas. ¿Si usted no tiene una meta, cómo sabe usted cuando el trabajo esta terminado? Si no
hay una meta, no puede haber una alineación de calidad. El segundo propósito de las tolerancias
de alineación es de establecer la responsabilidad. La responsabilidad es la evaluación de la
calidad de la alineación. ¿Si no hay tolerancia de comparar una alineación a, cómo puede ser
juzgada la calidad de la alineación? La responsabilidad puede crear la competencia, conduciendo
a un mecánico para que consiga hacer un mejor trabajo.
Mientras la adherencia a tales tolerancias estrictas de la alineación coloca una variedad de
desafíos, y al encontrar estas tolerancias no son siempre prácticas ni necesarias, es claro que los
encontrando siempre que posible contribuirá positivamente alcanzar o exceder la vida del diseño
de los cojinetes y de los sellos. A cambio, esto ayudará a alcanzar esas metas que todos nosotros
nos esforzamos para -aumentar el tiempo productivo de la máquina, el MTBF, y aumentar la
capacidad de las utilidades de la empresa.
65
Michael Snider es el fundador y director general de Universal Technologies companies,
incluyendo operaciones en los EEUU, Europa, y Latino América. Michael tiene más de 23 años de
experiencia en los campos de confiabilidad de maquinaria, capacitación técnica, diseño y
desarrollo de programas de calificación y capacitación. Recibió su título en Filosofía e inglés en
1981 y 1982, respectivamente, del S. Andrews Presbyterian College y termino sus estudios y se
graduo de Física y Matemáticas en la Universidad de Carolina del norte en 1987. Michael es el
padre orgulloso de cinco niños y un nieto. Sus pasatiempos incluyen viajar, leer, esquiar en
nieve, y la escritura.
Gary Phillips es Instructor Senior en Universal Technologies con 28 años de experiencia en el
análisis de vibración y las técnicas de capacitación relacionadas con la confiabilidad de la
maquinaria. Su pericia se extiende a la localización de fallas y la resolución de problemas, el
análisis de la Causa Raíz, balanceo de campo y en-sitio, la evaluación de programas de
confiabilidad, la implementación y la administración, control de calidad y aseguramiento de la
calidad, la alineación avanzada de maquinaria de precisión que utiliza láser y los métodos de
indicador de dial. Gary recibió su título en Ingeniería Mecánica en 1969 de la Universidad de
Saskatchewan, Saskatoon, Saskatchewan. El vive en Duncan, Columbia Británica, Canadá.
66
Los Indicadores una Herramienta para la Confiabilidadpor Juan Carlos Orrego Barrera, Mantonline
Comentar
Ver commentarios
Imprimir
En la entrega anterior dejamos a un lado la segunda parte de nuestra pregunta clave para el
desarrollo del modelo de confiabilidad y nos centramos en el modelo de criticidad, ahora
entonces nos enfocaremos a esta segunda parte que a su vez, nos llevará a profundizar en los
indicadores, en primera instancia los que tienen que ver con la confiabilidad y luego en un
resumen de los que mundialmente se han denominado “Indicadores Claves de Desempeño” o
del inglés “Key Performance Indicators (KPI)”.
Definición de indicador: Magnitud utilizada para medir o comparar los resultados
efectivamente obtenidos, en la ejecución de un proyecto, programa o actividad. Resultado
cuantitativo de comparar dos variables.
Medida sustitutiva de información que permite calificar un concepto abstracto. Se mide en
porcentajes, tasas y razones para permitir comparaciones.
Recordemos la pregunta que nos lleva a esto:
¿Cuales son las funciones y los modelos ideales de rendimiento del recurso en su actual
contexto operativo (funciones)?
Los indicadores son entonces esto, medidas continuas que nos llevan a una magnitud ideal o de
diseño que cuando se hacen en forma objetiva sobre un proceso, lo hacen fácil de analizar e
igualmente facilita la toma de decisiones apropiadas para introducir mejoras.
Del ejemplo de la motobomba impulsora, tenemos el item que se refiere al consumo; “Tener un
consumo máximo de 7.8 Amp.”, esta cifra nos la da el fabricante quien determinó que bajo las
condiciones planteadas; fluido a mover, presión de trabajo, instalaciones, etc, el amperaje de
trabajo debe ser igual o inferior a este valor, por consiguiente, un monitoreo continuo de este,
nos puede llevar a determinar fallas en el equipo o el sistema, en este caso, el consumo puede
ser nuestro indicador a seguir.
Existen un buen numero de indicadores que pueden ser tomados como referencia, pero los
indicadores de cada compañía si no han sido construidos directamente por el personal de ella,
deben ser analizados desde la óptica de la empresa, sus objetivos y sus condiciones reales,
como decíamos antes, para efectos de confiabilidad, las cifras de indicadores de otros países
pueden ser los ideales y son un buen principio en caso tal que no se haya iniciado el seguimiento
67
propio o como en el caso colombiano, se carezca de dichas medidas en forma pública. Dentro de
los llamados a evaluar la confiabilidad tenemos:
1. MTBF son las siglas de “Mean Time Between Faillure” o “Tiempo Medio de Vida entre Fallos”.
Normalmente expresado en horas. Para un determinado dispositivo podemos decir que existe un
MTBF teórico o calculado y un MTBF práctico o medido.
Los MTBF nos dan un medida acertada de la Calidad del producto que diseñamos, fabricamos,
vendemos, compramos o que tenemos a cargo para el mantenimiento.
Donde ti es el tiempo de observación de n equipos y Kf el numero total de fallos de estos
equipos durante dicho período de evaluación.
2. MUT de “Mean UpTime” o “Tiempo Medio que el Equipo está Disponible” , que no tiene otra
explicación que su mismo nombre y que está dado por la siguiente ecuación:
Teniendo a td como el tiempo que el equipo i se encuentra disponible en el intervalo de
observación y Kd el total de tiempos en que el equipo i ha estado disponible, siendo n el total de
equipos observados.
3. MDT del Ingles “Mean DownTime” o “Tiempo medio que el Equipo No esta Disponible”.
En donde tu como el tiempo que el equipo i se encuentra como no disponible en el intervalo de
observación y Ku el total de tiempos en que el equipo i ha estado no disponible, siendo n el total
de equipos observados.
68
4. MRT de “Mean repair time” o Tiempo Medio de Reparación”, asociado mas a la mantenibilidad
pero igualmente medida importante para la confiabilidad, y nos muestra el período en el cual
podemos reparar un equipo hasta llevarlo a su estado de operación.
Si disponemos los tiempos medios de reparación de n equipos podemos obtener la estimación
del tiempo medio de reparación mediante la ecuación, donde Kr es el número total de
reparaciones durante el tiempo considerado y tr el tiempo de reparación correspondiente al
equipo i.
Es así como encontramos estos y otros tantos indicadores que nos han de servir para monitorear
nuestra labor, aquí un listado de algunos de ellos:
Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.
69
Cálculo de los Parámetros de la Distribución de Weibullpor Luis Hernando Palacio Palacio, Argos/ Planta Nare
Comentar
Ver commentarios
Imprimir
El presente artículo presenta, paso a paso, el método de los Mínimos Cuadrados para calcular los
parámetros de forma y escala de la distribución de Weibull. Para el cálculo del parámetro de
localización se emplea el complemento Solver de Excel.
También se presentan dos ecuaciones para calcular el estimador Rango de mediana (ecuaciones
5 y 6), siendo esta última una forma aproximada y la que generalmente se usa en la literatura
técnica. Ya que la ecuación (5) es más exacta, ésta es la que se emplea; para ello, y debido a su
complejidad, se presenta el código fuente — en el lenguaje VBA (Visual Basic para Aplicaciones)
— para crear una función definida por el usuario en Excel. Igualmente se usan las funciones
PENDIENTE e INTERSECCIÓN.EJE, de Excel, para calcular la pendiente y el intercepto de la línea
de regresión.
1. INTRODUCCIÓN
La distribución de Weibull es una distribución continua y triparamétrica, es decir, está
completamente definida por tres parámetros y es la más empleada en el campo de la
confiabilidad.
A pesar de la popularidad de esta distribución, en la revisión bibliográfica efectuada, la mayoría
de los artículos y literatura técnica consultados se remiten a una distribución biparamétrica y,
más aún, los ejemplos allí desarrollados presentan como datos conocidos los dos parámetros,
generándose, así, las siguientes preguntas: ¿Cómo se calculan los parámetros? y ¿por qué se
omite el cálculo del tercer parámetro? El tercer parámetro es el parámetro de localización, es
decir, el parámetro que localiza la abscisa a partir del cual se inicia la distribución.
El objetivo del presente artículo es responder a las dos preguntas anteriores, presentando una de
las cinco metodologías — analíticas — existentes para el cálculo de los parámetros y algunos
criterios para determinar si es necesario tener en cuenta el tercer parámetro.
El método que se presenta es el método de los Mínimos Cuadrados, por tres razones: la primera,
es un método simple y expedito de aplicar; la segunda, la gráfica de los datos sirven como una
prueba de bondad de ajuste de la distribución y, la tercera, da un indicio sobre si se debe
calcular o no el parámetro de localización.
Para una metodología gráfica, la cual hace uso del papel especial llamado papel de probabilidad
de Weibull, véanse las referencias [5], [6]
70
2. EXPRESIÓN MATEMÁTICA DE LA DISTRIBUCIÓN
La función de densidad de la distribución de Weibull para la variable aleatoria t está dada por la
siguiente expresión:
Donde
t: Variable aleatoria que, para el caso de la confiabilidad, representa el tiempo entre fallas.
β: Parámetro de forma (0<β<∞)
θ: Parámetro de escala (0<θ<∞)
δ: Parámetro de localización (-∞δ<∞)
El parámetro beta, como su nombre indica, determina la forma — o perfil— de la distribución, la
cual es función del valor de éste.
El parámetro theta indica la escala de la distribución, es decir, muestra que tan aguda o plana es
la función.
El parámetro delta indica, en el tiempo, el momento a partir del cual se genera la distribución.
Una distribución biparamétrica está completamente definida por los parámetros de forma y de
escala.
La función confiabilidad R (t) de Weibull se determina por la siguiente expresión:
La función distribución acumulativa F (t) es el complemento de la función confiabilidad y se
define de la siguiente manera:
71
De la expresión anterior, se concluye que la función distribución acumulativa se puede
interpretar como la probabilidad de falla.La relación entre la función confiabilidad y la función
probabilidad de falla se muestra en la figura 1.
Para ampliar la imagen haga clic sobre ella, regrese utilizando su navegador.
3. DETERMINACIÓN DE LOS PARÁMETROS POR EL MÉTODO DE LOS MÍNIMOS
CUADRADOS
Como se mencionó en el numeral uno, existen cinco métodos para calcular los parámetros de la
distribución de Weibull. Ellos son:
Mínimos cuadrados.
Gráfico de la función tasa de falla.
Máxima similitud.
Estimación de momentos.
Estimadores lineales.
Para ilustrar el método de los mínimos cuadrados, se desarrollará paso a paso un ejemplo.
El método de los mínimos cuadrados permite calcular los parámetros de forma y escala,
mediante la transformación doble logarítmica de la función de distribución acumulativa
(ecuación 3). El cálculo del parámetro de localización es más complejo, empleándose para ello
rutinas de cálculo, como el programa Solver de Excel.
La transformación doble logarítmica permite transformar la función de distribución acumulativa
en una ecuación lineal de regresión.
3.1 Deducción de la ecuación lineal de regresión
Función acumulativa de Weibull.
72
Aplicando logaritmos naturales.
Propiedad exponencial de los logaritmos.
Aplicando logaritmos naturales.
La expresión (*) representa una ecuación lineal de la forma
La cual es una recta de regresión, con:
De la expresión (**) se concluye que el parámetro de forma, β, es la pendiente de la recta de
regresión.
De la expresión (***) se observa que el parámetro de escala, θ, está en función del intercepto b
de la recta de regresión y del parámetro de escala; por lo tanto:
73
(4) Definición de logaritmo.
3.2 Rango de mediana
Para poder trazar la recta de regresión, se debe calcular un estimador para la función de
distribución acumulativa F(x). Este estimador, llamado Rango de mediana, es un estimador no
paramétrico basado en el orden de las fallas. Este aspecto implica que la muestra de datos se
debe organizar de menor a mayor (en forma ascendente).
La expresión matemática para este estimador es:
Donde:
Wα (i): Rango de mediana para un nivel de confianza (1-α), donde α es el nivel de significancia y
toma el valor de 0.5 para este estimador.
i: Orden de la falla.
n: Número total de datos de la muestra.
Fα, v1, v2: Valor crítico de la distribución F, evaluada en el nivel de significancia α y con grados
de libertad v1 y v2.
Dada la complejidad de la ecuación (5), generalmente el rango de mediana se aproxima
mediante la siguiente expresión, exacta dentro de 0.005 [1]:
Donde:
RM(xi): Rango de mediana.
i: Orden de falla.
74
n: Número total de datos de la muestra.
Dado que la ecuación (5) es más exacta, en los cálculos se empelará ésta. Para facilitar su
empleo, a continuación se presenta el código fuente para crear una función definida por el
usuario en Excel.
Para crear la función, síganse los siguientes pasos:
Abra Excel.
Hágase la combinación de teclas Alt +F11. Esta acción abrirá el editor de Visual Basic.
En el menú insertar de VB, selecciónese la opción Módulo.
En el panel derecho, cópiese el siguiente código fuente:
Public Function RangoMediana(alfa As Single, n As Long, i As Long) As Double
’*****************************************************************************
’*Esta función calcula el rango de mediana en función de la distribución F. *
’*alfa representa el nivel de significancia con el que se calcula la dist. F.*
’*n es el número de puntos de la muestra. *
’*i es el orden de falla. *
’*****************************************************************************
Dim a As Double, f As Double
On Error GoTo ManejarError
a = i / (n - i + 1)
f = Application.WorksheetFunction.FInv(alfa, 2 * (n - i + 1), 2 * i)
RangoMediana = a / (f + a)
Salir:
Exit Function
ManejarError:
Select Case Err.Number
Case 1004
75
MsgBox “Los argumentos (n) o (i) no pueden ser cero.”, vbCritical + vbOKOnly
Case Else
MsgBox “Se ha generado el error ” & Err.Number & _
Err.Description, vbCritical + vbOKOnly
End Select
Resume Salir
End Function
Hágase clic en guardar del menú Archivo del editor de VB para guardar la función.
Hágase clic en Cerrar y volver a Excel del editor de VB. Esta acción cierra el editor de VB.
Para usar la función creada, selecciónese Función del menú Insertar de Excel. Se abre la
ventana Insertar función.
En la ventana Insertar función, en la lista desplegable O seleccionar una categoría,
selecciónese la categoría Definidas por el usuario.
En el cuadro de lista Seleccionar una función, hágase clic en RangoMediana.
Hágase clic en el botón Aceptar.
En la ventana Argumentos de función, digítese los valores de los argumentos. Téngase
en cuenta que el valor del argumento alfa siempre es 0.5.
3.3 Pasos
1.- A continuación se presenta la secuencia que se debe seguir en la aplicación del método de
los Mínimos Cuadrados.1. Asuma (parámetro de localización) igual cero y ordene los datos de
menor a mayor. El criterio de ordenación debe ser el tiempo entre fallas. Véase la tabla 1.
76
2. Calcule el rango de mediana para cada observación usando la ecuación (5) ó (6).
En nuestro caso se usará la ecuación (5), empleando la función definida por el usuario
RangoMediana. Véase la figura 2.
Los argumentos de la función RangoMediana toman los siguientes valores:
Alfa=0.5; n=140 (total de puntos de la muestra); i= toma el valor indicado en la columna A. Los
valores calculados se muestran en la tabla 2.
77
3. Calcule el logaritmo natural del tiempo entre fallas para cada observación.
Véase la figura 3.
Obsérvese que en la función LN(número) de la columna D, el parámetro de localización, el cual
se obtiene de la celda L8, vale cero. Esto es importante, ya que la celda que contiene el
parámetro de localización será la celda cambiante de Solver, en el caso que sea necesario
calcular este parámetro. Los valores de la abscisa x se muestran en la tabla 3.
78
4. Calcule el valor de la ordenada y, es decir, el logaritmo del logaritmo del inverso de uno
menos el rango de mediana para cada uno de las observaciones de la muestra. Véase la figura 4.
Obsérvese la anidación de la función logaritmo. El valor del rango de mediana se obtiene de los
datos calculados en la columna C. Los valores de la ordenada y se muestran en la tabla 4.
79
5. Genere un gráfico con los datos de las columna D y E.
Al trazar estos puntos, se genera la recta de regresión. Para ello selecciónese Gráfico del menú
Insertar de Excel; aparece la ventana Asistente para gráficos. En ésta, escójase la opción XY
(Dispersión) en la lista Tipo de gráfico y síganse las instrucciones en pantalla. Véase la figura 5
Para hallar la ecuación de la recta de regresión, empléense las funciones: PENDIENTE
(conocido_y; conocido_x) donde: conocido_y son los valores dependientes (valores de la columna
E) y conocido_x son los valores independientes (valores de la columna D) para estimar la
pendiente de la recta; INTERSECCIÓN.EJE (conocido_y; conocido_x) para estimar el intercepto de
la recta. Para determinar el grado de correlación lineal de los puntos, empléense las funciones:
PEARSON (matriz1; matriz2) donde matriz1 son los valores dependientes (columna E) y matriz2
son los valores independientes (columna D). Esta función devuelve el coeficiente de correlación
r. COEFICIENTE.R2 (conocido_y; conocido_x) devuelve el cuadrado del coeficiente de correlación.
Estos valores, en sí, representan una especie de prueba de bondad de ajuste de la recta de
regresión. El coeficiente de correlación está indicando que tan fuerte o débil es la relación lineal
entre los datos; si este valor es más cercano a uno, hay una fuerte dependencia lineal. Por otro
lado, el coeficiente de determinación, r2, está indicando el porcentaje de los puntos que están
relacionados linealmente.
Aplicando las anteriores funciones de Excel, se obtiene la siguiente recta de regresión:
y=0.6995x-1.9514 (7)
80
De donde:
El coeficiente de correlación, r, indica que hay una excelente relación (dependencia) lineal de los
datos, ya que su valor está muy próximo a uno. El coeficiente de determinación, r2, indica que el
94.64% de los datos están relacionados linealmente. En conclusión, estos valores indican que la
muestra se comporta conforme a la función de densidad de Weibull.
6. Estime el valor del parámetro de forma y de escala.
Dado que el parámetro de forma es la pendiente de la recta de regresión, de la ecuación (7) se
obtiene:
De la ecuación (4), numeral 3.1, se obtiene el valor del parámetro de escala:
3.4 Consideraciones sobre el parámetro de localización
Las siguientes consideraciones se deben tener en cuanta al momento de analizar un parámetro
de localización diferente de cero. Véanse las referencias bibliográficas [1], [6]
a) Si al graficar los puntos de la muestra aparece una cola de puntos hacia arriba o hacia abajo,
es un indicativo de que el parámetro de localización debe ser calculado.
b) Una cola hacia abajo o una reducción súbita de la pendiente son indicativos de que un
parámetro de localización positivo está presente. Véase la figura 5.
c) Una cola hacia arriba o un incremento súbito de la pendiente son indicativos de que un
parámetro de localización negativo está presente. Este punto está de acuerdo con el intervalo de
validez de . Véase el numeral 2.
Un parámetro de localización negativo se presenta cuando hay unidades con fallas en servicio, o
unidades en servicio con defectos que causarán fallas. Ejemplos:
Defectos originados durante el ensamble.
Defectos originados durante el transporte.
Defectos originados durante la instalación o montaje.
81
Defectos originados durante el almacenamiento.
d) Valores grandes del parámetro de forma (β>10) son otro indicativo de que el parámetro de
localización debe ser calculado.
Teniendo en cuanta las consideraciones anteriores, y analizando la figura 5, se procederá a
calcular el parámetro de localización.
3.5 Cálculo del parámetro de localización
Para el cálculo del parámetro se usará el complemento Solver de Excel, ya que debe ser
determinado por ensayo y error.
Para empezar, se debe definir la celda cambiante que, como se mencionó en el paso 3 del
numeral 3.3, debe ser la celda donde se asignó el valor cero. Esta celda debe estar involucrada
en una función. Véase la figura 3.
El mejor estimador de es el valor de que proporcione el mejor ajuste de la línea de
regresión de los datos muéstrales. El coeficiente de determinación, r2, proporciona esta medida
[1], ya que éste mide la cantidad de puntos que están relacionados linealmente y, por lo tanto, la
celda que contenga este valor será la celda objetivo a maximizar — pues el objetivo es mejorar
el ajuste de la recta de regresión—. Para iniciar el cálculo se debe indicar al programa un punto
de inicio, o punto semilla, en la celda cambiante. El mejor valor de inicio de es un valor
ligeramente inferior al valor más bajo del tiempo entre fallas de la muestra. Para el ejemplo, el
punto semilla sería 0.166 (es ligeramente inferior al valor más bajo del tiempo entre fallas de la
muestra, el cual corresponde al dato de orden uno —0.167—. Véase la tabla 1). Este constituye
la restricción en Solver. Véase la figura 6.
82
Es importante tener en cuenta que la celda objetivo debe contener una formula que relacione
directa o indirectamente el valor de la celda cambiante. Para el ejemplo la formula sería
COEFICIENTE.R2 (E3:E142, D3:D142). Obsérvese que el rango del segundo argumento involucra
la celda cambiante L8. Véase la figura 3.
Al hacer clic en el botón Resolver de la ventana Parámetros de Solver, el programa genera la
solución 0.161, siendo este el valor del parámetro de localización, y el coeficiente de correlación
se maximiza a 0.9886; es decir, al tener en cuenta el parámetro de localización se mejora el
ajuste de la recta de regresión. De igual manera, los parámetros de forma y escala, y los valores
de las abscisas (Xi) y ordenadas (Yi) se actualizan. Véase la figura 7.
Para que los valores se actualicen automáticamente, éstos deben estar relacionados por
fórmulas, tal y como se muestra en la figura 8.
83
Nótese que el valor del parámetro de localización es positivo, corroborando lo dicho en la parte
b) del numeral 3.4. La figura 9 muestra el trazo de la nueva recta de regresión, siendo notable la
agrupación de los puntos en forma de línea. Comparece esta figura con la figura 5.
En la figura 10 se muestra el gráfico de la función de densidad de Weibull para los parámetros
calculados. Reemplazándolos en la ecuación (1) se obtiene la siguiente ecuación:
84
CONCLUSIONES
1. El método de los mínimos cuadrados facilita el cálculo de los parámetros de la distribución de
Weibull cuando se emplean programas informáticos como Excel.
2. El análisis del gráfico de la recta de regresión sirve de criterio para determinar si es necesario
calcular el parámetro de localización.
3. El parámetro de localización tiene un gran efecto en la recta de regresión; sin embargo, se
debe analizar concienzudamente si un diferente de cero es necesario.
4. El coeficiente de correlación, r, y el coeficiente de determinación, r2, se constituyen en una
prueba de bondad de ajuste para la recta de regresión.
REFERENCIAS BIBLIOGRÁFICAS
1. Dodson, Bryan. The Weibull Analysis Handbook. 2da ed. Milwaukee, Wisconsin: ASQ
Quality Press, 2006.
2. Abernethy, Robert B. The New Weibull Handbook. 5ta ed. North Palm Beach, Florida.
2006
3. Walpole, Ronald E y Raymond Meyers. Probabilidad y estadística para ingenieros. 3ra ed.
México: Interamericana, 1990
85
4. Céspedes Zapata, Lucas y Santiago Mejía Isaza. Implementación de un Sistema de
Indicadores para la gestión de Mantenimiento de una empresa textilera. Medellín,
2005,194p. Trabajo de grado Ingeniería Mecánica. Universidad EAFIT. Departamento de
Ingeniería Mecánica. Área de mantenimiento.
5. Tamborero del Pino, José María. NPT 331: Fiabilidad: La distribución de Weibull [En línea]
Disponible en:
http://www.insht.es/InshtWeb/Contenidos/Documentacion/FichasTecnicas/NTP/Ficheros/
301a400/ntp_331.pdf [Consulta: 22 de julio de 2010]
6. Estimation of the Weibull parameters [En línea] Disponible en:
http://www.weibull.com/LifeDataWeb/lifedataweb.htm [Consulta. 26 de julio de 2010]
7. Yáñez, Medardo; Perdomo, José L y Gómez de la Vega, Hernando. Ingeniería de
Confiabilidad: Pilar fundamental del mantenimiento [En línea] Disponible en:
http://confiabilidad.net/articulos/ingenieria-de-confiabilidad-pilar-fundamental-del-
mantenimiento/#comment-list [Consulta: 28 de julio de 2010]
8. Duarte Holguín, Juan Carlos. Mantenimiento centrado en confiabilidad usando métodos
de simulación del ciclo de vida [En línea] Disponible en:
http://www.noria.com/sp/rwla/conferencias/mem/Duarte-paper.pdf [Consulta: 28 de julio
de 2010]
9. García Palencia, Oliverio. Optimización estadística del mantenimiento industrial [En línea]
Disponible en:
http://www.aciem.org/bancoconocimiento/O/Optimizacionestadisticadelmantenimientoin
dustr/Optimizacionestadisticadelmantenimientoindustr.asp [Consulta: 28 de julio de
2010]
10.Luna, Ana Eugenia. Teoría de la confiabilidad [En línea] Disponible en:
http://focuslab.lfp.uba.ar/public/CursoTErrores2k4/Monografias2005/Ana_E_Luna.pdf
[Consulta: 22 de julio de 2010]
86