PLANEAMIENTO, DESARROLLO E INGENIERIA DEL PRODUCTO
UNIDAD III
INGENIERIA SIMULTANEA
¿Qué Es La Ingeniería Concurrente?
En la actualidad existe un amplio consenso en afirmar que la ingeniería concurrente
(también ingeniería paralela o ingeniería simultánea) es la forma más eficiente de hacer
ingeniería en un entorno cada vez más competitivo. Puede definirse la ingeniería
concurrente como el conjunto de técnicas destinadas a acortar el tiempo de desarrollo de
los proyectos, incorporando la voz del cliente y garantizando al mismo tiempo la calidad
del producto durante todo su ciclo de vida, desde el diseño hasta el reciclaje, mediante
la realización simultánea de actividades y el trabajo en equipos multidisciplinares. La
ingeniería concurrente permite también la contención de los costes totales del ciclo de
vida del producto y aún más importante, constituye una ventaja competitiva al permitir
posicionar los productos en el mercado en un breve plazo de tiempo.
La idea básica sobre la que se sustenta la ingeniería concurrente responde en cierto
modo al sentido común, y consiste en iniciar todas las actividades del proyecto cuanto
antes, haciendo participar desde el principio a todos los departamentos implicados
(diseño, desarrollo, producción, marketing, compras, etc…) así como a los proveedores.
Sin embargo ello conlleva en la práctica una serie de nuevos problemas organizativos
que, si no son debidamente resueltos, pueden disminuir substancialmente su efectividad.
El enfoque concurrente obliga a avanzar la toma de decisiones a etapas cada vez más
tempranas del proceso de diseño y desarrollo, y por tanto a decidir a partir de
información más incompleta e inmadura, siendo necesario al mismo tiempo asegurar el
éxito al primer intento. Para conseguirlo se han desarrollado una serie de tecnologías
predictivas cuya función es prevenir problemas potenciales avanzando el curso de los
hechos. Por otra parte el flujo de información es también más complejo y exige una gran
agilidad, especialmente cuando dicho flujo se produce entre distintas empresas que
colaboran en el desarrollo de un mismo proyecto.
No obstante, la Ingeniería Concurrente se ha incorporado ya al día a día de
prácticamente todas las empresas del sector de automoción, tanto en lo referente a los
trabajos realizados internamente como, y muy especialmente, a nivel de las relaciones
entre los fabricantes y sus proveedores.
El proceso de cambio desde la Ingeniería Secuencial clásica al nuevo concepto de
Ingeniería Concurrente no ha sido simple ni ha conducido a un único modelo. A las
reconocidas ventajas teóricas de este enfoque ha habido que añadir gran cantidad de
dificultades prácticas como el cambio cultural implicado, un nivel de incertidumbre
creciente, la necesidad de coordinar equipos multidisciplinares y multiempresariales,
etc… A pesar de ello, con sus ventajas, inconvenientes, virtudes y dificultades, La
ingeniería Concurrente ha demostrado ser, hoy por hoy la única forma eficaz de hacer
ingeniería.
Objetivos De La Ingeniería Concurrente
Como se ha dicho, el objetivo básico de la ingeniería concurrente es la disminución en
el tiempo total transcurrido desde la detección de una necesidad hasta la
comercialización de un producto. La importancia en la aceleración de este proceso
radica, como es sabido, en la ventaja competitiva que supone alcanzar el mercado antes
que los competidores consiguiendo así un mejor posicionamiento.
Este objetivo principal viene acompañado de otros objetivos parciales, no por ello
menos importantes, como son la reducción de los costes totales, el aumento de la
calidad y fiabilidad global del producto así como el incremento del valor añadido. Este
último aspecto implica un cambio de enfoque radical por parte de los técnicos, que
deben anteponer a su criterio la visión del producto por parte del cliente. Ello conlleva
elaborar un conjunto de requerimientos y condicionantes mucho más completos, y en
definitiva un mejor conocimiento del problema ya desde las etapas más iniciales.
Mecanismos De La Ingeniería Concurrente
La ingeniería concurrente se sustenta sobre tres pilares, o mecanismos, básicos que le
confieren sus especiales características. Es importante señalar que cada uno de estos tres
mecanismos debe estar presente e integrado de forma adecuada con los otros dos para
asegurar el éxito.
Paralelismo:
El primero de ellos es el paralelismo, y de aquí que en determinados sectores la
ingeniería concurrente reciba el nombre de ingeniería paralela o ingeniería simultánea.
El paralelismo reduce el tiempo global mediante la realización simultánea de cuantas
tareas sea posible. Incrementar la efectividad mediante la realización de tareas en
paralelo es una idea compartida con otros campos tecnológicos como por ejemplo el
informático, donde los procesadores paralelos y las técnicas de programación asociadas
están suponiendo una verdadera revolución.
Mediante el paralelismo se racionaliza la descomposición del trabajo, evitando las
pérdidas de tiempo inherentes a un enfoque secuencial. Al mismo tiempo exige un
mejor desarrollo y transferencia de la información entre tareas.
Integración:
Al paralelismo debe añadirse otro mecanismo básico de la ingeniería concurrente que es
la integración. Uno de los grandes problemas del enfoque clásico de la ingeniería es sin
duda la división del trabajo en compartimentos estancos y deficientemente
comunicados. El paralelismo fuerza la integración entre departamentos, especialmente
entre ingeniería y producción, lo que reduce el impacto de la división de trabajo en áreas
de especialización y gestión. Sólo mediante la integración es posible tomar en
consideración todo el conocimiento de las disciplinas relevantes en cada fase del
desarrollo del producto.
Además de mejorar la comunicación, la integración evita la repetición innecesaria de
tareas por diferencias de criterios y la suboptimización derivada de enfoques
excesivamente parciales.
Presciencia:
Los mecanismos de paralelismo e integración presentan substanciales ventajas
conceptuales respecto a un enfoque clásico de la ingeniería de tipo secuencial, y definen
por sí solos las características básicas de un entorno de ingeniería concurrente. No
obstante su aplicación supone una serie de dificultades notables entre las que destaca un
aumento de la ambigüedad y de la incertidumbre en todas las fases del desarrollo,
siendo necesario tomar decisiones cada vez más tempranas, y en base a información
incompleta, situación que por otra parte debe hacerse compatible con un aumento en la
calidad y fiabilidad del producto final.
En consecuencia debe añadirse un tercer mecanismo destinado a disminuir el impacto
de esta aparente contradicción. Dicho mecanismo es la presciencia, o conjunto de
técnicas cuya misión es avanzar el curso de los hechos. Sólo a través de ellas es posible
estar preparados frente a posibles eventualidades mediante la exploración temprana de
las actividades futuras, tomando así las decisiones adecuadas cuanto antes y al mínimo
coste. La presciencia es la clave para alcanzar el objetivo de conseguir el resultado
correcto al primer intento, evitando la repetición innecesaria de tareas y la toma de
decisiones erróneas.
Técnicas Y Herramientas De La Ingeniería Concurrente
La implementación práctica de la Ingeniería concurrente supone el uso de toda una serie
de técnicas y herramientas especialmente adaptadas para ella y sin las cuales no sería
posible alcanzar los niveles de eficacia exigidos. A continuación se enuncian y
describen brevemente dichas técnicas.
Técnicas
Se incluyen en este apartado una serie de técnicas con una incidencia directa sobre la
calidad de diseño. La calidad del diseño es un factor clave del éxito puesto que limita la
máxima calidad alcanzable por un producto.
Brainstorming
El brainstorming es una técnica creativa para la búsqueda de soluciones (o causas) a un
problema dado. La principal característica del método es la prohibición de efectuar
críticas a las ideas expuestas por los miembros del grupo de trabajo a fin de evitar la
inhibición de cualquiera de ellos. Dichas ideas son después agrupadas por categorías y
priorizadas por votación en orden a generar un plan de actuación.
Diagramas Causa Efecto
El diagrama Causas-Efecto de Ishikawa consiste en la representación gráfica, ordenada
y lógica, de la cadena de causas que conducen a un determinado efecto.
Puede aplicarse como paso intermedio en la aplicación de otras técnicas como el
AMFE, o directamente para buscar la solución a un determinado problema.
Despliegue de la función de calidad (QFD)
El QFD es una técnica sistemática para relacionar los requisitos demandados por el
mercado (voz del cliente) con las características técnicas del producto a través de cada
etapa de su creación, con la participación de todas las funciones de la empresa que
intervienen en el mismo. La herramienta básica del QFD es la construcción de matrices
de interrelación a todos los niveles.
Análisis del Valor
Las técnicas de análisis del valor están orientadas también a la satisfacción de las
necesidades del cliente pero poniendo el énfasis en la optimización simultánea de los
costes y los procesos. Para ello se separan los aspectos que generan "valor" de aquellos
que sólo generan coste, priorizando a los primeros sobre los segundos.
El valor es la suma de la impresión inicial del usuario ante el producto y la satisfacción
durante el uso. El coste integra todas las componentes desde el desarrollo inicial hasta el
final de la vida útil.
Análisis de modos de fallo y sus efectos (AMFE)
El AMFE es una técnica sistemática para asegurar que todos los modos de fallo que
puede presentar un producto o un proceso han sido analizados y prevenidos. Para ello se
asocia cada modo de fallo con sus causas y los efectos que producen. A partir de dicho
análisis se establecen prioridades así como un plan de actuación encaminado a eliminar
o minimizar las causas más importantes de los fallos.
Diseño de experimentos (DOE)
Las técnicas de diseño de experimentos están encaminadas a la planificación estadística
de los ensayos a fin de maximizar la información extraída (efecto de la variación de los
parámetros sobre el comportamiento del sistema) minimizando el número de los
mismos. El diseño de experimentos se complementa con el análisis de las superficies de
respuesta y las técnicas de optimización. De entre las técnicas de optimización destacan
los métodos de diseño robusto de Taguchi cuyo objetivo es minimizar la sensibilidad
del comportamiento del producto a las variaciones en los parámetros de entrada.
Diseño para la manufactura y el ensamblaje (DFMA)
Las técnicas DFMA intentan asegurar una fabricación más fácil a través de la
simplificación de todas las operaciones. La idea básica es minimizar el número de
piezas (piezas estandarizadas, multifuncionales, etc. ) y conseguir que estas se puedan
montar de forma directa y sin errores (montaje con movimientos en una sola dirección,
ajuste fácil, piezas de sujeción separadas, etc…).
Herramientas
La aplicación de la ingeniería concurrente exige también la utilización de una serie de
herramientas basadas en la informática y las tecnologías de la información. Sin dichas
herramientas es prácticamente imposible conseguir los niveles de integración,
comunicación y predicción exigidos por el enfoque concurrente.
Diseño y fabricación asistidas (CAD/CAM)
El diseño asistido por ordenador (CAD) es indispensable en un entorno de ingeniería
concurrente, no sólo por cuestiones de eficacia operativa sino también para garantizar
un intercambio ágil y sin errores así como una actualización constante de la información
entre los diversos grupos de trabajo implicados en el proyecto (especialmente entre las
ingenierías de producto y fabricación). Con una adecuada combinación de hardware y
software pueden conseguirse drásticas reducciones en los plazos de ejecución,
especialmente cuando se integra la información de diseño con la generación de
programas de mecanizado (CAM).
Simulación numérica (CAE)
La necesidad de la previsión forma ya parte del enfoque ingenieril clásico en el que el
desarrollo experimental juega, desde hace muchos años, un papel fundamental en orden
a evitar problemas durante el uso. En este sentido la experimentación sobre prototipos
físicos constituye una versión básica de la presciencia, que distingue al producto
industrial del producto artesanal, cuya evolución se produce mediante un esquema de
prueba, error y selección puramente darwiniano.
Consecuencia de ello, los departamentos de ensayos tienen una larga tradición en todos
los sectores industriales al tiempo que acumulan una gran parte del conocimiento de la
empresa sobre el producto y su comportamiento real.
Sin embargo el actual nivel de exigencia en cuanto a disminución de costes y tiempos
de desarrollo dificulta mucho la utilización de la experimentación como única
herramienta de la presciencia. Afortunadamente los avances realizados en el mundo de
la informática y de la simulación numérica de los fenómenos físicos ha permitido
incorporar al proceso un bucle rápido de valoración y optimización basado en las
herramientas de simulación.
Esta problemática se agudiza aún más en un entorno de ingeniería concurrente, donde la
simulación es una herramienta indispensable para "saltar" sobre actividades costosas en
tiempo y dinero, y verificar así si la solución escogida es adecuada. La simulación
reduce el riesgo en la toma de decisiones tempranas y amplía el campo de exploración
de soluciones posibles facilitando los procesos de optimización.
Gracias a la simulación es hoy posible estimar sobre prototipos virtuales cuál será el
comportamiento físico futuro del producto, antes de que exista ningún prototipo físico.
Sobre dichos prototipos virtuales se efectúan y valoran las modificaciones que se
estimen necesarias hasta estar razonablemente seguros de que el primer producto
fabricado corresponderá a una versión casi definitiva. Por tanto, diseñar con base a la
utilización a prototipos virtuales es un hecho que debe asumirse como necesario para no
correr el riesgo de quedar desfasados en un mercado cada vez más exigente y
competitivo. No obstante hay que tener presente que todo el proceso de simulación
numérica es sólo una aproximación a la realidad. Durante la definición del modelo
físico-matemático de un problema real, aparecen incertidumbres cuya resolución incide
directamente en la calidad y fiabilidad de los resultados obtenidos. Dichas
incertidumbres no solo se deben al propio proceso de generación del modelo numérico y
posterior cálculo, sino también a las indeterminaciones existentes en la descripción
física del problema.
Durante la realización de un proyecto en un entorno de ingeniería concurrente, la
simulación debe evolucionar de modo que su enfoque resulte siempre compatible con la
cantidad y calidad de la información disponible. El resultado de una simulación nunca
es más preciso que la información de partida utilizada en la misma. En consecuencia la
simulación evoluciona de lo general a lo particular y de lo cualitativo a lo cuantitativo
en la medida que disminuye la incertidumbre remanente.
La simulación no sólo es de utilidad en las etapas iniciales de definición del producto
sino que también los es en el diseño y desarrollo de los procesos de fabricación. Hoy en
día es posible simular los procesos de inyección, fundición, forja, conformado de chapa
y corte. Mediante estas herramientas puede ponerse a punto el proceso de fabricación de
forma virtual y antes de realizar importantes inversiones en medios de producción.
Ensayo (CAT)
Al tratarse de una tecnología relativamente reciente, los departamentos encargados de
realizar los trabajos de simulación suelen estar desligados de los departamentos
responsables de la realización de los ensayos, creándose dos "culturas" diferentes que
dificultan la integración. Esta es una situación claramente a evitar puesto que la mayor
efectividad conjunta de las herramientas de ensayo y simulación sólo se alcanza
aprovechando sus sinergias y a través de un proceso de adaptación mutua en el que la
experimentación ya no juega el mismo papel que anteriormente. A titulo de ejemplo se
apuntan seguidamente algunos de los aspectos en los que la simulación requiere un
soporte experimental adecuado, y que sin duda constituirán una área de crecimiento
para las técnicas experimentales en el futuro inmediato.
Es un hecho que los modelos teóricos implementados en los sistemas de simulación son
cada vez más complejos. Como consecuencia de ello se precisan características físicas
de los materiales que en ocasiones no están disponibles, o bien no han sido
determinadas al nivel deseable para la simulación. Esto hace necesaria la realización de
ensayos destinados a caracterizar los diversos tipos de comportamiento físico, en los
términos necesarios para la simulación numérica.
A pesar de disponer de todos los datos para caracterizar los materiales, y como ya se ha
dicho más arriba, la simulación numérica conduce a un resultado aproximado del
problema físico planteado. Cuantificar el "error", entendido no en un sentido absoluto
sino como la discrepancia entre la solución numérica frente a la realidad física, es una
tarea difícil ya que los resultados experimentales también están sujetos a error y por
tanto no pueden tomarse como una referencia absoluta. A pesar de ello el esfuerzo de
establecer la correlación entre simulación numérica y ensayo constituye siempre una
gran ayuda, tanto para la depuración del proceso de simulación numérica en sí como
para la del propio proceso de experimentación.
Otra cuestión importante a considerar es el hecho de que hay ciertos aspectos de los
problemas reales que por su naturaleza no puedan ser simulados, ya porque ello resulte
antieconómico frente al ensayo, ya porque la física del problema no sea suficientemente
conocida como para establecer un modelo teórico fiable. Aquí vuelve a destacarse la
experimentación como único recurso viable para la evaluación de ciertas problemáticas.
La experimentación juega también un papel fundamental en la determinación de unas
condiciones de carga y enlace adecuadas para la posterior realización de simulaciones
numéricas efectivas. El mejor modelo numérico resulta inoperante si tal información no
está disponible al nivel de exactitud requerido.
Como puede deducirse de lo dicho, en un entorno de ingeniería concurrente existe un
importante nivel de complementariedad entre los enfoques numérico y experimental que
debe ser potenciado mediante una adecuada integración de ambos. Es indispensable
validar los resultados obtenidos con los modelos numéricos en función del propósito
perseguido en la simulación, al tiempo que es necesario verificar que se ha obtenido un
nivel de correlación suficiente entre simulación y ensayo, especialmente la primera vez
que se aborde una determinada tipología de problema. Esta tarea muy útil cuando se
trate de cálculos y ensayos repetitivos, donde el esfuerzo de validación y correlación
puede repercutirse a través de una explotación continuada del proceso de simulación. En
dichos casos se puede incluso definir un procedimiento formal de análisis, que
incorporará las instrucciones necesarias para una realización fiable de la simulación,
incluyendo las conclusiones obtenidas de su validación experimental así como de la
experiencia acumulada en su propia aplicación. Esta forma de proceder es muy
adecuada en los procesos de la virtualización de ensayos cuyo objetivo es minimizar
ciertos tipos de ensayo estándar.
Otro campo muy importante de aplicación de la simulación numérica con relación a la
experimentación consiste en su utilización en el planteamiento, así como en el análisis
de resultados de ensayos complejos. En estos casos la simulación ofrece un marco
teórico de trabajo de gran utilidad al estar basado en la física del problema, forzar la
valoración de los distintos parámetros que intervienen en el fenómeno, y permitir el
análisis de la sensibilidad del resultado frente a variaciones en los mismos.
Al margen de su utilización en sinergia con la simulación, la experimentación forma
parte de la presciencia cuando es capaz de predecir comportamientos futuros
anticipando los resultados de otros ensayos más complejos o tardíos. En este campo se
encuentran los ensayos acelerados y aquellos destinados a adelantar los resultados de las
pruebas de campo mediante las técnicas de simulación experimental..
Diseño Y Desarrollo Modular
Como ya se ha dicho, el principal objetivo de la Ingeniería Concurrente en la entrega al
mercado de productos nuevos más fiables y en menos tiempo. La paralelización de los
procesos es por ello fundamental. Sin embargo, aún es posible conseguir mayor
paralelización y en consecuencia menor tiempo de desarrollo si se aplica la
modularización del producto.
La modularización del producto consiste en diseñar y desarrollar productos
considerándolos como la suma de grupos de elementos que interaccionan, con una
función común y cierta autonomía de conjunto. A estos grupos les denomina módulos.
Cada módulo puede llegar a ser desarrollado, por equipos de expertos, casi
independientemente del resto, como si de un proyecto aislado se tratara. De esta manera
la reducción de plazos es evidente, siempre y cuando la empresa disponga de recursos
suficientes para llevar a cabo los desarrollos simultáneos.
El desarrollo modular tiene otra ventaja. Si consideramos el producto final como un
conjunto de subsistemas, y se diseñan interfaces robustas (que no se vean afectadas por
las modificaciones en el diseño), es mucho más fácil desarrollar cambios y mejoras en
los productos. Con una misma base, es posible crear toda una amplia gama de productos
cambiando algún o algunos módulos. Además las mejoras en el producto se harán
también de forma modular, con lo que la probabilidad de fallar se reduce
considerablemente. Todo esto implica la posibilidad de crear nuevos productos con una
inversión más limitada, un tiempo de desarrollo menor y con mayor probabilidad de
éxito.
Cómo Extraer El Máximo Valor De La Simulación
La Ingeniería concurrente es considerada la forma más eficaz de acortar el tiempo de
desarrollo y coste de los nuevos productos. No obstante su aplicación práctica genera
ciertas dificultades en orden a extraer el máximo valor del uso conjunto de las nuevas
tecnologías de diseño (CAD), simulación (CAE) y ensayo (CAT).
Es un hecho admitido que las altas demandas del mercado imposibilitan el uso intensivo
de la experimentación como herramienta de evaluación. Por ello las tecnologías de
simulación numérica son hoy día un complemento indispensable ya que permiten
minimizar actividades costosas en tiempo y dinero, disminuir el riesgo de las decisiones
tempranas y explorar un campo más amplio de posibles soluciones. Sin embargo, como
quiera que se trata de una capacidad relativamente nueva, suele estar separada de los
más "clásicos" departamentos de ingeniería de diseño y experimentación. Ello conlleva
la existencia de culturas diferentes que dificultan la integración requerida en un entorno
de ingeniería concurrente, situación que debe ser evitada puesto que el mayor provecho
sólo se consigue mediante una correcta gestión del conocimento entre los
departamentos.
La presente ponencia muestra como las técnicas de análisis funcional y de análisis de
modos de fallo y efectos, ampliamente utilizadas con otros propósitos, pueden también
ser utilizadas para establecer una línea de acción coherente a lo largo de todo el proceso
de diseño y desarrollo, constituyendo un vinculo adecuado entre los departamentos de
diseño, simulación y experimentación. En este sentido, un análisis detallado de las
funciones del producto así como de sus modos potenciales de fallo, junto a una
comprensión suficiente de los parámetros implicados y sus relaciones, constituye la base
para definir una aproximación sistemática a la integración de las tres culturas.
Finalmente se presta especial atención a la aparición de una nueva especialidad, la
ingeniería de simulación y ensayo (en adelante S&T), en substitución a las anteriores
especialidades disjuntas de analista e ingeniero de ensayos. En el departamento de
simulación y ensayo las dos aproximaciones son utilizadas simultáneamente e
integradas de forma óptima. En nuestra opinión esta es la condición necesaria para
llegar a hacer del prototipado virtual una herramienta fiable, a través de un proceso
evolutivo de constante realimentación entre la realidad física y el mundo virtual.
Introducción
La alta competitividad del mercado obliga a adaptar al máximo las prestaciones de los
productos a las expectativas de los clientes. Prestaciones por encima o por debajo de
dichas expectativas pueden suponer un sobrecoste insostenible. La única solución para
ser competitivos es vender los excedentes de prestaciones a un precio mayor o, si ello
no es posible, eliminarlos para conseguir una reducción de costes.
En este contexto las prestaciones del producto deben ser ajustadas al uso previsto. Las
viejas técnicas de validación experimental basadas en sobre-ensayar los productos están
por tanto obsoletas. Pero, ¿cómo puede el producto ser ajustado a su "uso" de forma
satisfactoria?. La respuesta puede basarse en la utilización sistemática de las técnicas de
análisis funcional y de análisis de modos de fallo, combinadas con el benchmarking con
los productos de la competencia. Esta metodología asegura la coherencia entre las fases
de diseño, simulación numérica y ensayo sobre prototipos físicos. Al mismo tiempo
garantiza la adecuación entre las especificaciones técnicas y las necesidades de los
usuarios.
Integración Entre El Análisis Funcional Y El Análisis De Modos De Fallo.
Generación De Criterios De Cualificación
Obviamente el conocimiento del "uso" y su variabilidad, así como la subsecuente
definición de un "uso objetivo" para el diseño no son tareas triviales. Requieren un
extenso análisis de mercado y un análisis estadístico adecuado si se quieren obtener
resultados significativos.
La definición de los requisitos funcionales y no funcionales, en relación a las
necesidades de los usuarios, es una de las más difíciles e importantes tareas en un
proyecto. Ellos constituyen el punto de referencia para el proceso de diseño y
desarrollo, por lo que todo esfuerzo puesto en concretarlos se verá ampliamente
recompensado. En consecuencia, el análisis funcional es un elemento clave en el
proceso de integración de las tareas de verificación, tanto si se basan en métodos
analíticos, en la simulación numérica o son puramente de tipo experimental.
Para cada requisito funcional puede encontrase uno o varios modos de fallo
considerados, en un sentido amplio, como modos de incumplimiento funcional. Tanto
las funciones como sus modos de fallo asociados deben ser evaluados cuanto antes a fin
de garantizar el éxito del posterior desarrollo. Para ello deben establecerse criterios de
cualificación adecuados, asociando a cada factor parámetros mesurables que los
caractericen y estableciendo para ellos valores objetivo, basados en los estudios de
mercado, la experiencia anterior, o los estudios de benchmarking. Este análisis es
fundamental para la fiabilidad última del producto, y muchos problemas potenciales
quedarán resueltos por el mero hecho de haber sido detectados.
El proceso de cuantificar los parámetros y los valores objetivo correspondientes a cada
función y modo de fallo es un aspecto clave del proceso. Simulación y ensayo,
especialmente la primera, deben ser basados en medidas mesurables para una
evaluación clara y objetiva del producto. Esta es también la mejor forma de transferir
las especificaciones técnicas a los proveedores. Las especificaciones con
interpretaciones subjetivas son siempre propensas a conflictos.
Los criterios de cualificación serán posteriormente implementados en forma de
procedimientos de cualificación que deberán establecer cómo medir los parámetros
relevantes y cómo efectuar la comparación de las mediciones con los valores objetivo
Algunos de estos procedimientos estarán basados en cálculos analíticos, especialmente
en la fase conceptual, otros en simulaciones y otros serán de tipo experimental. De
hecho pueden encontrarse tres situaciones:
Aspectos que no pueden ser ensayados: Esto exige la utilización de procedimientos de
simulación altamente sofisticados y el uso de coeficientes de seguridad no sólo para
cubrir las incertidumbres, sino también para cubrir la variabilidad estadística.
Aspectos que no pueden ser simulados: Existen limitaciones a lo que puede ser
simulado, bien por falta de recursos computacionales o información, bien por
inexistencia de teorías físicas adecuadas. En este caso existe muchas veces la
posibilidad de simular la causa y relacionarla posteriormente con el modo de fallo
mediante relaciones causa-efecto empíricas, no incorporadas de forma directa en la
simulación.
No obstante en muchos casos son posibles los dos enfoques. Cuando esto sucede el
objetivo y nivel de detalle de la simulación numérica o de la experimentación a realizar,
se fijan en función de la información disponible y estado de avance del proyecto.
En todos los casos y a cualquier nivel, las evaluaciones deben ser consistentes con los
requisitos iniciales. Sólo en este modo cada una de ellas constituirá un paso más en el
proceso de asegurar la calidad del producto final.
Optimizando La Integración Entre Simulación Y Ensayo
En las fases iniciales del proyecto, la simulación es utilizada para concretar el diseño
conceptual y arquitectura global del nuevo producto. Durante esta fase se comprueba el
cumplimiento de todos los requisitos, funcionales y no funcionales utilizando la
simulación de forma más cualitativa que cuantitativa, como una "herramienta de
pensamiento" para el ingeniero de diseño. En esta etapa la interacción CAD-CAE
resulta fundamental puesto que lo que prima es la agilidad de las evaluaciones más que
el nivel de exactitud de las mismas, siempre y cuando los resultados sean
cualitativamente correctos y permitan tomar la decisión adecuada. La siguiente figura
muestra como, aunque parezca paradójico, la utilidad de una simulación puede estar
reñida con un intento por conseguir la máxima exactitud. Debe entenderse aquí por
exactitud la minimización de la divergencia entre el valor de un parámetro predicho por
la simulación y el que se obtendría a través de una medición, mientras que el concepto
de utilidad hace referencia al grado con que una predicción puede ser utilizada con
ventaja dentro del proceso de diseño y desarrollo.
La relación de proporcionalidad entre utilidad y exactitud es un mito que fácilmente
puede conducir a la situación de "parálisis por el análisis". El punto de máxima utilidad
puede desplazarse hacia la zona de máxima exactitud sólo cuando la incertidumbre
remanente es baja. Por este motivo en algunos casos podrán utilizarse con ventaja frente
a la simulación numérica aproximaciones analíticas clásicas, disponibles en forma de
manuales de ingeniería informatizados u hojas de cálculo.
Al integrar el CAD con el CAE debe evitarse a toda costa el exceso de detalle que se
sigue de la utilización de geometrías comunes. No siempre la geometría CAD es la
representación idónea para el análisis, siendo convenientes ciertas simplificaciones
(modelo de superficie media, eliminación de detalles, etc…) que pueden obtenerse de
forma asistida mediante herramientas especificas.
Una vez se ha fijado el concepto y el proyecto entra en la fase de desarrollo de detalle,
simulación y ensayo pasan a ser herramientas para la verificación del cumplimiento de
las necesidades de los clientes expresadas en forma de especificaciones técnicas. El
número de tales verificaciones queda limitado como consecuencia de las limitaciones en
tiempo y coste de cada proyecto, por lo que es necesario establecer prioridades. Los
índices de prioridad de riesgo usados en el AMFE pueden ser de utilidad para ello.
La combinación óptima entre simulación y ensayo es aquella que minimiza el tiempo y
el coste total, no sólo durante la fase de desarrollo sino también durante el ciclo de vida
completo del producto. Los ensayos físicos deben iniciarse cuando el coste de continuar
por la vía de la simulación aumenta el coste total. Del mismo modo los ensayos deben
finalizar cuando su coste no queda justificado en términos económicos por el coste
asociado al riesgo remanente. Seguidamente se expone un razonamiento para decidir el
momento de inicio de las actividades experimentales; no pretende ser una metodología
cuantitativa, sino más bien un razonamiento para la toma de decisiones: Cada modo de
fallo implica un coste asociado en caso de que alcance el mercado sin ser detectado.
Dicho coste dependerá del número de unidades afectadas y del coste derivado de cada
fallo (en términos de garantías, daños, imagen corporativa, etc.), y permite asignar un
valor económico al riesgo remanente tras la finalización de todas las actividades de
verificación. Por ejemplo puede evaluarse el coste de dicho riesgo multiplicando el
coste asociado al modo de fallo por la probabilidad de que realmente suceda. Esta
probabilidad dependerá a su vez de la probabilidad P de que el modo de fallo no sea
detectado en la fase de simulación y de la probabilidad D de que ese modo de fallo no
sea tampoco detectado durante los ensayos.
El coste y el tiempo necesarios para realizar la simulación crecen al disminuir la
probabilidad P. Cuando no se realiza ninguna simulación la probabilidad P es máxima,
pero en general menor a la unidad debido a la experiencia previa acumulada. Por otra
parte P es mínima y el coste es máximo cuando la simulación se realiza al máximo nivel
de detalle posible con base a la tecnología disponible. La relación entre la probabilidad
y el coste (incluido el tiempo como factor de coste) no es lineal. De forma similar, se
asigna una probabilidad D a la etapa experimental. El coste y el tiempo necesarios para
los ensayos aumentan al decrecer D. Un coste cero correspondería a no realizar ensayos
y llevaría asociado una probabilidad D máxima, pero inferior a la unidad con base a la
experiencia de campo existente. En el otro extremo, cuando el ensayo sea realizado al
máximo nivel posible, el coste será también máximo pero la probabilidad D mínima.
El optimo se consigue cuando el coste total (simulación+ensayo+riesgo remanente es
mínimo). De este análisis es posible extraer la combinación óptima entre simulación y
ensayo y el nivel de sofisticación a alcanzar en cada enfoque.
Este proceso obviamente demasiado complejo para ser abordado en detalle pero ilustra
como debe orientarse la decisión sobre el inicio de la actividad experimental así como
sobre la finalización de la misma. También permite ilustrar como estos puntos pueden
cambiar de un proyecto a otro en la medida en que la experiencia acumulada cambia las
curvas de coste-probabilidad.
Con una buena gestión del conocimiento adquirido y una política de mejora continua de
los procedimientos de simulación, se produce un rápido desplazamiento del punto de
corte en la dirección de incrementar el volumen de simulación y disminuir el esfuerzo
experimental. Este proceso debe converger a una situación final en la que prácticamente
todo el desarrollo se produzca de forma virtual y el ensayo físico sea una simple
validación para confirmar el éxito. En consecuencia, alcanzar este punto no es sólo una
cuestión de inversión en herramientas de computación, sino más bien el fruto de la
decisión de seguir un proceso sistemático de mejora continua y acumulación formal de
conocimiento a través de una realimentación constante entre simulación y ensayo.
Nuevo Papel De La Experimentación
¿Puede la simulación llegar a eliminar la necesidad de realizar ensayos?. La respuesta a
esta pregunta es claramente no. La cuestión no está tanto en la supresión de la
experimentación como en obtener la óptima integración entre ambas aproximaciones,
aprovechando sus ventajas así como las sinergias positivas existentes entre ellas, en
orden a conseguir la máxima rentabilidad conjunta.
No obstante si que es claro que la introducción de la simulación está cambiando el papel
de la experimentación en la línea de permitir una disminución en la cantidad de ensayos
realizados, que suele ir unida a un aumento en la calidad y complejidad de los mismos.
Así mismo la simulación está forzando la aparición de nuevas formas de
experimentación ligadas directamente a ella, bien sea para obtener datos para los
modelos matemáticos utilizados (experimentación básica que incluye la caracterización
de los materiales y de ciertos detalles no simulables), bien sea para validar la simulación
para un uso concreto. Sin estas nuevas formas de experimentación la simulación puede
perder parte de su utilidad, especialmente cuando se buscan resultados cuantitativos
fiables.
La utilización híbrida de simulación y ensayo permite sacar el máximo partido de los
puntos fuertes de cada uno de los dos enfoques y minimizar al mismo tiempo el impacto
de sus puntos débiles. En este sentido es necesario considerar que, en general, la
simulación ofrece una información global pero poco rica en detalle, mientras que la
experimentación ofrece una información local pero detallada.
En el enfoque híbrido los modelos numéricos deben enfocarse hacia la simulación de
los ensayos. De este modo se dispone de una base teórica para la experimentación y, al
mismo tiempo, la información extraída de los ensayos ayuda a depurar los modelos
numéricos, en un proceso de realimentación mutua que contribuye a incrementar el
conocimiento existente sobre el problema. La comparación de los resultados de una
simulación con los del ensayo equivalente debe ser realizada con cuidado. Los
resultados experimentales están afectados por la variabilidad experimental mientras que
la simulación numérica se realiza para valores dados de las variables, lo cual dificulta la
comparación. Una buena respuesta a este problema está en el uso de la simulación
estocástica a fin de introducir la variabilidad del mundo real en la simulación. La
realización sistemática de ensayos híbridos es un banco de pruebas en el que los propios
métodos de simulación y ensayo son depurados constantemente, a través del análisis
crítico de las discrepancias existentes, hasta alcanzar niveles de fiabilidad que hacen su
uso cada vez más efectivo.
Integración De La Simulación Y Ensayo Con Las Actividades De Ingeniería De
Diseño
El ingeniero de simulación y ensayo (S&T) no sólo debe tener un buen conocimiento
del producto sino también sobre los métodos de ensayo y los métodos aplicados en la
simulación numérica, con sus virtudes y limitaciones. Debe ser capaz de diseñar
procedimientos de análisis, entendidos como un nexo formal de unión entre el
conocimiento del producto y su evaluación sistemática utilizando herramientas de
simulación, y ser capaz además de validar y documentar dichos procedimientos de
forma operativa para su uso sistemático.
Es importante insistir en la diferencia entre validación, entendida como la demostración
de la adecuación de la simulación para una finalidad concreta, generalmente la toma de
una decisión de proyecto, y la exactitud (algunos utilizan el térmico correlación)
entendida como la medida del grado de correspondencia entre simulación y realidad. En
este sentido es posible encontrar simulaciones que ofrecen resultados válidos para un
propósito aún con bajos niveles de exactitud, y viceversa, procesos de simulación
capaces de ofrecer altos niveles de exactitud (lo cual siempre es muy difícil de probar
con rigor en la práctica debido a la variabilidad estadística de los resultados
experimentales), y que sin embargo no son válidos para el uso por su alta complejidad,
por la dificultad de su aplicación o por exigir excesivos recursos de cálculo.
El uso de procedimientos validados de simulación, formalmente documentados, permite
acumular toda la experiencia adquirida y actúa como parte del sistema de conocimiento
de la compañía. Los ingenieros de simulación y ensayo deben facilitar a los ingenieros
de diseño dichos procedimientos, como herramientas de trabajo adaptadas a las
necesidades de cada etapa del proceso de diseño y desarrollo, equilibrando la exactitud
con la utilidad requeridas, y en condiciones para ser explotadas por ellos de forma
rutinaria. De este modo la simulación numérica puede ser utilizada por los ingenieros de
diseño desde el inicio del proyecto, en orden a sintetizar soluciones óptimas para los
nuevos productos. Dichas soluciones óptimas deben tener en cuenta los requisitos
iniciales y sacar ventaja de la experiencia anterior a través de los procedimientos
validados de cualificación mediante simulación. Ello asegura que las decisiones de
diseño son tomadas con base a datos fiables y no con base a apreciaciones subjetivas, y
permite utilizar tanto las técnicas de diseño de experimentos como el análisis de
sensibilidad a las variabilidades propias de los diverso parámetros que intervienen, ya
desde etapas muy tempranas del proyecto. Con este enfoque se consigue que toda la
experiencia empírica existente quede incorporada a los procedimientos de simulación y
que el uso sistemático de éstos procedimientos en la etapa de diseño garantice el
máximo aprovechamiento de toda el conocimiento disponible.