UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS....

33
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS FACULTAD DE CIENCIAS ADMINISTRATIVAS UNIDAD DE POSTGRADO SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL RESUMEN La presente página tiene por objetivo servir como introducción a los Métodos Cuantitativos de Gestión, explicando la evolución histórica de los mismos y el contenido de las asignaturas relaciodas con la Investigación Operativa en la Escuela Superior de Ingenieros de Sevilla. Se presenta un resumen del contenido de las mismas, se vincula una amplia bibliografía para cada módulo y explicaciones de las técnicas más novedosas en el campo de la optimización. Se esboza la situación que creará el nuevo plan de estudios y las nuevas titulaciones, así como las asignaturas que surgirán como consecuencia de esta nueva situación. HISTORIA DE LOS MÉTODOS CUANTITATIVOS El inicio formal de la Investigación Operativa tuvo lugar en Inglaterra a finales de 1939, cuando la estación de investigación de Bawdsey, bajo la dirección de A. Rowe [ROW55], fue encargada del desarrollo de políticas óptimas para el nuevo sistema de detección militar llamado radar. Poco después, se presentó un estudio de las fases de las operaciones nocturnas en lo que sería un modelo para los estudios posteriores del mismo tipo. Poco después, debido a las extremas necesidades de personal que se plantearon durante la guerra y a la complejidad de los nuevos sistemas de defensa y ataque que se introdujeron, pareció indicado el empleo de científicos en el estudio global de los problemas planteados. La finalidad era conseguir la máxima eficiencia posible. Así, en Agosto de 1940, el físico P.M.S. Blackett de la Universidad de Manchester fue responsabilizado de formar un grupo de trabajo para estudiar el sistema de defensa antiaérea gobernado por radar. Este grupo, estaba constituido por 1

Transcript of UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS....

Page 1: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOSFACULTAD DE CIENCIAS ADMINISTRATIVAS

UNIDAD DE POSTGRADO

SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL

RESUMEN

La presente página tiene por objetivo servir como introducción a los Métodos Cuantitativos de Gestión, explicando la evolución histórica de los mismos y el contenido de las asignaturas relaciodas con la Investigación Operativa en la Escuela Superior de Ingenieros de Sevilla. Se presenta un resumen del contenido de las mismas, se vincula una amplia bibliografía para cada módulo y explicaciones de las técnicas más novedosas en el campo de la optimización. Se esboza la situación que creará el nuevo plan de estudios y las nuevas titulaciones, así como las asignaturas que surgirán como consecuencia de esta nueva situación.

HISTORIA DE LOS MÉTODOS CUANTITATIVOS

El inicio formal de la Investigación Operativa tuvo lugar en Inglaterra a finales de 1939, cuando la estación de investigación de Bawdsey, bajo la dirección de A. Rowe [ROW55], fue encargada del desarrollo de políticas óptimas para el nuevo sistema de detección militar llamado radar. Poco después, se presentó un estudio de las fases de las operaciones nocturnas en lo que sería un modelo para los estudios posteriores del mismo tipo.

Poco después, debido a las extremas necesidades de personal que se plantearon durante la guerra y a la complejidad de los nuevos sistemas de defensa y ataque que se introdujeron, pareció indicado el empleo de científicos en el estudio global de los problemas planteados. La finalidad era conseguir la máxima eficiencia posible. Así, en Agosto de 1940, el físico P.M.S. Blackett de la Universidad de Manchester fue responsabilizado de formar un grupo de trabajo para estudiar el sistema de defensa antiaérea gobernado por radar. Este grupo, estaba constituido por tres psicólogos, dos físicos matemáticos, un astrofísico, un oficial del ejército, un topógrafo, un físico y dos matemáticos. Fue jocosamente denominado el «circo de Blackett», siendo generalmente admitido que en él se daban todas las características de los grupos que trabajan en Investigación Operativa:

Grupo de trabajo interdisciplinar Empleo de modelos matemáticos Punto de vista de análisis de sistemas

1

Page 2: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

Uno de los primeros esfuerzos de este grupo fue dirigido al estudio del ataque aéreo a los submarinos. Las bombas estaban programadas para estallar a una profundidad de unos treinta metros, pues se argumentaba que al divisar el submarino al bombardero se sumergiría; y dado que desde el instante en que fuera localizado el bombardero hasta el del lanzamiento de la bomba, transcurrirían aproximadamente dos minutos, unos treinta metros era, aproximadamente, la profundidad alcanzada por el submarino en su precipitada inmersión. Pero aunque el razonamiento era válido, los resultados obtenidos con esta política eran muy limitados. Cuando el grupo de Blackett fue encargado del estudio, su primera decisión consistió en la observación directa de la situación, encaramándose en los bombarderos en sus misiones de ataque a submarinos. Tras un elevado número de observaciones llegaron a la conclusión, con el análisis de los datos de los ataques, de que se producían las siguientes circunstancias:

a) Debido a la falta de precisión del bombardeo, muy pocas de las bombas explotaban cerca de su objetivo, a treinta metros de profundidad.

b) La precisión aumentaba cuando el submarino no había tenido tiempo de sumergirse, pero en ese caso las bombas estallaban a demasiada profundidad y no producían grandes daños.

En definitiva, la profundidad de treinta metros era adecuada cuando el submarino divisaba con antelación al bombardero, pero la falta de precisión impedía obtener resultados. Y cuando la precisión era buena, la profundidad a que estaba programada la explosión era inadecuada, pues esto sólo ocurría cuando el submarino se mantenía cercano a la superficie.

A la vista de los datos estadísticos sobre la precisión del bombardeo y la inmersión de los submarinos, se llegó a la conclusión de que la alternativa más adecuada era optar por causar daños cuando el submarino estuviera en la superficie. Así se hizo y los resultados mejoraron espectacularmente. En este trabajo ya estaban incluidos los aspectos que caracterizan a los estudios de Investigación Operativa:

1. Toma directa de datos.

2. Empleo de modelos matemáticos para el análisis de la situación, que en este caso era simplemente estadístico.

3. Obtención de las políticas óptimas que corresponden al modelo.

4. Modificación de dichas políticas de acuerdo con factores reales no considerados en el modelo: en este caso se emplearon espoletas que explotaban a diez metros de profundidad, pues no se disponía de

2

Page 3: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

otras que lo hiciesen más cerca de la superficie. Un resultado del estudio fue iniciar su fabricación.

Como consecuencia de los resultados obtenidos, por éste y otros estudios sobre problemas de índole militar, el Almirantazgo Británico creó el grupo funcional «Naval Operational Research». El punto de vista empleado para el análisis de los problemas por este grupo, y los que inmediatamente le siguieron, fue denominado Operational Research. Dicha acepción fue modificada en Estados Unidos por Operations Research. Según narran autores ingleses, como Sir Robert Watson-Watt, fue a sugerencia suya el que los norteamericanos introdujeran también grupos de científicos para el estudio de operaciones militares tras el inicio de su participación en la guerra. Para el mes de abril de 1942, las Fuerzas Aéreas, el Ejército y la Marina poseían grupos funcionales conocidos como Operations Analysis, Operations Research y Operations Evaluations, respectivamente. El último de estos grupos era dirigido por Philp M. Morse [MOS55], del Massachusetts Institute of Technology, que años más tarde sería el primer presidente de la sociedad norteamericana de Investigación Operativa (O.R.S.A.) y uno de sus principales difusores.

Durante la guerra, otros países aliados como Canadá y Francia, también introdujeron grupos de Investigación Operativa en sus respectivos ejércitos. Al finalizar la guerra, las circunstancias en Gran Bretaña y Estados Unidos fueron distintas para estos grupos. En Estados Unidos, los fondos para la investigación en el campo militar se incrementaron, por lo que la mayoría de los grupos se consolidaron, aumentando su número y tamaño. Debido a ello, la industria y la administración norteamericanas permanecieron indiferentes a la Investigación Operativa durante el resto de la década. Uno de los primeros establecimientos de investigación, dependiente del ejército del aire y que tuvo gran influencia en el posterior desarrollo de esta disciplina, fue la RAND Corporation fundada por Donald Douglas en 1946. En la primera conferencia sobre la Investigación Operativa en la Industria, que tuvo lugar en el Case Institute of Technology de Cleveland en 1951, fue casi imposible encontrar aplicaciones industriales de carácter no militar. Quizás las causas de este lento desarrollo en Estados Unidos, sea necesario buscarlas en la situación de la Organización Industrial tradicional, que estaba plenamente establecida, difundida y reputada. La Investigación Operativa se percibía como un dudoso competidor de aquélla, a lo que hay que añadir el celoso secreto con el que se mantenían las limitadas experiencias que se llevaban a cabo.

En cambio, en Gran Bretaña, los componentes de los grupos que se habían desarrollado en el medio militar pasaron a la sociedad civil. Los nuevos problemas que se le plantearon a la nueva administración laborista inglesa, con la nacionalización de importantes sectores de su economía y la reconstrucción de gran parte de sus instalaciones

3

Page 4: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

industriales, estimularon la implantación de la Investigación Operativa. Sir Charles Ellis, responsable durante la guerra del grupo de Investigación Operativa del Ejército, fue nombrado asesor científico en el Comité del Carbón, creando un grupo de Investigación Operativa. Análogas circunstancias se dieron en los sectores nacionalizados de la electricidad y el transporte. En el sector privado, la industria inglesa mantiene instituciones cooperativas de investigación, por lo que la difusión de nuevos métodos está menos mediatizada por el secreto industrial. Quizás debido a ello, casi inmediatamente la industria del acero y la textil introdujeron grupos de Investigación Operativa. Otro aspecto importante en este contexto es que el desarrollo de la Organización Industrial tradicional en Gran Bretaña había sido más limitado, y con la excepción del Estudio del Trabajo, era todavía una novedad en los círculos industriales. Por ello, todavía ciertos campos como la gestión de inventarios se identifican con la Organización de la Producción en Estados Unidos y con la Investigación Operativa en Inglaterra. Así, toda una serie de metodologías de carácter cuantitativo se difundieron en la industria de este último país bajo la denominación y con el prestigio de la Investigación Operativa.

Simultáneamente, el desarrollo de los ordenadores y su implantación en la industria, posibilitaron el tratamiento y estudio de problemas de gran complejidad, por lo cual a mediados de la década de los cincuenta, la Investigación Operativa se encontraba ya afianzada en el mundo industrial. Los primeros cursos sobre Investigación Operativa se impartieron en el M.I.T. de Boston en 1948, y un año después hubo un ciclo de conferencias en el University College de Londres. Poco después, ofrecían programas específicos completos las Universidades Case Western Reserve, Johns Hopkins y North-Werstern en U.S.A.; y en el Imperial College y la London School of Economics en Inglaterra.

El grupo de científicos ingleses que procedían de los establecimientos militares formaron en 1948 el Operational Research Club, que daría lugar, en 1954, a la Operational Research Society. Unos años antes, en 1950, se había fundado la Operations Research Society of America. Ambas iniciaron inmediatamente la publicación de revistas científicas monográficas para la presentación pública de los resultados de las investigaciones en curso y la difusión de la disciplina. Los primeros alumnos del programa de graduados que obtuvieron el título de Doctores en Investigación Operativa se graduaron en el Case Institute of Technology en 1957, siendo responsables del programa los profesores Russell Ackoff [ACK73]y West Churchman [CHU57,68].

Con la Investigación Operativa ya firmemente establecida, su rápida evolución arrastró consigo la de la Organización de la Producción, de forma tal que existe una correlación profunda y completa entre ambas materias. Para destacar el solape se introduce ahora la

4

Page 5: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

reciente evolución de los Métodos Cuantitativos hasta la situación en que se encuentran en la actualidad.

Toda disciplina científica emerge de la convergencia de un creciente interés en alguna clase de problemas y del desarrollo de métodos, técnicas e instrumentos científicos adecuados para resolver esos problemas. La I.O. utiliza resultados de muchas áreas científicas, aunque su base fundamental se encuentra en la matemática, la economía y el cálculo de probabilidades y estadística. Desde un punto de vista matemático se podrían establecer los orígenes en diferentes trabajos sobre modelos lineales debidos a Jordan, Minkowsky y Farkas a finales del siglo XIX. En relación con la estadística, sus orígenes se encuentran en los trabajos de Erlang [ERL48] sobre fenómenos de espera en los años veinte del presente siglo. En economía se deben a Quesnay (XVIII) y Walras (XIX), que plantearon los primeros modelos de programación matemática, que fueron posteriormente perfeccionados por autores como Von Neumann [NEU47], Kantorovich y Dantzig [DAN51].

Como puede observarse en los primeros estudios que se etiquetaron como de Investigación Operativa, el aspecto técnico más característico consistió en la estructuración estadística de los datos y en el empleo de modelos descriptivos de tipo probabilístico. Sin embargo, el prestigio y difusión de la Investigación Operativa está cimentado en la Programación Lineal, aunque ello corresponda a una simplificación de la realidad.

Los fundamentos matemáticos de los modelos lineales discretos se encuentran en la teoría de las desigualdades lineales desarrollada en el siglo pasado. Otros conceptos que son paralelos a los de la Programación Lineal fueron formulados por von Neumann en 1928, con la aplicación del teorema del minimax a los juegos de estrategia. Como un antecedente inmediato, se encuentra el planteamiento del problema de transporte, por F. L. Hitchcock [HIT41], en 1941 en los Estados Unidos. En el contexto de la planificación óptima de la asignación de obligaciones productivas, el mismo modelo había sido estudiado y resuelto por Kantorovich en la Unión Soviética en 1939, empleando lo que puede interpretarse como variables duales. También, en un contexto concreto, Stiegler planteó el problema lineal de obtener una dieta adecuada con coste mínimo a partir de setenta y siete alimentos y considerando nueve nutrientes, reconociéndose en él la estructura de optimizar una función lineal sujeta a restricciones lineales. Pero el proyecto de formulación y ataque al problema lineal de forma general, fue propuesto por el departamento del Ejército del Aire bajo el nombre de proyecto SCOOP en 1947. El resultado inmediato fue el algoritmo de resolución simplex, debido a George B. Dantzig [DAN53], y su implementación en un ordenador UNIVAC para la resolución de modelos lineales de gran tamaño.

5

Page 6: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

En el resto de los años cincuenta, la Programación Lineal quedó completamente establecida, con los trabajos de Charnes [CHA52A-54]sobre la degeneración, de Lemke [LEM5368] sobre la dualidad, de Dantzig, Orden y Wolfe [DAN54B] sobre la forma compacta y la descomposición de grandes programas. En estos mismos años, Ford y Fulkerson [FOD55-62], también contratados por la RAND Corporation, establecen los resultados sobre flujos en grafos y el método primal-dual para los problemas de distribución. Sin embargo, la Programación Lineal Entera no recibe atención hasta finales de esta década, en que Gomory [GOM58-60C] obtiene la expresión general para aproximar la envoltura convexa del conjunto admisible empleando sola y exclusivamente planos secantes. A pesar de las esperanzas que el procedimiento generó, sigue siendo un campo con métodos limitados e insatisfactorios, donde la enumeración parcial e inteligente de posibles soluciones es el socorrido último recurso que se hace necesario en multitud de situaciones.

En los modelos no lineales, los resultados fundamentales proceden del desarrollo del cálculo matemático en el siglo XVIII, siendo el concepto básico el del Lagrangiano. La caracterización de las condiciones necesarias de optimalidad en problemas restringidos, se generaliza a partir de los resultados de Lagrange en el conocido teorema de Kuhn-Tucker [KUH51], que recopila y estructura un conjunto de investigaciones llevadas a cabo por numerosos autores en los años cuarenta, entre los que también ha de citarse a Dantzig, y Fritz John [JOH48]. La Programación no Lineal progresó durante los años sesenta y setenta, pudiendo atacarse la resolución de problemas de tamaño medio con varias decenas de restricciones y algunos cientos de variables. Sin embargo, la investigación en la búsqueda de algoritmos eficientes seguía siendo muy activa, pues los existentes no eran plenamente satisfactorios.

En cuanto a la Programación Dinámica, su inicio y desarrollo básico se debe a Richard Bellman [BEL57-62B] al principio de los cincuenta. La trascendencia de esta metodología no se limita a la Investigación Operativa, sino que es también de gran importancia en la Teoría del Control Óptimo, en estrecha relación con el principio del máximo de Pontryagin [PON62]. En lo que aquí nos concierne, el desarrollo de la Programación Dinámica se ha visto limitado en su aplicabilidad concreta debido a la complejidad computacional que le acompaña, tanto debido a la cardinalidad del espacio de estado como al número de períodos que intervienen. En este sentido, el trabajo de Larson ha colaborado a su tratamiento, pero muchos autores aún consideran a la Programación Dinámica como un punto de vista conceptual y un bagaje teórico para el análisis de problemas; y no como un método -o conjunto de ellos- implantable en algoritmos de tipo general. En esta dirección, los trabajos de Denardo [DEN51], identificando la estructura de los procesos de decisiones secuenciales, suponen un avance para establecerlos.

6

Page 7: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

La Teoría de Colas se inicia con el trabajo del ingeniero danés A. K. Erlang en la industria telefónica de principios de siglo. El estudio en detalle de los modelos más usuales, en que tanto la distribución de llegadas al sistema como la del tiempo de servicio son conocidas, y pertenecen a categorías bien establecidas, está completamente caracterizado. Pero los recursos técnicos de carácter matemático que se requieren para llevar a cabo estos análisis hacen que sea la simulación el método habitual de estudio cuando los procesos de colas son de cierta complejidad. Debe resaltarse la existencia de multitud de lenguajes de simulación a disposición de los usuarios de computadores de las empresas de mayor importancia en el sector.

La Teoría de Juegos se inicia con los primeros resultados de von Neumann sobre el teorema del minimax en 1926. Sobre todo a partir de la publicación de su obra básica en unión de Morgenstern [MOR47-51], asentando la teoría de juegos matriciales. Posteriormente, y como consecuencia de las aportaciones de la Teoría del Control Óptimo, se bifurca en los Juegos Diferenciales, que ahora no nos conciernen, y en el estudio de los juegos cooperativos. Dentro de estos últimos, el desarrollo se sustenta en el estudio de la teoría del núcleo, incluyendo el concepto de valor de Shapley y los resultados de Nash [NAS50]. En cualquier caso, la influencia de esta teoría sobre la Organización de la Producción ha sido muy limitada. En cuanto a la Teoría de la Decisión en condiciones de incertidumbre, toda ella se basa en la estadística bayesiana y la estimación subjetiva de las probabilidades de los sucesos. La estructuración de la teoría axiomática de la utilidad es más reciente, encontrándose en fase de pleno desarrollo, como muestran las publicaciones de Schlaifer [SCH54] y Raiffa [RAI61]. En la actualidad se la considera un instrumento válido para la estructuración de la toma de decisiones con incertidumbre cuando la información no es completa. La aplicabilidad a la Organización de la Producción es reducida debido a que en ella la situación es bastante estructurada, pudiendo accederse a una satisfactoria información sobre el contexto. Si acaso, en los planteamientos estratégicos que pueden darse en la fase de diseño en que la información es menor o incluso no existe, pueden emplearse estos métodos.

Desde su origen, la Investigación Operativa se encuentra encarada con problemas para los que no existe método analítico alguno que permita obtener, con seguridad y en un tiempo conveniente, el óptimo teórico. Éste es, por ejemplo, el caso de los problemas combinatorios en que el sentido común da por imposible la enumeración. Es más que normal que el tamaño y la naturaleza de ciertos problemas combinatorios nos prohíban abordarlos por la vía del sentido común. Nuestro buen sentido, educado por la ciencia, sabe distinguir particularmente los problemas NP completos, para los cuales no existe un algoritmo que en tiempo polinomial sea capaz de encontrar la solución (Garey and Johnson [GAR79] ). De siempre, la investigación de operaciones ha establecido, por tales razones,

7

Page 8: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

métodos denominados heurísticos, incapaces de proporcionar el óptimo formal, pero susceptibles de llegar a soluciones buenas, tanto más fiables en cuanto que permiten determinar al mismo tiempo una cota (superior o inferior) del óptimo teórico con el que se comparan. Con el auge de los microordenadores, hacia principios de los ochenta, estos métodos han ido ganando terreno, puesto que se iba haciendo, cada vez más, factible y fácil intentar diferentes heurísticas y juzgar su eficacia relativa.

Es de destacar también la gran difusión que ha sufrido el «software» de optimización debido al incremento en la potencia de cálculo de los ordenadores y al abaratamiento del coste de las aplicaciones y del «hardware». Entre algunas de ellas se pueden citar nombres de aplicaciones de programación matemática (para la resolución de modelos lineales, mixtos y no lineales) como GINO, MINOS, IMSL, XA, GPSS y CPLEX. También se pueden mencionar otras aplicaciones pre y postprocesadoras de las anteriores: ANALYZE, GAMS, AMPL, etc. que permiten de una forma amigable generar los modelos y analizar sus resultados.

8

Page 9: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

Durante los últimos años han aparecido una serie de métodos, denominados metaheurísticas, cuya finalidad es la de encontrar buenas soluciones a problemas de optimización (lineal o no lineal y con o sin restricciones). Entre ellos se pueden enumerar los algoritmos genéticos, el recocido simulado, la búsqueda tabú y las redes neuronales. Su aplicación a los problemas de secuenciación de todo tipo es una finalidad típica y clásica. Es más, prácticamente todos ellos están basados en intentar resolver, de la mejor forma posible, problemas típicos de Organización de la Producción. Así, los problemas típicos de secuenciación de trabajos en máquinas, de equilibrado de líneas de montaje, de asignación de rutas, de planificación de la producción, etc. han sido, son y, casi con toda seguridad, serán el banco de pruebas de las más modernas técnicas de búsqueda de soluciones a problemas en los que, de entrada, se declina la posibilidad de encontrar la solución óptima.

Los algoritmos genéticos («genetic algorithms») fueron introducidos por Holland [HOL75] para imitar algunos de los mecanismos que se observan en la evolución de las especies. Los mecanismos no son conocidos en profundidad pero sí algunas de sus características: la evolución ocurre en los cromosomas; un ser vivo da vida a otro mediante la decodificación de los cromosomas de sus progenitores, el cruce de los mismos, y la codificación de los nuevos cromosomas formando los descendientes; las mejores características de los progenitores se trasladan a los descendientes, mejorando progresivamente las generaciones.

Basándose en estas características, Holland creó un algoritmo que genera nuevas soluciones a partir de la unión de soluciones progenitoras utilizando operadores similares a los de la reproducción, sin necesidad de conocer el tipo de problema a resolver.

Los algoritmos de recocido simulado («simulated annealing») fueron introducidos por Cerny [CER85] y Kirkpatrick et al. [KIR83] para la optimización de problemas combinatorios con mínimos locales. Utilizan técnicas de optimización no determinista: no buscan la mejor solución en el entorno de la solución actual sino que generan aleatoriamente una solución cercana y la aceptan como la mejor si tiene menor coste, o en caso contrario con una cierta probabilidad p; esta probabilidad de aceptación irá disminuyendo con el número de iteraciones y está relacionada con el empeoramiento del coste.

Estos algoritmos derivan de la analogía termodinámica con el proceso metalúrgico del recocido: cuando se enfría un metal fundido suficientemente despacio, tiende a solidificar en una estructura de mínima energía (equilibrio térmico); a medida que disminuye la temperatura, las moléculas tienen menos probabilidad de moverse de su nivel energético; la probabilidad de movimiento se ajusta a la función de Boltzmann.

9

Page 10: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

Entre los distintos métodos y técnicas heurísticas de resolución de problemas combinatorios surge, en un intento de dotar de "inteligencia" a los algoritmos de búsqueda local, el algoritmo de búsqueda tabú («tabu search»),Glover [GLO77-90B].

La búsqueda tabú, a diferencia de otros algoritmos basados en técnicas aleatorias de búsqueda de soluciones cercanas, se caracteriza porque utiliza una estrategia basada en el uso de estructuras de memoria para escapar de los óptimos locales, en los que se puede caer al "moverse" de una solución a otra por el espacio de soluciones. Al igual que en la búsqueda local, la búsqueda tabú selecciona de modo agresivo el mejor de los movimientos posibles en cada paso. Al contrario que sucede en la búsqueda local, se permiten movimientos a soluciones del entorno aunque se produzca un empeoramiento de la función objetivo, de manera que sea posible escapar de los óptimos locales y continuar estratégicamente la búsqueda de mejores soluciones.

Las redes neuronales (<neural networks>) son modelos analógicos que tienen como objetivo reproducir en la medida de lo posible las características y la capacidad de procesamiento de información del conjunto de neuronas presentes en el cerebro de los seres vivos. Las características principales de estos modelos son su robustez, tolerancia a fallos, capacidad de adaptación y aprendizaje y la capacidad de procesar información defectuosa.

Los modelos de redes neuronales intentan conseguir unos buenos resultados basándose en una densa interconexión de unos sencillos nodos computacionales llamados neuronas. Aleksander y Morton [ALE90] definen una red neuronal como un "Procesador distribuido paralelo que posee una propensión natural para el almacenamiento de conocimiento experimental haciéndolo disponible para su uso. Recuerda al cerebro humano en dos aspectos: el conocimiento se adquiere mediante un proceso de aprendizaje, y la conexión interneuronal se utiliza para el almacenamiento del conocimiento.

Una ventaja importante que presentan las heurísticas frente a las técnicas que buscan soluciones exactas es que, por lo general, permiten una mayor flexibilidad para el manejo de las características del problema. No suele ser complejo utilizar algoritmos heurísticos que en lugar de funciones lineales utilicen no linealidades. Habitualmente las heurísticas proponen un conjunto de soluciones, ampliando de esta forma las posibilidades de elección del decisor, especialmente cuando existen factores no cuantificables que no han podido ser reflejados en el modelo pero deben ser tenidos en cuenta.

En resumen, podría decirse que el uso de estas técnicas supone la posibilidad de resolver, de forma práctica, problemas de gran complejidad que resultaban intratables mediante técnicas exactas.

10

Page 11: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

[Home] [Resumen de página] [Referencias]

LA INVESTIGACIÓN OPERATIVA

La metodología de los problemas planteados por los descubrimientos científico-técnicos para llegar a resultados cuantitativos que sirvan de base a decisiones económicas, técnicas, sociales, militares, y de otros campos, constituyen los denominados Métodos Cuantitativos de Gestión, visión especialmente aplicada, de la disciplina conocida como Investigación Operativa.

Los objetivos de los Métodos Cuantitativos de gestión están claramente ceñidos al estudio de problemas de toma de decisiones. Dadas las complejas características de los sistemas objeto de su aplicación, la mayor dificultad que se presenta al estudiar algún aspecto de su funcionamiento aparece en la definición de los límites del sistema que se ha de incluir en el estudio. Una vez se ha definido el marco del problema, las fases del método son inmediatas:

La primera fase, formulación del problema, requiere el acuerdo con los responsables de la organización sobre el criterio general que ha de guiar el estudio. Su carácter, desde un punto de vista cuantitativo, suele ser ambiguo y poco operativo, ya que corresponde generalmente a decisiones de tipo estratégico. Pero cumple una función primordial, ya que en base a él es posible enjuiciar qué aspectos deben analizarse. Así mismo, se intentarán determinar los límites del problema que se ha de analizar.

La segunda fase consiste en la formulación de un modelo matemático que describe la situación a estudiar. Una característica fundamental del enfoque cuantitativo es el proceso de modelización de un problema o sistema real, ya que la ejecución de su análisis se lleva a cabo sobre el modelo de la realidad y no sobre ella misma. Un modelo es una abstracción o representación simplificada de una parte o segmento de la realidad. Su utilización está motivada porque la realidad es difícil de copiar de una manera exacta, debido a su complejidad y porque una buena parte de esa complejidad es irrelevante al problema específico objeto de estudio.

Los métodos cuantitativos utilizan modelos cuantitativos, que tienen como soporte los métodos matemáticos y estadísticos.

En el modelo se pueden distinguir dos partes. En la primera de ellas, una vez decididos qué elementos pueden considerarse como modificables o variables, se han de concretar las relaciones que describen el proceso que se está analizando y que pueden tomar la forma de restricciones en el empleo de recursos, de ecuaciones que describen las características del proceso, de árboles que explicitan la estructura del proceso de decisión, etc.. Esta representación se apoya generalmente en un lenguaje matemático más o menos sofisticado de

11

Page 12: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

acuerdo con las características del estudio que se esté realizando. Una vez finalizada la construcción del modelo se aborda la selección del criterio concreto de valoración de alternativas. Algunos tipos de modelos, por su propia naturaleza, no permiten la incorporación inmediata de un criterio de valoración. Tal es el caso de los modelos de simulación.

Durante esta fase tiene primordial importancia el conocimiento de los métodos y técnicas propios de la disciplina, lo que, por una parte, sugiere posibilidades para la expresión matemática de las relaciones y, por otra, proporciona información sobre lo que se le puede pedir y es de esperar que proporcione el modelo en las fases siguientes cuando se realice su explotación.

En la tercera fase, deducción de soluciones, nos concentramos en el análisis y explotación del modelo. Para la realización de esta fase se requiere un bagaje técnico suficiente que permita obtener las soluciones del modelo, si éste es normativo, o las características fundamentales del proceso si es predictivo, conociendo de qué aspectos depende la modificación de estas características en consonancia con los criterios operativos fijados en la fase anterior.Se aplicacrán las técnicas propias de la disciplina.

La complejidad consustancial de los problemas tratados conduce en muchos casos al reconocimiento de la imposibilidad de obtención de las soluciones óptimas de los modelos planteados. Pero esto no es más que la consecuencia de la dificultad del problema considerado. En tales casos, la generación de reglas heurísticas para la solución del modelo puede conducir a revelar nuevas formas de actuar en la práctica, valorándose así posibles alternativas no consideradas anteriormente. Indispensable en este caso resulta el conocimiento asociado al análisis y diseño y codificación de algoritmos. Empleando para ello las herramientas y técnicas propias de los desarrollos informáticos.

En la cuarta fase es necesario discernir entre las soluciones reveladas en la fase anterior, eligiendo una de ellas o una síntesis de varias. Todo ello en función del criterio global que se fijó en la primera fase.

Dado que la experimentación en el ámbito de la empresa suele ser costosa y afecta a la vida diaria de la misma, es conveniente el empleo de la simulación para probar los previsibles efectos de la solución diseñada en un entorno dinámico, probabilístico y con incertidumbres que recoja con la mayor fidelidad posible las peculiaridades del entorno en que se va a implantar.

La última fase trae consigo la caracterización en todos sus detalles de la decisión tomada, previendo las etapas de su implantación y especificando la secuencia de acontecimientos que la pondrán en funcionamiento.

12

Page 13: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

MÉTODOS CUANTITATIVOS DE GESTIÓN

La formación en MÉTODOS CUANTITATIVOS DE GESTIÓN tiene como objetivo la formación del alumno en los conceptos y técnicas básicas de la Investigación Operativa, así como en el empleo de modelos matemáticos para la resolución de problemas de gestión e ingeniería y en el análisis y desarrollo de algoritmos básicos y herramientas para la optimización. La formación previa de los alumnos en matemáticas y su aplicación al ámbito de la física, favorece que la asignatura se oriente con especial énfasis a los aspectos de modelado de problemas de gestión, con el convencimiento de que solamente a partir de un conocimiento profundo de los instrumentos y técnicas existentes es posible alcanzar la madurez necesaria para una aplicación mesurada y juiciosa de los métodos cuantitativos. Los contenidos de asignaturas de MÉTODOS CUANTITATIVOS se exponen a continuación. este tipo de asignaturas son impartidas a alumnos de Ingeniería de diversas titulaciones, en cada caso se profundizará en mayor o menor detalle en los diferentes aspectos de la materia. Resulta esencial para alumnos en cuya formación sea necesario tomar contacto con temas de proiducción y en general con aspectos relacionados con la disciplina denominada Management Science.

13

Page 14: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

Cada módulo de los presentados a continuación se centra en una técnica diferente o en la aplicación de las técnicas estudiadas a un tipo diferente de problema. La materia está organizada desde lo general a lo particular. Cada módulo debe comenzar con un tema a modo de introducción para profundizar con posterioridad en las técnicas empleadas y sus refinamientos. De esta manera, el programa propuesto pretende obtener un desarrollo progresivo y equilibrado de la asignatura. Se consideran necesarias la realización de al menos dos trabajos de tipo práctico.

PROGRAMACIÓN LINEAL

La programación lineal nace, a partir de la Segunda Guerra Mundial, como una técnica dedicada a la resolución de cierto tipo de problemas de asignación de recursos entre diferentes actividades. Las aplicaciones posteriores a otros problemas han sido muy numerosas, de manera que los modelos de programación lineal constituyen una de las herramientas mas utilizadas en Investigación Operativa.

El objeto de este módulo es introducir al alumno en la programación lineal. Esto supone la construcción de un número apreciable de ilustraciones y el desarrollo riguroso de la programación lineal, empleando exclusivamente argumentos constructivos para la obtención de los resultados. Inicialmente se utilizan argumentos geométricos que permiten al alumno visualizar el método de resolución. A continuación, se realiza el desarrollo algebraico que da lugar al algoritmo Simplex y sus derivados, con lo que el alumno debe ser capaz al final del módulo de resolver problemas lineales.

Como parte del contenido referente a este módulo, es conveniente instruir al alumno en el manejo de alguna aplicación informática como «XA Professional Linear Programming System» de «Sunset Software Technology», CPLEX, u otras de propósito mas general como MATLAB con, empleadas como instrumento para la resolución de problemas con pretensiones realistas, que dan lugar a modelos de tamaño apreciable. Se expone la metodología para la construcción de aplicaciones generadoras de modelos.

A continuación, se introduce el concepto fundamental de la dualidad. Desde el punto de vista algorítmico, se describe el método simplex-

14

Page 15: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

dual y se realiza el estudio de post-optimalidad, señalando la importancia del análisis de sensibilidad en el modelo.

FLUJO EN REDES

Se trata de un módulo centrado en el problema de transporte, sirviendo como finalización del módulo dedicado a programación lineal en general, para iniciar el análisis de problemas con estructuras especiales. Además de ser un clásico en programación lineal y servir como puente al estudio de problemas en grafos unimodulares, este tema se trata inicialmente como la aplicación del método simplex pero con una disposición de la información mucho más compacta. Se describe su representación de forma intuitiva sirviendo de introducción al empleo de los grafos para el modelado de problemas de distribución.

La resolución del problema de transporte con limitación de capacidad en los arcos se utiliza como excusa para generalizar el criterio de optimalidad del algoritmo Simplex en el caso de variables acotadas superiormente.

Continuando con los modelos sobre grafos, se estudia el problema de la ruta mínima y el problema básico de maximizar el flujo de un grafo. A través del primero de ellos se muestra como la unimodularidad de la matriz del grafo permite modelar, con programación lineal continua, un problema con variables enteras.

Se presentan los grafos asociados a problemas de ruta mínima y transbordo y su transformación en problemas de asignación y transporte respectivamente.

Se completa el módulo con el estudio de problemas de distribución y su análisis mediante el método primal-dual. En particular, el problema de transporte, el de asignación, transbordo y ruta mínima, considerando limitaciones de capacidad en los arcos. Se destaca la obtención de soluciones iniciales a través del cálculo de la ruta mínima para los tres primeros, y la solución a los problemas primales reducidos a través de la obtención del flujo máximo en un subgrafo dado. También se discute, con todo detalle, la obtención de la solución al dual reducido. Se resalta la metodología y su interpretación como proceso de mejora de la estimación de precios. Se explica en detalle el desarrollo informático de dichos métodos.

PROGRAMACIÓN LINEAL ENTERA

15

Page 16: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

El siguiente módulo introduce la programación lineal entera mediante el modelado de situaciones en que existen variables de decisión, implicaciones lógicas o relaciones disyuntivas. El modelo lineal entero se analiza como una complejidad añadida al modelo lineal en el que la matriz tecnológica no tiene la estructura unimodular peculiar de los problemas de grafos. Al pretender resolver el modelo, se descansa sobre los métodos de programación lineal continua, proponiendo modificaciones intuitivas para alcanzar la solución al problema lineal entero.

Con este planteamiento se desarrollan los métodos de cortes en bastante detalle pero de una forma unificada. Posteriormente, tras describir métodos para problemas mixtos, se introduce la exploración dirigida. Primero informalmente y después con rigurosidad. Se esbozan referencias a métodos de mejora en el cálculo de cotas, tales como la relajación lagrangiana y se analiza la variación de Dakin al algoritmo general de Lang-Doig. La explicación de la exploración dirigida se acompaña con la resolución de diversos problemas, de manera que el alumno perciba las características particulares del método aplicado a situaciones diversas.

Como parte del contenido referente a este módulo se profundiza en el manejo de la aplicación «XA Professional Linear Programming System» en los aspectos referidos a la resolución de problemas lineales enteros mediante exploración dirigida y en el diseño y desarrollo de algoritmos específicos.

TEORÍA DE JUEGOS

El cuarto módulo, Teoría de Juegos, aborda un conjunto de situaciones caracterizadas por la lucha o enfrentamiento entre dos o más oponentes. Todo juego tiene un fin o meta, objetivo de los jugadores, que toman decisiones permitidas por un conjunto de reglas predefinidas con la finalidad de alcanzarlo.

Inicialmente se presentan situaciones que recogen juegos bi-personales de suma nula. Se discuten los conceptos básicos en juegos matriciales, analizando la sofisticación del concepto de estrategias mixtas.

Pretendiendo formular la situación en que se encuentran dos jugadores con criterio conservador, se observa que corresponde a dos problemas lineales duales entre sí, conduciendo uno de ellos al valor inferior y el otro al valor superior del juego. Se discute la íntima relación entre un problema de optimización y uno de antagonistas a través de la teoría de la dualidad. A partir de estos elementos se muestra la existencia de equilibrio en estrategias mixtas y se describe la solución de juegos matriciales mediante programación lineal.

16

Page 17: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

Se amplían los resultados al caso de juegos bi-personales de suma constante, mediante su reducción al caso anterior. A continuación se analiza el caso de juegos simétricos y su relación con un par de problemas duales en forma simétrica.

Posteriormente se generalizan los resultados al caso de juegos n-personales de suma cero y de suma constante.

TEORÍA DE LA DECISIÓN

En el quinto módulo se realiza una sucinta introducción al análisis de alternativas en diversos entornos. Se describe la base bayesiana asociada a la estimación subjetiva de las probabilidades de los sucesos como un instrumento conveniente para abordar la toma de decisiones en condiciones de incertidumbre en las que no se dispone de información completa.

Se introduce el concepto de agentes con propensión y aversión al riesgo como pretexto para la presentación de la necesidad del concepto de utilidad. Se muestra que los supuestos de coherencia asociados a la construcción de funciones de utilidad permiten extender los conceptos de valor medio esperado en entornos probabilísticos al de maximización de funciones de utilidad mediante el empleo de probabilidades a priori en entornos de incertidumbre.

Se presenta exhaustivamente la construcción de árboles de decisión como instrumentos que completan las técnicas del análisis de decisiones. Se analiza el valor de la información en este contexto.

PROGRAMACIÓN DINÁMICA

El sexto módulo se dedica al estudio de problemas de decisión secuenciales o de múltiples etapas. Son problemas caracterizados porque las variables que los describen están gobernadas por transformaciones en el tiempo. La solución de estos problemas se inspira en el principio de optimalidad, propuesto por Bellman a principios de los años cincuenta, consiguiéndose una importante reducción del tiempo de resolución para algunos problemas, que de otra manera resultarían computacionalmente intratables.

A diferencia de la programación lineal, no existe una forma estándar para el modelado de los problemas de programación dinámica. En el caso de horizonte finito, el esquema general de búsqueda del óptimo se basa en la resolución recursiva de subproblemas asociados a cada una de las etapas.

Se propone el análisis secuencial, definiendo el valor de una transición y el valor terminal del proceso de una transición. Posteriormente, y siempre en base a ilustraciones, se analiza rigurosamente el proceso secuencial argumentando el principio, las

17

Page 18: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

ecuaciones y el criterio de optimalidad. Se muestra como los problemas dinámicos deterministas, en los que los conjuntos de estados y decisiones son finitos, son representables mediante una red sobre la que la solución óptima corresponde a la ruta mínima. Se introducen las transiciones probabilísticas y el concepto de ganancia óptima esperada.

Finalmente se presentan los métodos estacionarios en horizonte infinito para analizar sistemas estables sin periodo de terminación definido. Se analiza el significado de ganancia acumulada, descontando los valores futuros y la tasa de ganancia por periodo. Se muestra el método constructivo de mejora de políticas y su equivalencia con la resolución de ambos tipos de problemas mediante programación lineal.

TÉCNICAS DE MODELADO

El módulo Técnicas de Modelado describe la sistemática general del modelado basándose en las siguientes etapas: descripción verbal del problema identificado, especificación del horizonte al que se refiere el análisis, evaluación de la disponibilidad y existencia de datos, identificación de variables, especificación de la estructura y limitaciones a través de la construcción de restricciones, expresadas en términos de los datos disponibles y de las variables identificadas, selección de criterios de evaluación de alternativas y enfoque empleado para la solución del modelo.

Se completa con la discusión de los métodos estudiados en los módulos previos a la resolución del modelo y el análisis de sensibilidad de las soluciones. Se comentan los aspectos asociados a la dificultad de implantación de soluciones y a la racionalidad de la elección de soluciones subóptimas, con respecto al modelo, y justificada en base a otros criterios complementarios no cuantificables. Se profundiza en el análisis y diseño de aplicaciones genéricas para la construcción de modelos.

Este módulo va acompañado del estudio, junto con los alumnos, de una variada multitud de situaciones en base a ejemplos de diverso grado de complejidad. El análisis de estos casos faculta al alumno para enfrentarse al proceso de modelado y resolución de situaciones realistas. Se comentan enfoques alternativos en cuanto a la resolución de los casos presentados.

SIMULACIÓN DE EVENTOS DISCRETOS

El último módulo de la asignatura se dedica a la teoría y práctica de las técnicas de simulación. Básicamente consiste en la construcción de modelos que describen la parte esencial del comportamiento de un sistema de interés, así como en el diseño de experimentos con el modelo y la extracción de conclusiones de los resultados de los

18

Page 19: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

mismos. Estas conclusiones ayudarán en la posterior toma de decisiones.

Habitualmente se utiliza en el análisis de sistemas complejos, en los que es imposible su tratamiento analítico o mediante métodos numéricos. Sus orígenes se remontan a los trabajos de Student para aproximar la distribución que lleva su nombre, y los métodos que Von Neumann y Ulam introdujeron para resolver ecuaciones integrales. Desde entonces la Simulación ha crecido como una metodología de experimentación fundamental en campos tan diversos como la Economía, la Estadística, la Informática o la Física, y con enormes aplicaciones industriales y comerciales, como la predicción bursátil, la predicción meteorológica o los simuladores de sistemas productivos.

A lo largo del presente módulo se estudian las técnicas y metodología de Simulación de Eventos Discretos, de especial interés para los alumnos que con posterioridad estudiaran asignaturas relacionadas con la producción. Se previene a los alumnos de los riesgos que entraña el empleo de esta herramienta tan potente e intuitiva pero aproximada.

A continuación se describen las etapas de un proyecto de simulación, comentándose las herramientas estadísticas e informáticas a utilizar en cada una de ellas. Especial énfasis se hace en herramientas de modelado específicas de simulación tales como los Grafos de Eventos y los Diagramas de Ciclos de Actividad.

También se estudian otros temas más clásicos como la generación de números pseudo aleatorios y de variables aleatorias cualesquiera así como técnicas de reducción de la varianza para aumentar la precisión de las estimaciones.

Por último, se estudia un lenguaje de programación orientado a simulación discreta como es SIMAN, integrado en la herramienta ARENA, especialmente dotado para la resolución de problemas de Gestión y Control de la Producción. Dicho lenguaje facilita enormemente la labor de programación y análisis de resultados y además posee un módulo de animación gráfica. Se presta una especial atención en señalar la diferencia de este tipo de lenguajes frente a los lenguajes clásicos de programación, comentando las grandes diferencias existentes.

MÉTODOS AVANZADO DE GESTIÓN

Esta asignatura está diseñada para formar al alumno en los conceptos y técnicas más avanzados de Investigación Operativa y Optimización, permitiendo a los alumnos diseñar y construir algoritmos específicos

19

Page 20: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

para la resolución de problemas combinatorios . La asignatura propuesta se imparte a los ingenieros industriales, especialidad Organización Industrial, en el último año de carrera. Se ha considerado como una asignatura de segundo ciclo, habiéndosele asignado quince créditos. Su duración es anual. Como requisito indispensable los alumnos deben haber cursado la asignatura Métodos Cuantitativos de Gestión I.

Esta asignatura se articula en 28 temas agrupados en siete módulos y se configura como una continuación encaminada a profundizar en el contenido de la asignatura Métodos Cuantitativos de Gestión I, en el sentido de ampliar los conocimientos de los alumnos sobre las herramientas y técnicas de modelado y resolución de problemas en el ámbito de la gestión. Concretamente, esta asignatura estudia las técnicas mas novedosas para la resolución de problemas lineales continuos y enteros, amplía las técnicas ya expuestas desde un punto de vista computacional y generaliza los conocimientos en el campo de la optimización al caso mas general de problemas no lineales, repasando los métodos que permiten solucionarlos.

EXTENSIONES DE LA PROGRAMACIÓN LINEAL

El primer módulo de la asignatura amplía los conceptos adquiridos en el campo de la programación lineal. Comienza con el análisis, desde un punto de vista computacional, del algoritmo simplex como método de resolución de problemas de gran envergadura caracterizados por una matriz de coeficientes tecnológicos poco densa, del orden de un 1%.

Posteriormente se estudian los métodos de descomposición y partición. Los primeros aplicables a problemas con una estructura particular en cuanto a restricciones y los segundos a problemas con variables de enlace entre subproblemas. Estos métodos son casos especiales de un método general que permite remplazar grandes problemas lineales mediante un conjunto de problemas mas pequeños con restricciones lineales y función objetivo cóncava lineal a trozos.

El tercer tema se centra en los métodos llamados de punto interior y su aplicación en el campo de la programación lineal. En primer lugar se analiza la complejidad y problemas de convergencia de los métodos para posteriormente presentar las fundamentos básicos de los mismos. Se realiza un especial énfasis en el concepto de camino central "Central Path", una curva continua formada por soluciones admisibles que converge a un punto óptimo. Se analizan varios métodos aproximados y se estudia el método predictor-corrector. Finalmente se estudia la incorporación de estos algoritmos en métodos de exploración dirigida y planos de corte.

20

Page 21: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

El módulo finaliza con el estudio de algunos problemas de grafos, concretamente el MST (Minimun Spanning Tree), cuyo objetivo es la obtención de un árbol de coste mínimo que contiene todos los nodos de un grafo y tantos arcos como nodos menos uno, y el problema de Steiner (STP, Steiner Tree Problem) que intentará encontrar un árbol de coste mínimo que una un subconjunto dado de vértices pertenecientes a un grafo. La resolución de este tipo de problemas se analiza bajo la perspectiva de los métodos de exploración dirigida y su combinación con algoritmos de punto interior para solventar las numerosas relajaciones continuas.

PROGRAMACIÓN NO LINEAL

En el segundo módulo se analizan las técnicas de optimización clásicas de problemas no lineales. Se estudian las condiciones necesarias y suficientes de optimalidad en cada tipo de problema y se introducen otros métodos de optimización para problemas con restricciones. Los métodos primales son métodos de búsqueda que operan en el problema original intentando encontrar la solución óptima en la región admisible. En cada iteración la solución es admisible y la función objetivo decrece constantemente. Los métodos de penalización y barrera intentan aproximar los problemas con restricciones mediante problemas sin restricciones.

Los métodos duales están basados en que la información que proporcionan los multiplicadores de Lagrange, asociados a un problema con restricciones, es tan fundamental que una vez conocidos sus valores, la determinación de la solución del problema es inmediata. Es decir, no atacan el problema original sino su dual. Dichos multiplicadores suelen tener asociada una interpretación intuitiva en cada caso práctico tal como precios asociados a los recursos, etc.

Se comentan las aplicaciones de estas técnicas para entrenamiento de redes neuronales,y numerosos problemas en el ámbito de la producción y la planificación.

ALGORITMOS GENÉTICOS

El tercer módulo está dedicado a los llamados algoritmos genéticos. En este módulo se describen, por un lado, los principios de tipo evolutivo en los que se basan este tipo de algoritmos y, por otro, algunas de las diferentes formas de implementarlos. En particular, se muestran diversos tipos de operadores de selección, cruce, mutación, etc. así como formas dinámicas de determinar sus respectivas frecuencias de empleo.

Aunque el enfoque que se pretende es de tipo descriptivo con énfasis en las aplicaciones, se dan las nociones básicas de tipo teórico que avalan la eficacia de estos métodos.

21

Page 22: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

También se mencionan algunas medidas (de entre la multitud que existen) que se pueden utilizar para aumentar la eficacia y la eficiencia de un Algoritmo Genético.

Entre las posibles aplicaciones se comentan las correspondientes a equilibrado de líneas de montaje, secuenciación con limitaciones de capacidad, localización, ingeniería de tráfico, y en general, problemas de optimización combinatoria.

RECOCIDO SIMULADO

El sexto módulo presenta esta dedicado a presentar una herramienta, inspirada en una analogía metalúrgica, para la optimización de funciones que presentan múltiples mínimos locales, el recocido simulado. Dichas funciones son muy normales en la práctica de la ingeniería. La idea básica consiste no sólo en moverse de un punto a otro mejor, que sería lo razonable, sino también permitir la ocurrencia esporádica y probabilística de pasos hacia atrás, esto es, empeoramientos en el valor de la función objetivo. De esta forma es posible salir de los valles asociados a mínimos locales.

Se muestran los resultados teóricos existentes basados en la modelización del algoritmo como una Cadena de Markov. Aparte de la garantía de convergencia en el límite de infinitas iteraciones, se discuten alternativas más realistas respecto a la elección de los parámetros: Temperatura inicial, número de iteraciones a llevar a cabo para cada Temperatura, fórmula de decrecimiento de la Temperatura y criterio de terminación. Igualmente se comentan algunas de las múltiples variantes y adaptaciones del método básico.

Se comentan, como aplicaciones del método, las correspondientes a localización y distribución en planta, secuenciación, asignación de rutas, planificación multinivel, diseño del tamaño del lote, etc.

BÚSQUEDA TABÚ

En el quinto módulo se explican una serie de técnicas metaheurísticas que permiten explorar, de forma inteligente y eficiente, el espacio de soluciones de problemas combinatorios multimodales. El término Tabú deriva del empleo, a lo largo de las sucesivas iteraciones del método, de una Lista Tabú actualizada formada por soluciones (o, más usualmente, por atributos de las mismas) recientemente exploradas. La idea es que prohibiendo movimientos inversos a los que aparecen en dicha tabla se minimiza la probabilidad de que la búsqueda entre en un ciclo sin salida.

Para no prohibir involuntariamente movimientos que serían interesantes se articula un sistema (de Aspiración ) que permite anular la prohibición de la Búsqueda tabú. El efecto de memoria a corto plazo que supone la Lista Tabú se completa con mecanismos de

22

Page 23: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

memoria intermedia y memoria a largo plazo que se denominan Intensificación y Diversificación respectivamente. También se estudia el efecto beneficioso que puede tener el concepto de Oscilación Estratégica de los valores de algunos parámetros del problema. Por último, se comentan algunos otros refinamientos tácticos, técnicos y computacionales que se han propuesto o usado. Como aplicaciones prácticas de la búsqueda tabú a problemas de optimización se muestran todas las ya comentadas en los dos módulos precedentes.

REDES NEURONALES ARTIFICIALES

En el sexto módulo se introduce un conjunto de modelos matemáticos con una clara inspiración biológica. Son sistemas formados por un elevado número de unidades de procesamiento elemental muy interrelacionadas y que son capaces de realizar tareas como clasificación, generalización, optimización, abstracción,etc. Aparte de su carácter eminentemente paralelo, son de destacar la robustez y tolerancia a fallos de este tipo de herramientas.

Dado que el número y complejidad de los modelos de Redes Neuronales Artificiales es creciente, sólo va a ser posible estudiar aquéllos que se usan en mayor medida en la práctica. Entre éstos destaca el Perceptron Multinivel, íntimamente ligado a una de sus posibles formas de entrenamiento cual es la Propagación Hacia Atrás. También se estudian los modelos basados en Aprendizaje Competitivo y el Mapa de Características Autoorganizado de Kohonen. Igualmente, se estudian el modelo de Hopfield y sus derivados, en especial el modelo de Hopfield-Tank. Por último, se discute la Máquina de Boltzmann y su relación con el Recocido Simulado.

Se realiza un énfasis especial en la construcción de modelos por parte de los alumnos.

Entre las aplicaciones de las redes neuronales se encuentran las correspondientes a previsión de la demanda, resolución del problema del viajante y del problema cuadrático de asignación, problemas de clasificación, localización, reconocimiento de patrones, estimación de intensidades de tráfico, teoría de la decisión, etc.

TEORÍA DE COLAS

El último módulo de la asignatura introduce el estudio, desde un punto de vista analítico, de los fenómenos de espera, tan corrientes en el entorno productivo.

En primer lugar, se analizan los diferentes modelos de nacimiento y muerte de tipo markoviano estacionario. Se consideran desde uno hasta infinitos servidores, así como situaciones con limitaciones de capacidad y situaciones en que la población de clientes se considera finita. Posteriormente se estudian modelos de llegadas y servicio por

23

Page 24: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

lotes así como modelos con prioridades. Por último, se estudian modelos de redes de colas, tanto abiertas como cerradas. Entre las aplicaciones prácticas de la teoría de colas, destacan las relativas al diseño y análisis de unidades productivas y de servicios.

REFERENCIAS

[ACK73] Ackoff, R. L. "Science in the Systems Age: Beyond IE, OR and MS". Operations Research, Vol. 21, no. 3, pp. 661-671, June, 1973.

[ALE90] Aleksander, I. and Morton, H. An Introduction to Neural Computing, Chapman & Hall, London, 1990.

[BEL62a] Bellman, R. E. and Dreyfus, S.E. Applied Dynamic Programming, Princeton Univ. Press., Princeton, New Jersey, 1962.

[BEL62b] Bellman, R. E. and Kalaba, R. "Dynamic Programming Applied to Control Processes Governed by General Functions Equations", in Proc. Natl. Acad. Sci. U. S. 48, 1735-1737, 1962.

[BELL57] Bellman, R. Dinamic Programming, Princeton University Press, Princeton, N.J., 1957.

[CER85] Cerny, V. "Thermodynamical Approach to the Traveling Salesman Problem: An efficient Simulated Algorithm", Journal of Optimization Theory and Applications, Vol. 45, 41-45, 1985.

[CHA52a] Charnes, A. "Optimality and Degeneracy in Linear Programming", Econometrica, vol. 20, pp.160-70, 1952.

[CHA52b] Charnes, A., and Lemke, C. E. "A Modified Simplex Method Control of Round-off Error in Linear Programming", Association for Computing Machinery Meeting, Pittsburgh, May 2, 1952.

[CHA54] Charnes, A., and Lemke, C. E. "Minimization of Non-Linear Separable Convex Functionals", Nav. Res. Log. Quart. 1, pp. 301-12, 1954.

[CHU57] Churchman, W., Ackoff, R. and Arnoff E. Introduction to Operations Research, John Wiley & Sons, Inc., New York, 1957.

[CHU68] Churchman, W. The Systems Approach, Dell Publishing, Co., Inc., New York, 1968.

[DAN51] Dantzig, G. "Maximization of a Linear Function of Variables Subject to Linear Inequalities". In Activity Analysis of production and Allocation, chap. 21, Monograph no. 13, John Wiley & Sons, Inc., New York, 1951.

24

Page 25: UNIVERSIDAD NACIONAL MAYORDESAN MARCOS€¦  · Web viewFACULTAD DE CIENCIAS ADMINISTRATIVAS. UNIDAD DE POSTGRADO. SEPARATA 001: METODOS CUANTITATIVOS DE GESTION EMPRESARIAL. RESUMEN.

[DAN53] Dantzig, G. "Computational Algorithm of the Revised Simplex Method". RAND Memorandum RM-1266, 1953.

[DAN54a] Dantzig, G. "Upper Bounds, Secondary Constraints, and Block Triangularity in Linear Programming", RAND Memorandum 1367, 1954.

[DAN54b] Dantzig, G., Orden, A. and Wolfe, P. "The Generalized Simplex Method for Minimizing a Linear Form under Linear Inequality Restraints", RAND Memorandum RM-1264, 1954.

[DEN51] Denardo, E. V. "Contraction Mapping in the Theory Underlyng Dynamic Programming", SIAM Review, vol. 9, 165-177.

25