Toma de Decisiones Racionales

21
UNIVERSIDAD FERMIN TORO FACULTAD DE CIENCIAS ECONOMICAS Y SOCIALES ANALISIS DE PROBLEMAS Y TOMAS DE DECISIONES AUOR: MARLIN BORGES 24 de julio de 2012

description

Alumna Marlin Borges

Transcript of Toma de Decisiones Racionales

UNIVERSIDAD FERMIN TOROFACULTAD DE CIENCIAS ECONOMICAS Y SOCIALESANALISIS DE PROBLEMAS Y TOMAS DE DECISIONES

AUOR: MARLIN BORGES24 de julio de 2012

INTRODUCCION

La toma de decisiones debe ser realizada bajo las condiciones previas de un

análisis detenido de la información y la situación que necesitamos resolver, para eso

necesitamos emplear técnicas que nos ayuden

realizar una investigación precisa y completa

del evento. Las técnicas que en el presente

documento se redactan, son citas tomadas de

especialistas, donde se hace enfoque a los

puntos más importantes, destacando uno de los

métodos más reconocidos y efectivos dentro de

los 3 métodos. Método Determinístico modelo

matemático donde las mismas entradas producirán invariablemente las

mismas salidas, (Programación líneal – SIMPLEX). Método Probabilístico, conocer

con un cierto nivel de certeza como se podría comportar un sistema a futuro (Lógica

Bayesiana – Teoría de Juegos). Métodos Híbridos, combinación de métodos

cuantitativos y cualitativos en el mismo trabajo, es una aproximación muy utilizada

en varios campos, por ejemplo en educación y en sociología (Modelo de Transporte y

Localización. Técnica de MonteCarlo).

Un buen análisis conlleva a una toma de decisión acertada, recordando que la

racionalidad es la mejor arma para atacar cualquier problema o situación.

MÉTODOS DETERMINISTICOS

Un modelo determinístico es

un modelo matemático donde las

mismas entradas producirán

invariablemente las mismas salidas, no

contemplándose la existencia del azar ni

el principio de incertidumbre. Está

estrechamente relacionado con la

creación de entornos simulados a través

de simuladores para el estudio de situaciones hipotéticas, o para crear sistemas de

gestión que permitan disminuir la incertidumbre.

La inclusión de mayor complejidad en las relaciones con una cantidad mayor de

variables y elementos ajenos al modelo determinístico hará posible que éste se

aproxime a un modelo probabilístico o de enfoque estocástico.

PROGRAMACIÓN LINEAL – MÉTODO SIMPLEX

Mucha gente sitúa el desarrollo de

la programación lineal entre los avances

científicos más importantes de la mitad del siglo

XX, y debemos estar de acuerdo con esta

afirmación si tenemos en cuenta que su impacto

desde 1950 ha sido extraordinario. Se han escrito

decenas de libros de texto sobre la materia y los

artículos publicados que describen aplicaciones importantes se cuentan ahora por

cientos. De hecho, una proporción importante de todo el cálculo científico que se

lleva a cabo en computadoras se dedica al uso de la programación lineal y

a técnicas íntimamente relacionadas. (Esta proporción se estimó en un 25%, en un

estudio de la IBM).

Un modelo de programación lineal proporciona un método eficiente para

determinar una decisión óptima, (o una estrategia óptima o un plan óptimo) escogida

de un gran número de decisiones posibles.

En todos los problemas de Programación Lineal, el objetivo es la maximación o

minimización de alguna cantidad.

En desarrollo de este capítulo se aplicarán la solución de dichos modelos aplicando

diversas técnicas como: el método gráfico, método simplex, método matricial, técnica

de la gran M.

Además se desarrollara la aplicación de variables artificiales y obtención de

soluciones para identificar a que tipo de clasificación pertenecen. Por medio de

dichos modelos de solución se podrá obtener las solución adecuada para cada

problema y facilitar la toma de decisiones.

1.Encuentra una solución óptima

2.Es un método de cambio de bases

3.Requiere que la función objetivo sea expresada de tal forma que cada variable

básica tenga como coeficiente 0

4.Requiere que cada variable básica aparezca en una y solamente una ecuación

de restricción.

Dualidad

Asociado a cada problema de Programación Lineal existe un llamado dual, de hecho

al de Programación Lineal se le llama primal. La forma general del problema dual es

la siguiente:

Optimizar Z = b1Y1+ b1Y2 +….+ bn Yn). Función objetivo.

Sujeta a a11Y1+ a11Y2 +…..+ am1Y1) £ C1

a21Y1+ a22Y2 +…..+ am2Y2) £ C1

. Restricciones

.

a1mY1+ a2mY2 +…..+ amnYm) £ Cn

Para facilitar la comprensión de lo anterior considérese el diagrama siguiente:

Primal Dual

C1……. Cn (1)

a11 b1

(2) (3)

am1 bm

b1……. bm (3)

(2) a11……. am1 C1

(1)

C2

Variables

X1……. Xn

Variables

Y1……. Ym

El problema dual tiene las siguientes características:

• El el objetivo de la optimización es contrario al del primal.

• Las inecuaciones de restricción son inversas.

• La solución del dual es la misma que la del primal.

Desde el punto de vista económico, el significado de las variables duales es de

gran interés para los gerentes, ya que representan el valor por unidad de recurso

adicional, lo cuál permite tomar decisiones sobre donde invertir para incrementar las

utilidades.

Análisis de Sensibilidad

El objetivo del análisis de sensibilidad es determinar la influencia de ciertos valores

en la solución óptima, que nos permite la interpretación razonable de los resultados

obtenidos. En muchos casos la información lograda por la aplicación del análisis de

sensibilidad puede ser más importante y más informativa que simple resultado

obtenido en la solución óptima.

El análisis deviene del resultado de los cambios en:

• Los coeficientes en la función objetivo.

• Los términos independientes en las restricciones.

METODO PROBABILÍSTICO

Lo que nos permite un método probabilístico es conocer con un cierto nivel

de certeza como se podría comportar un sistema a futuro. A los métodos que utilizan

variables aleatorias que varían con el tiempo se les conoce como métodos

estocásticos.

El proceso de Markov analiza y determina la situación o comportamiento del

sistema a futuro empleando las

probabilidades de pasar de un

estado a otro para tiempos

determinados, por eso se le

considera un método estocástico

porque considera nuevas

probabilidades para cada tiempo

y/o para cada estado. Generalmente se utiliza una variable discreta de asociación de

probabilidades a los diferentes estados para simplificar los cálculos.

LÓGICA BAYESIANA. TEORÍA DE JUEGOS

La Teoría de Juegos consiste en razonamientos circulares, los cuales no

pueden ser evitados al considerar cuestiones estratégicas. Por naturaleza, a los

humanos no se les da muy bien pensar sobre los problemas de las relaciones

estratégicas, pues generalmente la solución es la lógica a la inversa.

En la Teoría de Juegos la intuición no educada no es muy fiable en situaciones

estratégicas, razón por la que se debe entrenar tomando en consideración ejemplos

instructivos, sin necesidad que los mismos sean reales. Por lo contrario en muchas

ocasiones disfrutaremos de ventajas sustanciales estudiando juegos, si se eligen

cuidadosamente los mismos. En estos juegos-juegos, se pueden desentender de todos

los detalles.

Si en lugar de utilizar personajes ficticios utilizamos personajes reales para los juegos

si se observase qué tan honesto es ese personaje, cómo manipularía

la información obtenida, etc. Para un especialista en Teoría de Juegos el ser

deshonesto, etc., sería un error comparable al de un matemático que no respeta

las leyes de la aritmética porque no le gustan los resultados que está obteniendo.

Origen de la teoría de juegos

La Teoría de Juegos fue creada

por Von Neumann y Morgenstern en

su libro clásico The Theory of Games

Behavior, publicado en 1944. Otros habían

anticipado algunas ideas.Los economistas

Cournot y Edgeworth fueron

particularmente innovadores en el siglo

XIX. Otras contribuciones posteriores

mencionadas fueron hechas por los matemáticos Borel y Zermelo. El mismo Von

Neumann ya había puesto los fundamentos en el artículo publicado en 1928. Sin

embargo, no fue hasta que apareció el libro de Von Neumann y Morgenstern que el

mundo comprendió cuán potente era el instrumento descubierto para estudiar las

relaciones humanas.

Todavía encontramos profesores mayores que nos explican que la Teoría de

juegos o sirve para nada porque la vida no es un "Juego de suma cero", o porque se

puede obtener el resultado que uno quiera seleccionando el apropiado "concepto de

solución cooperativa".

Afortunadamente las cosas han evolucionado con mucha rapidez en los

últimos veinte años, y éste y otros libros modernos sobre teoría de juegos ya no

padecen algunos de los presupuestos restrictivos que Von Neumann y Morgenstern

consideraron necesarios para progresar. Como resultado, lo que la teoría de juegos

prometía en un principio se está empezando a cumplir. En los últimos años, sus

repercusiones en la teoría económica sólo se pueden calificar de explosivas. Todavía

es necesario, sin embargo, saber algo de la corta historia de juegos, aunque sólo sea

para entender por qué se usan algunos términos.

Von Neumann y Morgenstern investigaron dos planteamientos distintos de la

Teoría de Juegos. El primero de ellos el planteamiento estratégico o no cooperativo.

Este planteamiento requiere especificar detalladamente lo que los jugadores pueden y

no pueden hacer durante el juego, y después buscar cada jugador

una estrategia óptima. Lo que es mejor para un jugador depende de lo que los otros

jugadores piensan hacer, y esto a su vez depende de lo que ellos piensan del primer

jugador hará. Von Neumann y Morgenstern resolvieron este problema en el caso

particular de juegos con dos jugadores cuyos intereses son diametralmente opuestos.

A estos juegos se les llama estrictamente competitivos, o de suma cero, porque

cualquier ganancia para un jugador siempre se equilibra exactamente por una pérdida

correspondiente para el otro jugador. El ajedrez, el backgammon y el póquer son

juegostratados habitualmente como juegos de suma cero.

La segunda parte del libro de Von Neumann y Morgenstern desarrollaron el

planteamiento coalicional o cooperativo, en el que buscaron describir

laconducta óptima en juegos con muchos jugadores. Puesto que éste es un problema

mucho más difícil, no es de sorprender que sus resultados fueran mucho menos

precisos que los alcanzados para el caso de suma cero y dos jugadores. En particular,

Von Neumann y Morgenstern abandonaron todo intento de

especificar estrategias óptimas para jugadores individuales. En lugar de ello se

propusieron clasificar los modelos de formación de coaliciones que son consistentes

con conductas racionales. La negociación, en cuanto a tal, no jugaban papel alguno en

esta teoría. De hecho, hicieron suyo el punto de vista, que había predominado entre

los economistas al menos desde la época de Edgeworth, según el cual los problemas

de negociación entre dos personas son inherentemente indeterminados.

A principio de los años cincuenta, en una serie de artículos muy famosa el

matemático John Nash rompió dos de las barreras que Von Neumann y Morgenstern

se había auto-impuesto. En el frente no cooperativo, estos parecen haber pensado que

en estrategias la idea de equilibrio, introducida por Cournot en 1832, no era en sí

misma una noción adecuada para construir sobre ella una teoría –de aquí que se

restringieran a juegos de suma cero-. Sin embargo, la formulación general de Nash de

la idea de equilibrio hizo ver claramente que una restricción así es innecesaria. Hoy

día, la noción de equilibrio de Nash, la cual no es otra cosa que cuando la elección

estratégica de cada jugador es la respuesta óptima a las elecciones estratégicas de los

otros jugadores. A Horace y Maurice les fueron aconsejados, por su consultor

especialista en teoría de juegos, que usaran un equilibrio de Nash. Es tal vez, el más

importante de los instrumentos que los especialistas en teoría de juegos tienen a

disposición. Nash también hizo contribuciones al planteamiento cooperativo de Von

Neumann y Morgenstern. Nash no aceptó la idea de que la teoría de juegos debe

considerar indeterminados problemas de negociación entre dos personas y procedió a

ofrecer argumentos para determinarlos. Sus ideas sobre este tema fueron

generalmente incomprendidas y, tal vez como

consecuencia de ello, los años que la teoría de

juegos paso en Babia se gastaron principalmente desarrollando el planteamiento

cooperativa de Von Neumann y Morgenstern en direcciones que finalmente

resultaron improductivas.

La historia de la teoría de juegos en los últimos veinte años está demasiado

repleta de incidentes para ser contada. Algunos nombres, sin embargo, no deben ser

pasados en silencio. El acróstico NASH puede ayudar a quienes son. El propio Nash

tiene la letra N, A por Aumann, S es Shapley y

también por Selten y H es por Hansanyi.

Lo que es tal vez más importante sobre

los últimos veinte años de teoría de juegos es

que los mayores progresos se han dado en la

teoría no cooperativa.

Es difícil explicar hacia donde se dirige la teoría

de juegos a una audiencia que no sabe dónde se

encuentra. Estas observaciones, por tanto, son para quienes ya saben algo de teoría de

juegos.

Existen opiniones decididas sobre la dirección que la teoría de juegos debería

tomar, y es reconfortante ver las cosas parece que se mueven en la dirección correcta.

. En la filosofia

Los especialistas en Teoría de Juegos creen que pueden demostrar formalmente por

qué incluso el individuo más egoísta puede descubrir que con frecuencia, cooperar

con sus vecinos en una relación a largo plazo redundará en su propio interés ilustrado.

Con este fin estudian los equilibrios de juegos con repetición –juegos que los mismos

jugadores juegan una y otra vez-. Pocas cosas han descubierto en esta área hasta el

presente que hubieran sorprendido a David Hume, quien hace ya unos doscientos

años articuló los mecanismos esenciales. Estas ideas, sin embargo, están ahora

firmemente basadas en modelos formales. Para avanzar más, habrá que esperar

progresos en el problema de la selección de equilibrios en juegos con múltiples

equilibrios. Cuando estos progresos se den, sospecho que la filosofía social sin teoría

de juegos será algo inconcebible – y que David Hume será universalmente

considerado como su verdadero fundador.

TEORIA BAYESIANA

La teoría Bayesiana se encarga de estudiar y

analizar al consumidor, se observan las características y los

atributos que describen el comportamiento del potencial

cliente.

Consiste en aislar los atributos que la persona en cuestión

le asigna al determinado producto, y una vez hecho esto

aislarlo, y estudiarlo y analizarlo. Se dejan de lado todos

los otros factores, como características del producto, del

cliente, etc., y se centra simplemente en este atributo encontrado.

La teoría Bayesiana les da la libertad a los investigadores de estudiar la complejidad

del comportamiento humano de una forma mucho más realista, de lo que era

previamente posible. Aunque ningún método es 100 % exacto ya que la psiquis

humana es demasiado compleja como para simplificarla en una teoría.

El razonamiento bayesiano proporciona un enfoque probabilístico a la inferencia.

Está basado en la suposición de que las cantidad de interés son gobernadas por

distribuciones de probabilidad y que se pueden tomar decisiones óptimas razonando

sobre estas probabilidades junto con los datos obtenidos. Este enfoque está siendo

utilizado en multitud de campos de investigación, de los que cabe destacar la robótica

móvil y la visión computacional, ambas relacionadas con el contenido de esta tesis.

En este apéndice queremos definir dos de las herramientas utilizadas en el desarrollo

de esta tesis: el teorema de Bayes y el principio de longitud de descripción mínima.

El equilibrio de Nash ocupa un lugar central en la teoría de juegos; constituye de

alguna manera una condición mínima de racionalidad individual ya que, si una

combinación de estrategias no es un equilibrio de Nash, existe al menos un jugador

que puede aumentar sus ganancias cambiando de estrategia, y en consecuencia, ésta

se puede considerar difícilmente como una “solución” del modelo en la medida en

que el jugador interesado en cambiar descarta su elección, después de conocer la de

los otros.

Se ha tomado la costumbre por parte de los teóricos de juegos, lo mismo que por

parte de sociólogos, economistas etc. de ilustrar este tipo de situación empleando una

“pequeña historia” propuesta por A.W. Tucker y que llamó el dilema del prisionero

que se puede resumir de la siguiente manera.

Dos individuos sospechosos de haber cometido un robo son detenidos por al policía

que los lleva ante el juez, el cual los interroga separadamente. Cada uno puede callar

o denunciar a su cómplice; los dos se encuentran ante las siguientes posibilidades:

Callar y salir libre si el otro hace lo mismo;

Callar y ser condenado si el otro escoge denunciarlo;

Denunciar al otro y salir libre, ganándose una recompensa si el otro se calla;

Denunciar al otro y quedarse en prisión por un tiempo si el otro decide de la misma

manera la delación.

Se constata fácilmente que el único equilibrio de Nash consiste en una denuncia

mutua, lo que evidentemente es subóptimo ya que los dos sufren una condena, en

tanto que si se hubieran callado habrían sido liberados. No obstante este equilibrio es

“robusto” en el sentido en que la estrategia de acusar al otro es dominante cualquiera

que sea la elección del otro, la denuncia le procura una ganancia superior.

Existe al menos un jugador que puede aumentar sus ganancias cambiando de

estrategia, y en consecuencia, ésta se puede considerar difícilmente como una

“solución” del modelo en la medida en que el jugador interesado en cambiar descarta

su elección, después de conocer la

de los otros.

Se ha tomado la costumbre por

parte de los teóricos de juegos, lo

mismo que por parte de

sociólogos, economistas etc. de

ilustrar este tipo de situación

empleando una “pequeña historia”

propuesta por A.W. Tucker y que

llamó el dilema del prisionero que se puede resumir de la siguiente manera.

Dos individuos sospechosos de haber cometido un robo son detenidos por al policía

que los lleva ante el juez, el cual los interroga separadamente.

Cada uno puede callar o denunciar a su cómplice; los dos se

encuentran ante las siguientes posibilidades:

Callar y salir libre si el otro hace lo mismo;

Callar y ser condenado si el otro escoge denunciarlo;

Denunciar al otro y salir libre, ganándose una recompensa si

el otro se calla.

MÉTODO HÍBRIDO

La metodología híbrida de investigación, es decir, la

combinación de métodos cuantitativos y cualitativos en el

mismo trabajo, es una aproximación muy utilizada en varios

campos, por ejemplo en educación y en sociología. Sin embargo, la atención dedicada

a la aplicación y a los beneficios de los métodos híbridos en dirección de empresas es

muy baja con relación a otras áreas. El propósito de este trabajo es describir las

características principales de esta aproximación metodológica (principalmente los

tipos de disenos, propósitos y ventajas), contribuyendo a su difusión entre los

investigadores en dirección de empresas. Además, se ha llevado a cabo una revisión

de la literatura sobre el uso de los métodos híbridos en la revista

Cuadernos de Economía y Dirección de la Empresa (CEDE), examinando el peso de

los artículos híbridos y sus principales características..

MODELO DE TRASNPORTE Y LOCALIZACION. TÉCNICA DE

MONTECARLO

La simulación Monte Carlo es una técnica matemática computarizada que

permite tener en cuenta el riesgo en análisis cuantitativos y tomas de decisiones. Esta

técnica es utilizada por profesionales de campos tan dispares como los de finanzas,

gestión de proyectos, energía, manufacturación, ingeniería, investigación y desarrollo,

seguros, petróleo y gas, transporte y medio ambiente.

La simulación Monte Carlo ofrece a la persona responsable de tomar las

decisiones una serie de posibles resultados, así como la probabilidad de que se

produzcan según las medidas tomadas. Muestra las posibilidades extremas —los

resultados de tomar la medida más arriesgada y la más conservadora— así como

todas las posibles consecuencias de las decisiones intermedias.

Los científicos que trabajaron con la bomba atómica utilizaron esta técnica

por primera; y le dieron el nombre de Monte Carlo, la ciudad turística de Mónaco

conocida por sus casinos. Desde su introducción durante la Segunda Guerra Mundial,

la simulación Monte Carlo se ha utilizado para modelar diferentes sistemas físicos y

conceptuales.

Cómo funciona la simulación Monte Carlo

La simulación Monte Carlo realiza el análisis de riesgo con la creación de

modelos de posibles resultados mediante la sustitución de un rango de valores —una

distribución de probabilidad— para cualquier factor con incertidumbre inherente.

Luego, calcula los resultados una y otra vez, cada vez usando un grupo diferente de

valores aleatorios de las funciones de probabilidad. Dependiendo del número de

incertidumbres y de los rangos especificados, para completar una simulación Monte

Carlo puede ser necesario realizar miles o decenas de miles de recálculos. La

simulación Monte Carlo produce distribuciones de valores de los resultados posibles.

El análisis de riesgo se puede realizar cualitativa y cuantitativamente. El

análisis de riesgo cualitativo generalmente incluye la evaluación instintiva o “por

corazonada” de una situación, y se caracteriza por afirmaciones como “Eso parece

muy arriesgado” o “Probablemente obtendremos buenos resultados”. El análisis de

riesgo cuantitativo trata de asignar valores numéricos a los riesgos, utilizando datos

empíricos o cuantificando evaluaciones cualitativas. Vamos a concentrarnos en el

análisis de riesgo cuantitativo

Mediante el uso de distribuciones de probabilidad, las variables pueden

generar diferentes probabilidades de que se produzcan diferentes resultados. Las

distribuciones de probabilidad son una forma mucho más realista de describir la

incertidumbre en las variables de un análisis de riesgo. Las distribuciones de

probabilidad más comunes son:

Normal – O “curva de campana”. El usuario simplemente define la media o

valor esperado y una desviación estándar para describir la variación con respecto a la

media. Los valores intermedios cercanos a la media tienen mayor probabilidad de

producirse. Es una distribución simétrica y describe muchos fenómenos naturales,

como puede ser la estatura de una población. Ejemplos de variables que se pueden

describir con distribuciones normales son los índices de inflación y los precios de la

energía.

Lognormal – Los valores muestran una clara desviación; no son simétricos

como en la distribución normal. Se utiliza para representar valores que no bajan por

debajo del cero, pero tienen un potencial positivo ilimitado. Ejemplos de variables

descritas por la distribución lognormal son los valores de las propiedades

inmobiliarias y bienes raíces, los precios de las acciones de bolsa y las reservas de

petróleo.

Uniform – Todos los valores tienen las mismas probabilidades de producirse;

el usuario sólo tiene que definir el mínimo y el máximo. Ejemplos de variables que

se distribuyen de forma uniforme son los costos de manufacturación o los ingresos

por las ventas futuras de un nuevo producto.

Triangular – El usuario define los valores mínimo, más probable y máximo.

Los valores situados alrededor del valor más probable tienen más probabilidades de

producirse. Las variables que se pueden describir con una distribución triangular son

el historial de ventas pasadas por unidad de tiempo y los niveles de inventario.

PERT – El usuario define los valores mínimo, más probable y máximo, como

en la distribución triangular. Los valores situados alrededor del más probable tienen

más probabilidades de producirse. Sin embargo, los valores situados entre el más

probable y los extremos tienen más probabilidades de producirse que en la

distribución triangular; es decir, los extremos no tienen tanto peso. Un ejemplo de

uso de la distribución PERT es la descripción de la duración de una tarea en un

modelo de gestión de un proyecto.

Discrete – El usuario define los valores específicos que pueden ocurrir y la

probabilidad de cada uno. Un ejemplo podría ser los resultados de una demanda

legal: 20% de posibilidades de obtener un veredicto positivo, 30% de posibilidades de

obtener un veredicto negativo, 40% de posibilidades de llegar a un acuerdo, y 10% de

posibilidades de que se repita el juicio.

Durante una simulación Monte Carlo, los valores se muestrean aleatoriamente

a partir de las distribuciones de probabilidad introducidas. Cada grupo de muestras se

denomina iteración, y el resultado correspondiente de esa muestra queda registrado.

La simulación Monte Carlo realiza esta operación cientos o miles de veces, y el

resultado es una distribución de probabilidad de posibles resultados. De esta forma,

la simulación Monte Carlo proporciona una visión mucho más completa de lo que

puede suceder. Indica no sólo lo que puede suceder, sino la probabilidad de que

suceda.

La simulación Monte Carlo proporciona una serie de ventajas sobre el

análisis determinista o “estimación de un solo punto”:

Resultados probabilísticos. Los resultados muestran no sólo lo que puede

suceder, sino lo probable que es un resultado.

Resultados gráficos. Gracias a los datos que genera una simulación Monte

Carlo, es fácil crear gráficos de diferentes resultados y las posibilidades de que

sucedan. Esto es importante para comunicar los resultados a otras personas

interesadas.

Análisis de sensibilidad. Con sólo unos pocos resultados, en los análisis

deterministas es más difícil ver las variables que más afectan el resultado. En la

simulación Monte Carlo, resulta más fácil ver qué variables introducidas tienen

mayor influencia sobre los resultados finales.

Análisis de escenario. En los modelos deterministas resulta muy difícil

modelar diferentes combinaciones de valores de diferentes valores de entrada, con el

fin de ver los efectos de situaciones verdaderamente diferentes. Usando la simulación

Monte Carlo, los analistas pueden ver exactamente los valores que tienen cada

variable cuando se producen ciertos resultados. Esto resulta muy valioso para

profundizar en los análisis.

Correlación de variables de entrada. En la simulación Monte Carlo es posible

modelar relaciones interdependientes entre diferentes variables de entrada. Esto es

importante para averiguar con precisión la razón real por la que, cuando algunos

factores suben, otros suben o bajan paralelamente.

Una ventaja de la simulación Monte

Carlo es el uso del muestreo Latino

Hipercúbico, que muestrea con mayor precisión

a partir de un rango completo de funciones de

distribución.

MODELO DE TRANSPORTE Y LOCALIZACION

Es una técnica de aplicación de la programación lineal, un enfoque

cuantitativo que tiene como objetivo encontrar los medios menos costosos (óptimos)

para embarcar abastos desde varios orígenes (fábricas, almacenes o cualquier otro de

los puntos desde donde se embarcan los bienes) hacia varios destinos (cualquiera de

los puntos que reciben bienes). En los problemas de localización, este método se

puede emplear para el análisis de la mejor ubicación de un nuevo centro, de varios a

la vez, y en general, para cualquier reconfiguración de la red.

Para utilizar el método de transportación hay que considerar los siguientes pasos:

1.Los puntos de origen y la capacidad o abasto por período, para cada uno.

2.Los puntos de destino y la demanda por período para cada uno.

3.El costo de embarque por una unidad desde cada origen hacia cada destino.

El primer paso en el procedimiento de este tipo de problema es establecer

una matriz de transportación, la cual tiene como objetivo resumir de manera

provechosa y concisa todos los datos relevantes y continuar los cálculos

del algoritmo.

Para crear la matriz de transportación deben seguirse los siguientes pasos:

1.Crear una fila que corresponda a cada planta (existente o nueva) que se este

considerando y crear una columna para cada almacén.

2.Agregar una columna para las capacidades de las plantas y una fila para las

demandas de los almacenes, e insertar después sus valores numéricos

específicos.

3.Cada celda que no se encuentre en la fila de requisitos ni en la columna de

capacidad representa una ruta de embarque desde un aplanta hasta un almacén.

Insertar los costos unitarios en la esquina superior derecha de cada una de esas

celdas.

En muchos problemas reales, a veces sucede que la capacidad excede a los

requisitos unidades, se agrega una columna (un almacén ficticio) con una demanda

de unidades y los costos de embarque en las nuevas celdas creadas son igual a $0,

pues en realidad esos embarques no se realizan, por lo que representan capacidad de

planta no utilizada. Igualmente, si los requerimientos exceden a la capacidad por

unidades, se agrega una fila más (una planta ficticia) con capacidad de unidades y

se asignan costos de embarque iguales a los costos faltantes de las nuevas celdas. Si

estos últimos costos no se conocen o su valor es el mismo para todos los almacenes,

se le asigna $0 por unidad a los costos de embarque de cada celda de la fila ficticia.

La solución óptima no resulta afectada, pues el mismo faltante de unidades se

necesita en todos los casos. Para lograr que la suma de todas las capacidades sea igual

a la suma de todas las demandas es que se añade una planta ficticia o un almacén

ficticio. Algunos paquetes de software los añaden automáticamente cuando el usuario

introduce los datos.

Cuando la matriz inicial

está conformada, el objetivo es

establecer el patrón de asignación

de menor costo que satisfaga todas

las demandas y agote todas las

capacidades. Este patrón se

determina mediante el método

de transporte, el cual garantiza que se hallará la solución óptima. La matriz inicial se

completa con una solución que cumpla dos condiciones: sea factible y satisfaga las

demandas de todos los almacenes y agote las capacidades de todas las plantas. Luego

se crea una nueva matriz con una solución nueva, teniendo ésta un costo total más

bajo. Este procedimiento iterativo se debe realizar hasta que no sea posible mejorar la

solución anterior, cuando esto ocurra la solución óptima se ha encontrado.

En este método es obligatorio que se cumpla que el número de embarques no iguales

a 0 en la solución óptima nunca sea mayor que la suma del número de planta y

almacenes menos 1.

En el caso que se emplee un paquete de software sólo se introducen los datos

correspondientes a la primera matriz.