IO

187
1 ESCUELA SUPERIOR POLITECNICA DEL LITORAL INGENIERIA EN LOGISTICA Y TRANSPORTE CURSO: INVESTIGACION DE OPERACIONES II I TERMINO 2008-2009

description

javor

Transcript of IO

Page 1: IO

1

ESCUELA SUPERIOR POLITECNICA

DEL LITORAL

INGENIERIA EN LOGISTICA Y TRANSPORTE

CURSO: INVESTIGACION DE OPERACIONES II

I TERMINO 2008-2009

Page 2: IO

2

1. Introducción: La logística y la estadística

¿Qué es la Investigación de Operaciones (IO)?

La IO consiste en el uso de métodos analíticos avanzados que ayudan en la toma

de decisiones.

Estos métodos analíticos incluyen:

Optimización: encontrar la mejor decisión posible de entre un conjunto de

alternativas.

Simulación: imitación de la realidad (comportamientos, materiales, ideas, …) que

ahorra tiempo y costos.

Probabilidad y estadística: ayuda a resumir / analizar información, medir

riesgos, realizar predicciones, etc.

Intuición Metodología formal

Sentido

común

Modelo

matemátic

o

INVESTIGACION DE OPERACIONES I (LP, MIP)

Vs.

INVESTIGACION DE OPERACIONES II

Page 3: IO

3

1. Introducción: La logística y la estadística

DEFINICIONES, USOS:

La Estadística, es la rama de las matemáticas que se ocupa de reunir,organizar y analizar datos numéricos y que ayuda a resolver problemas comola toma de decisiones.

Nos permite obtener información referida a grandes grupos de individuosconociendo los datos de sólo unos pocos.

Permite describir con exactitud los valores de datos económicos, políticos,sociales, psicológicos, biológicos y físicos, y sirve como herramienta pararelacionar y analizar dichos datos.

La Estadística responde a las necesidades del desarrollo científico ytecnológico de la sociedad

Page 4: IO

4

1. Introducción: La logística y la estadística

APLICACIONES:

Las técnicas de Investigación de Mercados permiten saber si un producto cualquiera será bien acogido en el mercado antes de su salida a este, o bien medir la audiencia en Televisión y Radio.

El Control de Calidad permite medir las características de la calidad de un producto, compararlas con ciertos requisitos y tomar decisiones correctivas si hay diferencias entre el funcionamiento real y el esperado.

Análisis de confiabilidad, cálculo actuarial, bioestadística, Series de tiempo, etc.

En técnicas de decisión, permite la construcción de los denominados Árboles de decisión, una técnica muy usada para tomar decisiones en ambientes de incertidumbre

Page 5: IO

5

1. Introducción: La logística y la estadística

ESTADISTICA = MEDIDA DE LO DESCONOCIDO

La estadística está asociada a la medición de la Incertidumbre

En logística la incertidumbre está presente de muchas formas: en la demanda de los artículos que están en el inventario, en los tiempos de entrega de los pedidos, en los costos de adquisición de la materia prima, en el costo del dinero, en la eficiencia de los empleados.

Generalmente ante la incertidumbre sobre el comportamiento futuro de una variable se deben aumentar las medidas de protección de aquello que pueda resultar afectado por los cambios imprevisibles de esta variable. Por ejemplo en la gestión de inventarios, el responsable logístico deberá aumentar las existencias a medida que la demanda se hace mas imprevisible. En otras palabras, la incertidumbre se paga, ¡es un coste!, y por tanto debe ser bien investigada y medida.

Page 6: IO

6

1. Introducción: La logística y la estadística

Específicamente la Gestión de la Cadena de Suministro (SCM – Supply

Chain Management) tiene como objetivo final la entrega de un producto a

un cliente. Esto quiere decir, que la cadena de suministro incluye las

actividades asociadas desde la obtención de materiales para la

transformación del producto, hasta su colocación en el mercado.

El flujo en la cadena no solo es de productos, también es de información.

Y es en el tratamiento de la información en donde es importante la

estadística (y los modelos estadísticos de toma de decisión)

Page 7: IO

7

1. Introducción: La logística y la estadística

Todos los elementos

objetos de estudio

Subconjunto de la

población

PARAMETROS

ESTIMADORES

MUESTRA

POBLACION

Estadística descriptiva

Estadística inferencial

Estadística descriptiva

Las técnicas estadísticas básicas suelen clasificarse de acuerdo a su

naturaleza en:

•Estadística descriptiva, y

•Estadística inferencial.

Page 8: IO

8

2. Descripción de datos: Escalas de medida

El primer paso para poder hacer cualquier análisis estadístico es la obtención de la data. El proceso estadístico por medio del cual se toma datos de una población se denomina muestreo, el conjunto de datos obtenido se denomina muestra.

La data está conformada por las mediciones de características de los elementos de la población, dichas características se denominan variables.

Las variables difieren en "qué tan bien" se pueden medir, ¿cuánta información medible puede proporcionar su escala de medida?

Específicamente las variables son clasificadas como:

(a) nominales, (b) ordinales, (c) de escala

Page 9: IO

9

2. Descripción de datos: Escalas de medida

(a) Nominal: se utilizan nombres para establecer categorías

Ejemplos: género, la raza, el color, la ciudad, tipo de artículo de

inventario, etc.

Page 10: IO

10

2. Descripción de datos: Escalas de medida

(b) Ordinales: nos permiten ordenar los artículos que medimos en términos

del que tiene menos y el que tiene más de la calidad representada por la

variable

Ejemplos: nivel socio-económico, rango, etc.

Page 11: IO

11

2. Descripción de datos: Escalas de medida

(c) De escala: no sólo nos permiten ordenar los artículos que son

medidos, sino también cuantificar y comparar los tamaños de diferencias

entre ellos. Ofrecen un punto de cero absoluto identificable, así permiten

las declaraciones como las de que “x es dos veces más de y”.

Ejemplos: temperatura, peso, estatura, ventas, etc.

Page 12: IO

12

2. Descripción de datos: Escalas de medida

Complejidad: la complejidad aumenta con cada una de las escalas de

medición, desde la simpleza de la escala nominal hasta el refinamiento

de la escala de razón. El tipo de técnicas estadísticas que se puede

emplear en cada escala de medida es diferente (por ejemplo en pruebas

de hipótesis)

Nominal

Ordinal

Escala

Pruebas

No paramétricas

Pruebas

Paramétricas

Page 13: IO

13

2. Descripción de datos: base de datos

Creación de la base de datos electrónica

El software estadístico especializado (SPSS, SAS, S-PLUS, R, MINITAB, STATISTICA, etc.) requiere un ordenamiento del archivo de datos a analizar. Este ordenamiento está referido a filas y a columnas

Cuando hablamos de casos nos referimos a c/u de los registros obtenidos al investigar, muestrear, entrevistar, etc.

Con variables indicamos a las características que pueden tener estos datos

Page 14: IO

14

2. Descripción de datos: base de datos

CASOS: si se usa una hoja electrónica generalmente se los

ubica en filas

Page 15: IO

15

2. Descripción de datos: base de datos

VARIABLES: en columnas

Page 16: IO

16

2. Descripción de datos: base de datos

PROCESAMIENTO EN SPSS:

El editor de datos tiene dos vistas diferentes: vista de datos y vista de

variables. La primera tiene una estructura similar a la de una hoja de

cálculo (Excel), y se usa para introducir los datos que se quieren

analizar. El SPSS maneja los datos en términos de variables, cada una de

las cuales corresponde a una columna de la pantalla. Esto quiere decir

que si queremos introducir unos datos, cada variable debe ir en una

columna.

Al introducir los datos en el visor de datos, podemos pensar en que

estamos rellenando una “encuesta”: cada línea horizontal de la

cuadrícula sería un “encuestado" (caso), al que le corresponde un valor

de cada una de las variables que intervienen en el problema (columnas).

Page 17: IO

17

2. Descripción de datos: base de datos

Entreviste a la totalidad de sus compañeros de clase y para cada una de

las variables que se presentan a continuación construya la boleta de

encuesta, defina las escalas de medición de cada una de ellas, y la base

de datos electrónica.

Variables a medir.

Género del entrevistado

Edad

Ingresos mensuales Promedio

Estado civil

Posee vehículo

Periódico preferido para leer noticias

Page 18: IO

18

2. Descripción de datos: medidas

Medidas numéricas:

De tendencia central: Permiten describir la región “media” hacia adonde se

agrupan los datos

Probablemente la estadística descriptiva mas usada es la media. La media es

una medida muy informativa de la tendencia “central” de la variable si se

reporta con sus intervalos de confianza. Otras son: la moda, la mediana.

De dispersión: Son una medida de que tan dispersos están los datos (que tan

lejanos están entre ellos).

Las mas usadas son: desviación típica, varianza, coeficiente de

variación, rango.

Page 19: IO

19

2. Descripción de datos: medidas

Media: ( o ) mas usada

Desviación típica: ( o S ) depende de la magnitud de la variable, no puede tener la misma medida de incertidumbre la venta de un producto cuya media sea de 10 unidades mensuales que otro cuya venta media sea de 10.000

Coeficiente de variación: / , Que tan predecible es una variable en el futuro. Ver el ejemplo siguiente (demanda en la cadena de abastecimiento).

X

Page 20: IO

20

2. Descripción de datos: medidas

ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento

Se tienen los siguientes datos referidos a la venta mensual que hace un minorista de dos productos A, B en un año:

Podría suponerse que la incertidumbre es menor para el producto A (si se observa la desviación típica). Sin embargo en el producto A la variabilidad representa el 85.1% sobre la media, mientras que en B es el 50.9%, por lo que en realidad la venta del producto A tiene mayor incertidumbre que la de B

Si agregamos la venta de los dos productos:

período 1 2 3 4 5 6 7 8 9 10 11 12 m edia des. Típ CV

venta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10%

venta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50%

período 1 2 3 4 5 6 7 8 9 10 11 12 m edia des. T íp CV

venta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10%

venta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50%

venta total 1100 900 355 675 272 811 734 108 546 780 310 506 49.60%

Page 21: IO

21

2. Descripción de datos: medidas

ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento

Algunas concusiones que se pueden observar de este caso simple:

El coeficiente de variación es mas sensible para detectar la variabilidad de una serie de datos

Cuánto menor es la venta de un producto, suele ser mayor su incertidumbre ( y por tanto proporcionalmente requerirán más inventario)

Cuando se agregan datos, la incertidumbre del total agregado disminuye (por tanto es mas fácil pronosticar sobre la demanda de grupos de productos)

Page 22: IO

22

2. Descripción de datos: gráficas

DESCRIPCION GRAFICA

¡ Una imagen vale más que mil palabras !

Un aspecto importante de la "descripción" de una variable es la forma

de su distribución, que le dice la frecuencia de valores de rangos

diferentes de la variable. Típicamente, un investigador está interesado

en qué la distribución pueda aproximarse bien por la distribución

normal

HISTOGRAMAS 2D, 3D: representación gráfica de la distribución de

frecuencia de la(s) variable(s) seleccionada(s)

Otros gráficos

Page 23: IO

23

2. Descripción de datos: gráficas

Histo g ra m (In d ice s 8 v*2 0 c)

NA S DA Q = 2 0 *0 ,1 3 9 1 *n o rm a l(x; -0 ,0 3 7 8 ; 0 ,2 7 5 8 )

-0 ,4 5 7 1 4 9 7 6 7 9

-0 ,3 1 8 0 5 3 6 5 8 3

-0 ,1 7 8 9 5 7 5 4 8 8

-0 ,0 3 9 8 6 1 4 3 9 2

0 ,0 9 9 2 3 4 6 7 0 4

0 ,2 3 8 3 3 0 7 7 9 9

0 ,3 7 7 4 2 6 8 8 9 5

0 ,5 1 6 5 2 2 9 9 9 1

NA S DA Q

0

1

2

3

4

5

6

No

of

ob

s

Bivariate H is togram (Sports .s ta 14v*100c)

Page 24: IO

24

2. Descripción de datos: gráficas

ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento

(... continuación)

• Se pide analizar la siguiente tabla y entender el concepto de “efecto

látigo), para ello leer el documento EFECTO LATIGO. DOC

• Los datos son los siguientes:

DEM ANDA EN UNIDADES PO R SEM ANA

Sem . 1 Sem . 2 Sem . 3 Sem . 4 Sem . 5 Sem . 6 Sem . 7 Sem . 8 Sem . 9 Sem . 10 Sem . 11

Dem anda m ercado 0 22 15 10 13 17 19 10 15 12 8

Stock en m inorista 0

Pedidos del m inorista

Stock en M ayorista 0

Pedidos del m ayorista

Punto de reposición para el m inorista = 20 unidades. Cantidad de pedido = 50 unidades.

Punto de reposición para el m ayorista =30 unidades. Cantidad de pedido =100 unidades.

T iem pos de sum inistro para el m ayorista y el m inorista (Lead tim e) = 1 sem ana

Page 25: IO

25

3. Control de Inventarios

VER DESARROLLO EN CLASE.

Page 26: IO

26

4. Bayes, Odds y Razón de verosimilitud

Experimento aleatorio: Un experimento en el cual el resultado es incierto,

pero se conoce el conjunto de posibles resultados del mismo (denominado

espacio muestral, )

Evento: cualquier subconjunto del espacio muestral. Y se denomina evento

elemental a cualquier evento formado por un solo elemento.

Si el experimento aleatorio se realiza n veces, en las mismas condiciones, la

frecuencia con la que un evento A ocurre es el número de veces que el

experimento aleatorio resulta en A.

La frecuencia relativa de A es la frecuencia con la que ocurre A sobre el

número total de repeticiones.

Page 27: IO

27

4. Bayes, Odds y Razón de verosimilitud

PROBABILIDAD

CONDICIONAL:

Def: Dados dos eventos A, B se

define la probabilidad condicional

de A dado B como:

/ ;

0

P A BP A B

P B

P B

/ , y,

/

P A B P A

P B A P B

Probabilidad Condicional e independencia:

INDEPENDENCIA:

Def: Dados dos eventos A, B se

dice que los dos eventos son

independientes si

Page 28: IO

28

4. Bayes, Odds y Razón de verosimilitud

¿La evaluación de la prob. de A cambia si tenemos

conocimiento de la ocurrencia de B?

Def: Los eventos A, B se dicen independientes si:

P(A/B)=P(A)

P(B/A)=P(B)

Obs: (1) A y B son independientes ssi:

P(A B)=P(A)P(B)

(2) A1, A2, …, An son independientes si para cualquier

subconjunto de eventos A(1), A(2), …, A(k):

11

k k

i i

ii

P A P A

Page 29: IO

29

4. Bayes, Odds y Razón de verosimilitud

PARTICIONES:

Def: Dado un e.m. se dice que los eventos B1, B2, …, Bk

forman una partición si:

1. B1 B2 … Bk=

2. Bi Bj = ; i j

1 1 2 2/ / ... /

k kP A P A B P B P A B P B P A B P B

Regla de Bayes:

1

//

/

j j

j k

i i

i

P A B P BP B A

P A B P B

PROBABILIDAD TOTAL:

TEOREMA DE BAYES:

Page 30: IO

30

4. Bayes, Odds y Razón de verosimilitud

1

i i

i n

j j

j

P A B P BP B A

P A B P B

Predictor

o evidencia

Verosimilitudes

Prob. A priori

Prob. posterior

P(A)=verosimilitud marginal

TEOREMA DE BAYES:

Page 31: IO

31

4. Bayes, Odds y Razón de verosimilitud

TEOREMA DE BAYES:Proporciona una regla matemática que explica cómo uno debe cambiar sus

creencias teniendo en cuenta nueva evidencia. Es decir permite que los

investigadores combinen nuevos datos con su conocimiento o experiencia

existente. Un ejemplo didáctico es imaginarse que un recién nacido

observa su primera puesta del sol, y que el se pregunta si el sol saldrá otra

vez o no. Lo natural será que asigne probabilidades a priori iguales a

ambos resultados posibles, lo cual representa colocando un bloque blanco

y uno negro en un bolso. El día siguiente, cuando ve que sale el sol, el niño

coloca otro bloque blanco en el bolso. La probabilidad que un bloque

extraído aleatoriamente del bolso sea blanco (es decir, el grado de creencia

del niño en que el sol saldrá en todos los días futuros) ha cambiado de 1/2 a

2/3. Después de la salida del sol el día siguiente, el niño agrega otro bloque

blanco, y la probabilidad (y por tanto el grado de creencia) pasa de 2/3 a

3/4. Y así sucesivamente. Gradualmente, la creencia inicial de que es tan

probable de que el sol salga o no salga cada mañana se modifica para

convertirse en una casi-certeza de que el sol siempre se levantará.

Page 32: IO

32

4. Bayes, Odds y Razón de verosimilitud

Ejemplo:

Una chica generalmente prefiere usar pantalón para ir a la Universidad, y falda si va a una fiesta. Es mas, según la frecuencia con que lo hace, se puede asegurar que:

P(pantalón/va a la U)=0.8

P(falda/va a una fiesta)=0.9

Los viernes en la tarde esta chica sale a la U con probabilidad p (y a una fiesta con probabilidad 1–p), el valor de p podría ser asignado subjetivamente por un experto (alguien que mira a la chica) o de acuerdo a la frecuencia con la que va a la universidad los viernes (asignación frecuentista de la probabilidad)

Page 33: IO

33

4. Bayes, Odds y Razón de verosimilitud

Ejemplo:

Predictor (evidencia):

(1): Falda

(2): Pantalón

Prob. a priori:

Prob. Posterior:

P(va a F/pantalón) = 1-P(va a la U/pantalón)

P(va a la U/falda)=1- P(va a F/falda)

0.8* Va a la U pantalón

0.7 0.1

pp P

p

0.9(1 )* * Va a F falda

0.9 0.7

pp P

p

P(va a la U)=p

P(va a F) = 1-p

Page 34: IO

34

4. Bayes, Odds y Razón de verosimilitud

Por ejemplo, si la chica los viernes va con tanta frecuencia a la Universidad que

a una fiesta:

p=0.5

La evidencia va a aumentar nuestra creencia de que va a la Universidad

O sea que es menos probable que la chica use pantalón si va a la U que use falda

si va a una fiesta (0.8<0.9), pero en cambio es más probable que vaya a la U

dado que sale con pantalón que vaya a una fiesta si es que sale con falda

(0.88>0.82).

¿Paradoja?:

Va a la U pantalón 0.88p P

* * Va a Fiesta falda 0.82p P

Page 35: IO

35

4. Bayes, Odds y Razón de verosimilitud

La relación entre las probabilidades a posteriori p* y p** en función de la

probabilidad a priori p se observa en el siguiente gráfico.

0.2 0.4 0.6 0.8 1p

0.2

0.4

0.6

0.8

1

En negro p , en rojo p

Page 36: IO

36

4. Bayes, Odds y Razón de verosimilitud¿Paradoja?:

No, lo que pasa es que no se han analizado los falsos positivos (falsos negativos)

Para esto se definen los odds (que tan probable es un evento frente a otro):

i i i

j j j

P B A P A B P B

P B A P A B P B

Odds Posterior Odds Apriori

Razón de verosimiltud: L.R

Obs: si A es independiente con Bi y Bj : LR=1

La información de LR es que es una medida de la información contenida

exclusivamente en los datos, generalmente se aplica cuando Bi y Bj son

complementarios, por ejemplo SANO y ENFERMO, FUNCIONANDO Y

DAÑADA, ETC.

Page 37: IO

37

4. Bayes, Odds y Razón de verosimilitud

En el ejemplo:

Es decir el predictor Pantalón es más verosímil que falda !!

Por ejemplo con p=1/2:

Con pantalón es 8 veces más probable acertar con la predicción que va a la Universidad,

Con falda es 4.5 veces más probable acertar con la predicción que va a fiesta

U Pantalón U Pantalón U U8

F Pantalón F Pantalón F F

F Falda F Falda F F4.5

U Falda U Falda U U

P P P P

P P P P

P P P P

P P P P

Odds: (razón??): Indicador de cuánto mas probable es la ocurrencia de un evento frente a otro

Page 38: IO

38

4. Bayes, Odds y Razón de verosimilitud

Ejemplo:

Supongamos que la incidencia de una cierta enfermedad en una población es de 0.001. Una prueba de diagnóstico para esta enfermedad tiene una tasa de falsos positivos de 0.05 y una tasa de falsos negativos de 0.01 (es decir un 5% de las pruebas de personas no enfermas indicarán la presencia de la enfermedad, mientras que el 1% de las pruebas en gente enferma no detectarán la presencia de la enfermedad.

a) Si una persona se hace la prueba, y el test da positivo, cuál es la probabilidad de que realmente esté enferma?

b) Si una persona se hace la prueba, y el test da negativo, cuál es la probabilidad de que realmente esté sana?

Page 39: IO

39

4. Bayes, Odds y Razón de verosimilitud

En las aplicaciones la incertidumbre es común, y no es la excepción. Por ejemplo

en el diagnóstico médico: dado que el paciente presenta unos síntomas, cuál de

las enfermedades posibles padece?

Los hechos o datos no se conocen con exactitud. Puede o no estar seguro que

tuvo fiebre.

El conocimiento no es determinista, las relaciones entre enfermedad y síntomas

no son exactas.

Estas mismas características se pueden observar en otras aplicaciones:

Control de Calidad

Confiabilidad

Sistemas expertos

Page 40: IO

40

4. Bayes, Odds y Razón de verosimilitud

Modelos Bayesianos (un ejemplo)

Se considera el envío de N artículos manufacturados de un lote de producción. Un número desconocido N de estos son defectuosos. Es muy costoso examinar todos los artículos, por lo cual para obtener información sobre la calidad del lote, se obtiene una muestra de nobjetos sin reemplazo para ser inspeccionados. El dato observado es el número de artículos defectuosos en la muestra.

Es la proporción de defectuosos en la muestra

N es el parámetro (desconocido), y en principio puede tomar cualquier valor de 0 a N, así, aunque el e.m. esté completamente definido no se puede especificar la estructura de probabilidad completamente, sin embargo se puede determinar una familia {H(N , N, n)} de distribuciones de probabilidad para la variable aleatoria:

X= Número de defectuosos en la muestra

Page 41: IO

41

4. Bayes, Odds y Razón de verosimilitud

Modelos Bayesianos (un ejemplo)

X= Número de defectuosos en la muestra

En esta discusión: N es el parámetro,

Posibles valores de : {0, 1/N, 2/N,…, 1}

Aquí asumimos que no hay más información disponible acerca del

verdadero valor del parámetro que la proporcionada por los datos. Sin

embargo hay situaciones en las cuales se puede agregar algo mas: vg es

posible que en el pasado hemos tenido muchos envíos de tamaño N. Si los

clientes nos proveen de registros precisos sobre el número de defectuosos

que han recibido, podemos construir una distribución de frecuencias para la

proporción de defectuosos pasados. Así se puede pensar en el valor de

como en la realización de una v.a.

N N N

k n kP X k

N

n

Page 42: IO

42

5. Variables Aleatorias

Def.- Dado un e.m. , se denomina variable aleatoria (v.a.) a cualquier

función:

Las v.a. tienden a hacer “olvidar” el e.m.

DISTRIBUCIONES DE PROBABILIDAD:

Def.- Dada la v.a. X, se denomina función de distribución a la función:

:X IR

F x P X x P w X w x

Page 43: IO

43

5. Variables Aleatorias

VARIABLES ALEATORIAS DISCRETAS:

Una v.a. es discreta si su rango es un conjunto finito o infinito numerable.

Provienen de procesos de “contar”

VARIABLES ALEATORIAS CONTINUAS:

Una v.a. es contínua si F(x) es una función contínua

Provienen de procesos de “medir”

Page 44: IO

44

5. Variables Aleatorias

Función de probabilidad p(x):

VARIABLES ALEATORIAS DISCRETAS:

p(x)=P(X=x)

Función de densidad f(x):

VARIABLES ALEATORIAS CONTINUAS:

b

a

P a X b f x dx

f (x)

a b

P(a X b)

Page 45: IO

45

5. Variables Aleatorias

VARIABLES ALEATORIAS DISCRETAS:

VARIABLES ALEATORIAS CONTINUAS:

todo

0

1

x

p x

p x

0

1

f x

f x dx

Page 46: IO

46

5. Variables Aleatorias

Esperanza de una V.A. X:

Esperanza de una función g de la V.A. X:

todo

Caso discreto: x

E X x p x

C aso contínuo: E X x f x dx

todo

Caso discreto: x

E g X g x p x

C aso contínuo: E g X g x f x dx

Page 47: IO

47

Experimento binomial:

Muchas variables aleatorias discretas están basadas en un experimento

(denominado experimento binomial) que satisface las siguientes

condiciones:

El experimento consiste en una secuencia de n intentos, donde n se fija

antes del experimento.

Los intentos son idénticos, y cada uno de ellos puede resultar en dos

posibles resultados, que se denotan por éxito (E) o fracaso (F)

(p(E)+p(F)=1).

Los intentos son independientes, por lo que el resultado de cualquier

intento en particular no influye sobre el resultado de otro intento.

La probabilidad de éxito es constante de un intento a otro, y se

representa por p.

6. Distribuciones

Distribuciones discretas más importantes

Page 48: IO

48

Bernoulli:

Ejemplo típico: lanzamiento de una moneda

Binomial: Deben cumplirse las características de un experimento

binomial

de éxitos en intentosX n#

1 ; 0,1, ...,n xx

np x p p x n

x

0 si resulta fracaso

1 si resulta éxitoX

0 1

1

p p

p p 1

E X p

Var X p p

1

E X np

Var X np p

6. Distribuciones

Distribuciones discretas más importantes

Page 49: IO

49

Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de preguntas bien contestadas por un estudiante que responde al azar un examen tipo selección múltiple que consiste de 10 preguntas, cada una con 4 alternativas de las cuales sólo una es correcta.

Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de mujeres seleccionadas al seleccionar aleatoriamente 8 personas de un grupo de 500 personas de las cuales 280 son mujeres.

En EXCEL la sintaxis es: DISTR.BINOM(x, n, p, falso)

6. Distribuciones

Distribuciones discretas más importantes

Page 50: IO

50

6. Distribuciones

Distribuciones discretas más importantes

Selección de objetos con reemplazo y la distribución binomial:

Elegir al azar con reemplazo significa que escogemos al azar un

elemento de un conjunto y lo regresamos para elegir de nuevo al

azar. Esto garantiza la independencia de las elecciones y nos

lleva a una distribución binomial.

Si una caja contiene N bolas de las cuales A son rojas, entonces

la probabilidad de escoger al azar una bola roja es: p = A/N.

Si repetimos el experimento sacando n bolas con reemplazo la

probabilidad de que x de ellas sean rojas es:

),....1,0( 1)( nxN

A

N

A

x

nxP

xnx

Page 51: IO

51

Ejemplo: (Chuck–a-luck) En este juego se elige un número entre 1 y 6. Luego se lanza tres dados, si el número elegido sale en los 3 dados se cobra 3 dólares, si sale en 2 de los dados se cobra 2 dólares, y si sale en un dado se cobra un dólar. Si el número no sale en ninguno se paga 1 dólar

¿ES UN JUEGO JUSTO?

Sugerencia: Hallar la ganancia esperada del juego, si esta es positiva el juego es favorable al jugador, si sale negativa es desfavorable al jugador, si sale cero es indiferente.

6. Distribuciones

Distribuciones discretas más importantes

Page 52: IO

52

6. Distribuciones

Distribuciones discretas más importantes

Geométrica:

Binomial Negativa: de intentos hasta obtener el ésim o éxitoX r#

de intentos hasta obtener el primer éxitoX #

1

1 ; 1, 2, ...x

p x p p x

2

1

1

E Xp

pVar X

p

11 ; , 1, ...

1

x rrx

p x p p x r rr

2

1

rE X

p

r pV ar X

p

En EXCEL la sintaxis es: NEGBINOMDIST(x-r, r, p)

Page 53: IO

53

Selección de objetos sin reemplazo y distribución hipergeométrica:

Hipergeométrica: Si en un grupo de N objetos, r de ellos tienen cierta

característica estudiada que los hace distintos del resto (es decir r objetos

de un tipo y N-r objetos de otro tipo), y de estos N objetos se seleccionan

al azar (sin reposición) n objetos (este es por ejemplo el caso de

muestreo).

Entonces la variable aleatoria X: número de objetos seleccionados que

tienen la característica estudiada, sigue una distribución hipergeométrica

con parámetros N, r, n.

; , ;

r N r

x n x n rp x x r n x N r E X

N N

n

6. Distribuciones

Distribuciones discretas más importantes

Page 54: IO

54

Selección de objetos sin reemplazo y distribución hipergeométrica:

En un lote de 50 computadoras el 10% tiene fallas, si se inspecciona al

azar una muestra de 4 computadoras:

a. Cuál es la probabilidad que exactamente 2 tengan fallas

b. Cuál es la probabilidad que al menos una tenga falla

c. Cuál es la probabilidad que a lo mucho 2 tengan fallas

En EXCEL la sintaxis es: DISTR.HIPERGEOM(x. n, r, N)

6. Distribuciones

Distribuciones discretas más importantes

Page 55: IO

55

Poisson: Una variable aleatoria X de Poisson “cuenta” el número de

eventos (independientes) que ocurren en una unidad de tiempo, de

espacio, de volumen, etc.

Por ejemplo: el número de llegadas de personas a la fila de un cajero

en un banco en una hora, el número de faltas de ortografía que comete

una mecanógrafa en una hoja, el número de accidentes de trabajo por

operario en un año determinado en una empresa, el número de

llamadas que llegan a una central telefónica por minuto.

Su distribución de probabilidades es:

; 0,1, 2, ...!

x

p x e xx

E X

Var X

6. Distribuciones

Distribuciones discretas más importantes

Page 56: IO

56

A una operadora de transporte terrestre ingresan en promedio 20 camiones en una hora. El administrador ha determinado (con una prueba K-S) que el número de camiones que llegan por hora se distribuye aproximadamente con una distribución de Poisson. La capacidad de las instalaciones es para servir hasta 25 camiones por hora.

a. Cuál es la probabilidad que en una hora determinada ingresen exactamente 20 camiones?

b. Menos de 20 camiones?

c. Que la capacidad de las instalaciones se vea desbordada?

En EXCEL la sintaxis es: POISSON(x, , falso)

6. Distribuciones

Distribuciones discretas más importantes

Page 57: IO

57

En un cruce de carreteras se producen accidentes a razón de 2 por semana (en media), siguiendo aproximadamente una distribución de Poisson. Reconociendo que la frecuencia anterior es intolerable se ha decidido instalar un semáforo en dicho cruce. La siguiente semana de la instalación sólo ocurre un accidente.

a) ¿ Se puede afirmar que el semáforo es efectivo ?.

b) ¿ Cuál sería la conclusión si se hubiera producido un accidente en dos semanas ?.

c) ¿ Y si se hubiera producido un accidente en 4 semanas ?

6. Distribuciones

Distribuciones discretas más importantes

Page 58: IO

58

Bombas sobre Londres en la II Guerra Mundial (Feller)

Supón que vivías en uno de los 100 bloques que aparecen en la gráfica

inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100.

Como cayeron 400 bombas, podemos entender el número de impactos en un

bloque como una variable aleatoria de Poisson con λ=400 1/100=4:

6. Distribuciones

Distribuciones discretas más importantes

Observado

Predicho

Page 59: IO

59

Uniforme: Una variable aleatoria tiene distribución uniforme en el intervalo [a,

b], si su función de densidad es:

Se representa con X U[a,b]

Ejemplo: Se conoce que el tiempo que emplea un camión en llevar material

desde una cantera hasta un centro de acopio se distribuye

aproximadamente mediante una distribución uniforme y que el viaje dura

entre 1 hora y 1 hora y 45 minutos.

a. Cuál es la probabilidad que un camión emplee entre 1h:10 y 1h:25

b. Cuál es la probabilidad que un camión emplee más de 1h:15

c. Si se demora más de una hora y media la empresa es multada con 5$. En

un día normal salen 20 de estos camiones. ¿cuál es el costo esperado diario

por multas que deberá pagar la empresa?

1;f x a X b

b a

a b

2

;2 2

b aa bE X Var X

6. Distribuciones

Distribuciones contínuas más importantes

Page 60: IO

60

Normal: Una variable aleatoria X tiene distribución normal con

parámetros y 2 si su función de densidad es:

Donde:

Se representa con X N[ , 2]

2

22

1;

2

x

f x e x IR

μ

2;E X Var X

6. Distribuciones

Distribuciones contínuas más importantes

Page 61: IO

61

Normal: Un gran número de estudios indica que la distribución normal proporciona una adecuada representación, por lo menos en una primera aproximación, de las distribuciones de una gran cantidad de variables físicas. Algunos ejemplos específicos incluyen datos meteorológicos tales como la temperatura y la precipitación pluvial, mediciones efectuadas en organismos vivos, calificaciones en pruebas de actitud, mediciones físicas de partes manufacturadas, errores de instrumentación, demanda de productos y otras, etc. Sin embargo, debe tenerse mucho cuidado al suponer para una situación dada un modelo de probabilidad normal sin previa comprobación.

Si bien es cierto que la distribución normal es la que tiene un mayor uso, es también de la que más se abusa. Quizá esto de deba a la mala interpretación de la palabra "normal“

Suponer de manera errónea una distribución normal puede llevar a errores muy serios.

6. Distribuciones

Distribuciones contínuas más importantes

Page 62: IO

62

Normal: Esta función tiene un gran número de aplicaciones en estadística,

incluidas las pruebas de hipótesis.

En Excel la sintaxis es:

Para la distribución acumulada: DISTR.NORM(x, , , acum)

Para la inversa: DISTR.NORM.INV(1- , , )

6. Distribuciones

Distribuciones contínuas más importantes

1-

x

Page 63: IO

63

Normal: (Ejemplo) La demanda mensual de cierto producto se distribuye

aproximadamente normal con media de 200 y desviación estándar de 40. ¿Qué tan

grande debe ser el inventario disponible a principio de un mes para que la

probabilidad de que la existencia se agote no sea mayor de 0.05?

(Ejemplo) El Bar "El Imperio" sirve chop a sus clientes. Se ha determinado que la

demanda diaria de barriles de cerveza sigue una distribución normal con una media

de 18 barriles y una desviación estándar de 4 barriles. La empresa opera 330 días al

año. El costo de emisión de un pedido es $40 y el costo de mantenimiento es de

$0.20 por barril por día. El tiempo de provisión requerido para recibir un pedido de

barriles de cerveza desde el distribuidor es de 3 días. Determinar:

a) El tamaño del lote óptimo de compra.

b) El stock de seguridad y el punto de reabastecimiento si el Bar y Restaurante "El

Imperio" desea que el nivel de servicio sea de un 90 %.

c) ¿Cuál sería el incremento en el stock de seguridad si un nivel de servicio de 95 %

fuera deseado?

6. Distribuciones

Distribuciones contínuas más importantes

Page 64: IO

64

Normal: (Ejemplo) Teniendo en cuenta que el diámetro de las naranjas de

exportación sigue una distribución normal, un determinado inspector conoce por su

dilatada experiencia que el 30% de las naranjas que examina tienen un diámetro

inferior a 60 mm y el 20% tienen el diámetro superior a 100 mm.

a) El país A exige que el diámetro esté comprendido entre 75 y 90 mm. Calcular la

probabilidad de que esto ocurra en una determinada partida.

b) Calcular el intervalo de extremos simétricos respecto a la media que cubra el 90%

de las naranjas.

c) El país B exige que el diámetro no baje de los 50 mm. La inspección se realiza

midiendo el diámetro de 10 naranjas y rechazando una determinada partida si se

encuentran más de dos naranjas con un diámetro inferior a 50 mm. Calcular la

probabilidad de que una partida sea aceptada.

6. Distribuciones

Distribuciones contínuas más importantes

Page 65: IO

65

Exponencial: Una variable aleatoria X tiene una distribución exponencial con parámetro , si su densidad es:

Donde:

Se suele representar con =1/

En el caso que X represente el tiempo entre llegadas, es el tiempo promedio entre llegadas y sería la frecuencia de llegadas por 1 ut

/1; 0

xf x e x >

2;E X Var X

6. Distribuciones

Distribuciones contínuas más importantes

Page 66: IO

66

Exponencial: Esta distribución permite (entre otras cosas) establecer el tiempo

entre dos sucesos, tal como el tiempo que tarda una máquina de cajero

automático en entregar efectivo, el tiempo entre la llegada de dos camiones a

una terminal, etc.

La sintaxis en EXCEL es:

Para la distribución acumulada: DISTR.EXP(x, , acum)

6. Distribuciones

Distribuciones contínuas más importantes

Page 67: IO

67

Exponencial: (Ejemplo) El promedio de llegada de camiones a una bodega para

ser descargados es de 3 camiones por cada hora. Se ha determinado que el

tiempo que transcurre entre dos llegadas sucesivas de camiones es

exponencial.

a. Encuentre la probabilidad de que dado que en un momento llegó un camión, el

próximo llegue antes de 10 minutos.

b. Encuentre la probabilidad de que dado que en un momento llegó un camión, el

próximo llegue después de cuarto de hora.

c. Calcule la probabilidad de que durante una jornada de 8 horas lleguen como

máximo 20 camiones a descargar

NOTA: Si el tiempo entre dos llegadas es Exponencial( ), el número de llegadas

por unidad de tiempo es Poisson( )

6. Distribuciones

Distribuciones contínuas más importantes

Page 68: IO

68

Beta: Una variable aleatoria X tiene una distribución exponencial con parámetros y , si su función de densidad es:

Donde:

Se representa con X ( , )

Otras: Poisson truncada, Weibull, Erlang, Lognormal, Pareto, Cauchy, logística, etc

111 ; 0f x x x x< < 1

1

2;

1E X Var X

6. Distribuciones

Distribuciones contínuas más importantes

Page 69: IO

69

Beta:La distribución beta se usa generalmente para estudiar las variaciones, a través de varias muestras, de un porcentaje que representa algún fenómeno, por ejemplo, el tiempo diario que la gente dedica a mirar televisión, el porcentaje de artículos con fallas en un lote, el porcentaje de impurezas en un producto, el porcentaje de tiempo que realmente trabaja un empleado en su horario de trabajo, la distribución del intervalo de tiempo necesario para completar una fase de proyecto PERT, etc.

La sintaxis en EXCEL es:

Para la acumulada: DISTR.BETA(x; , )

Para la inversa: DISTR.BETA.INV(p, , )

6. Distribuciones

Distribuciones contínuas más importantes

Page 70: IO

70

Beta:

(Ejemplo) Se ha determinado que la proporción anual de nuevos restaurantes que fracasan y quiebran en una ciudad sigue una distribución beta β (1, 4).

Determinar :

a) La proporción anual de nuevos restaurantes que se espera fracasen en la ciudad dada.

b) La probabilidad de que al menos el 25% de los nuevos restaurantes fracasen en la ciudad un año cualquiera.

(Ejemplo) Los sensores infrarrojos de un sistema robótico computarizad envían información a otros sensores en diferentes formatos. El porcentaje X de las señales que se envían y que son directamente compatibles para todos los sensores del sistema sigue una distribución beta con α = β = 2.

a) Calcule la probabilidad de que más del 30% de las señales de infrarrojos enviadas en el sistema sean directamente compatibles para todos los sensores.

b) Calcula la media y la varianza de X

6. Distribuciones

Distribuciones contínuas más importantes

Page 71: IO

71

Si se tienen las v.a. X1, X2, …, Xk se denomina al vector

X=(X1, X2, …, Xk) vector aleatorio.

Def.- La función de distribución conjunta de un vector

aleatorio X es:

F (x1, x2, …, xk)=P(X1 x1, X2 x2, …, Xk xk)

OBS: Dada la f.d.c. de un vector aleatorio X, podemos

determinar:

P(X A) A IRk

6. Distribuciones

Distribuciones conjuntas

Page 72: IO

72

Funciones de densidad:

CASO DISCRETO:

Def: Si X1, X2, …, Xk son v.a.d. definidas en el mismo

espacio muestral, la función de distribución de

probabilidades conjunta es:

p(x1, x2, …, xk)=P(X1=x1, X2 =x2, …, Xk =xk)

CASO CONTINUO:Def: En el caso contínuo se define la función de densidad

conjunta como: f(x1, x2, …, xk) tal que:

1 2 1 2( ) , , ..., ...

k k

A

P X A f x x x dx dx dx

6. Distribuciones

Distribuciones conjuntas

Page 73: IO

73

1 2 1 1 1( ) , , ..., ... ...

i i n i i nf x f x x x dx dx dx dx

Distribuciones Marginales:

CASO DISCRETO:

Def: Si X1, X2, …, Xk son v.a.d. con f.d.p. conjunta

p(x1, x2, …, xk), se denomina f.d.p. marginal de xi a:

CASO CONTINUO:Def: En el caso contínuo se define la función de densidad

marginal de xi a:

1 2 1 1

1 2( ) , , ...,

i i k

i i k

x x x x x

p x p x x x

6. Distribuciones

Distribuciones conjuntas

Page 74: IO

74

Independencia:

Def: X1, X2, …, Xk se denominan v.a. independientes si

para cualquier subconjunto X1, X2, …, Xp:

1

1

, ...,

p

p i i

i

f x x f x

6. Distribuciones

Distribuciones conjuntas

Page 75: IO

75

7. INFERENCIA ESTADISTICA

Estimación de parámetros

Cuando se supone conocida una distribución para las observaciones

dadas, el parámetro ( ) generalmente es desconocido, es decir se

supone conocida la “forma” de la distribución salvo el valor de su

parámetro.

Para estimar el valor del parámetro se usan las observaciones para

obtener un número, denominado el “estimador”, representado con

Pero, ¿cómo obtener buenos estimadores?

-Método de los momentos

-Método de la Máxima Verosimilitud

ˆ

Page 76: IO

76

Estimadores de Máxima Verosimilitud (ML)

Dadas las observaciones X1, X2, …, Xn, obtenidas de una población con densidad f(x; ), se denomina función de verosimilitud de la muestra a:

El estimador de máxima verosimilitud del parámetro es el valor de que maximiza L.

Es decir, se obtiene resolviendo la ecuación vectorial:

ˆ

1 2

1

( ; ) , , ..., /

n

n i

i

L X f x x x f x

( ; ) 0L

L X

7. INFERENCIA ESTADISTICA

Estimación de parámetros

Page 77: IO

77

Los intervalos de confianza para un parámetro cualquiera (por ejemplo la media) nos dan un rango de valores alrededor del estimador dónde esperamos se encuentre el verdadero valor del parámetro (de la población), con cierto nivel dado de certeza.

Es decir, un intervalo de confianza de (1- ) 100% de confianza para un parámetro es un intervalo de la forma: [LIC, LSC], donde:

P(LIC LSC) = 1-

7. Inferencia estadística

INTERVALOS DE CONFIANZA

Page 78: IO

78

Ejemplo:

En una hacienda hay 2000 reses, se ha escogido una muestra de 50 reses y se ha obtenido que en promedio pesan 420 Kg. Se conoce que la desviación típica de los pesos de las reses es de 48 kg.

a. Hallar el IC del 90% para el peso promedio real de las reses de la hacienda.

b. Hallar el IC del 98% para el peso promedio real de las reses de la hacienda.

7. Inferencia estadística

INTERVALOS DE CONFIANZA

Page 79: IO

79

¿Qué es una prueba de hipótesis?

Es un procedimiento estadístico diseñado para comprobar una hipótesis que se hace el investigador sobre un parámetro desconocido o sobre la distribución de una población.

Las pruebas de hipótesis se realizan en todos los ámbitos en los cuales puede contrastarse la teoría frente a la observación, probar una hipótesis implica tomar una decisión al comparar la muestra observada con una suposición que se hace de la realidad.

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 80: IO

80

Los elementos de una prueba de hipótesis son:

- Hipótesis Nula (Ho)

- Hipótesis Alternativa (Ha)

- Estadístico de Prueba (EP)

- Región de rechazo (R.R.) - o nivel de significancia (p)

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 81: IO

81

Decisión y error en una P.H.

Decisión

Rechazar Ho Aceptar Ho

Ho es verdadera

Ho es falsa

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Decisión Correcta

Decisión Correcta Error tipo II

Error tipo I

Page 82: IO

82

Decisión y error en una P.H.

P(Error tipo I)=

P(Error tipo II)=

Nivel de significancia: Menor valor de alfa para el cual se

rechaza la hipótesis nula

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 83: IO

83

La significancia estadística de un resultado es la probabilidad que la relación observada (por ejemplo, entre las variables) o una diferencia (por ejemplo, entre las medias) en una muestra ocurrió por pura coincidencia (“la suerte de la lotería”), y que en la población de la que la que se escoge la muestra no existe tal relación o diferencias

En muchas áreas de investigación, el valor p de .05 se toma habitualmente como un valor crítico del nivel del error aceptable

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 84: IO

84

Pruebas inferenciales mas frecuentes de acuerdo a la escala de medición

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 85: IO

85

PRUEBA t

La prueba t para muestras independientes

La prueba t es el método mas comúnmente usado para evaluar las

diferencias entre las medias de dos grupos.

Teóricamente, la t-prueba puede usarse aun cuando los tamaños de la

muestra son muy pequeños (por ejemplo, tan pequeño como 10;

algunos investigadores exigen por lo menos eso)

El nivel p reportado en una t-prueba representa la probabilidad de error

involucrada en aceptar nuestra hipótesis investigada sobre la existencia

de una diferencia.

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 86: IO

86

PRUEBA t

Gráficos de la prueba t. En el análisis de la prueba t, las comparaciones entre

las medias y las medidas de variación en los dos grupos pueden visualizarse

en los diagramas de caja

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 87: IO

87

PRUEBA DE ANOVA

A menudo sucede en la investigación práctica que se necesita comparar más

de dos grupos (por ejemplo, medicina 1, medicina 2, y placebo), o comparar

grupos creados por más de una variable independiente y controlando la

influencia separada de cada uno de ellos (por ejemplo, Género, el tipo de

Droga, y tamaño de Dosis).

En estos casos, se necesita analizar los datos usando el denominado Análisis

de Varianza, que puede considerarse como una generalización de la prueba t

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 88: IO

88

PRUEBAS NO PARAMETRICAS

Muchas veces no se puede asumir una distribución dada para una población de donde se han obtenido la(s) muestra(s), en ese caso se deben utilizar las denominadas pruebas no paramétricas o libres de distribución, a continuación se presenta una tabla donde se observan las pruebas no paramétricas equivalentes a las paramétricas.

7. Inferencia estadística

PRUEBAS DE HIPOTESIS

Page 89: IO

89

8. Pruebas de Bondad de ajuste

Muchas veces no se está claro si se cumplen los supuestos de

alguna distribución, otras veces es necesario asumir una

distribución teórica para modelizar la distribución de una

variable, para esto se tienen las pruebas de bondad de ajuste.

Las pruebas de bondad de ajuste más usadas son:

-Prueba 2

-Prueba K-S (Kolmogorov – Smirnov)

Page 90: IO

90

8. Prueba de Bondad de ajuste 2

Se pueden clasificar a las GOF (goodness-of-fit) en dos grupos:

(1) Las que dividen al rango de los datos en “casillas” disjuntas, y luego el número de observaciones que caen en cada casilla es comparado con el número esperado bajo la distribución supuesta en la hipótesis nula. Es natural usarlas en el caso discreto.

(2) En estas pruebas se comparan la función de distribución empírica de la muestra y la función teórica dada en la hipótesis nula. El estadístico de prueba está basado en alguna medida de distancia entre las dos distribuciones. Se usan casi exclusivamente para el caso de distribuciones contínuas.

Prueba 2

Prueba K-S

Page 91: IO

91

8. Prueba de Bondad de ajuste 2

En la prueba 2 las n observaciones son agrupadas en kcasillas disjuntas, c/u de las cuales debe contener por lo menos 5 observaciones, sea ni la frecuencia observada en la casilla i.

Lo que se desea probar es:

Ho: La distribución de la población es Fo, vs.

Ha: La distribución de la población no puede ser Fo,

Con la distribución Fo dada en Ho, se calculan las probabilidades de casilla pi, y luego la frecuencia esperada de casilla = n pi

Page 92: IO

92

8. Prueba de Bondad de ajuste 2

El estadístico de prueba es:

Y la región de rechazo es:

Siendo L el número de parámetros que se deben estimar.

2

2

1

. . . .

. .

k

i

F O F E

F E

2 2con -1- grados de libertadk L

Nota: La distribución 2 con grados de libertad se define como una

distribución Gamma con parámetros = /2 y =2

Page 93: IO

93

En resumen, la Prueba de bondad de ajuste 2 es:

Ho: La distribución de la población es Fo(x)

Ha: La distribución de la población no puede ser Fo(x)

E.P.:

R.R.:

Obs: La frecuencia observada de cada casilla F.O. debe ser 5

2

2

0

. . . .

. .

k

i

F O F E

F E

2 2

8. Prueba de Bondad de ajuste 2

Page 94: IO

94

8. Prueba de Bondad de ajuste K-S

Ho: La distribución de la población es Fo

Ha: La distribución de la población no puede ser Fo

E.P.:

R.R.:

o máxima distancia ( ),D F x F x

,nD D

La función (x) es la distribución empírica de la

muestraF

Page 95: IO

95

8. Prueba de Bondad de ajuste K-S

Page 96: IO

96

9. Métodos de pronóstico: regresión lineal y medias

móviles.

La previsión de la demanda (mas comúnmente conocida como el

pronóstico de la demanda) es la estimación de los niveles futuros

que adoptará la demanda y es un elemento de gran relevancia en

la planificación de la empresa y, por tanto, en la definición de los

objetivos de los diferentes departamentos de la empresa.

Los métodos de estimación de la demanda se clasifican en dos

tipos:

•Los métodos cuantitativos

•Los métodos cualitativos

Ver documento “pronóstico de la demanda.doc”

Page 97: IO

97

10. Generalización del teorema de Bayes

La regla de Bayes también se puede aplicar a v.a.c..

Supongamos que tenemos una v.a.c. x que es especificada por

una distribución indexada por un parámetro

A priori:

Podemos cuantificar nuestro conocimiento a priori acerca del

valor del parámetro y estimar una distribución a priori

Verosimilitud

Esta es la distribución (o verosimilitud) de la v.a. x, es decir:

p

p x

Page 98: IO

98

10. Generalización del teorema de Bayes

A posteriori:

Aplicando la regla de Bayes obtenemos la distribución

posterior:

Donde el denominador es:

Cualquier tipo de inferencias pueden hacerse a partir de la

distribución posterior del parámetro del modelo , donde el

dato x incluye información tanto de la a priori como de la

verosimilitud.

=

p p xp x

p x

=p x p p x d

Page 99: IO

99

10. Generalización del teorema de Bayes

Esto es generalizado para una muestra aleatoria x1, x2, …, xn

proveniente de una distribución que depende de los

parámetros 1, 2, …, j.

A Priori: Cuantificamos nuestras creencias acerca de los

parámetros en la forma de una distribución conjunta.

p( 1, 2, …, j)

Donde no necesariamente son independientes.

Verosimilitud: Con la muestra, la distribución conjunta de las

observaciones es:

11 1

1

, , , , , ,=

n

i Jn J

i

p x x p x

Page 100: IO

100

10. Generalización del teorema de Bayes

Posterior: Aplicando la regla de

Bayes:

Donde el denominador es:

Notación:

1 11

1 11

, , , , , ,, , , ,

, ,=

J Jn

J nn

p p x xp x x

p x x

1 11 1, , , , , ,= J nn J

p x x p p x x d d

1 1 1 1 1

1 1 1

, , , , , , , , , ,

, , , , , ,

J n J n J

J n J

p x x p p x x

p p x x

k

Page 101: IO

101

10. Generalización del teorema de Bayes

la estadística Bayesiana es nada más que un modelo formal de aprendizaje en un ambiente de incertidumbre aplicado a la inferencia estadística. Lo a priori expresa mis creencias sobre antes de observar los datos; mientras que la distribución expresa mis creencias actualizadas sobre después de observar los datos.

A partir de esto, llevar a cabo un análisis Bayesiano es ilusoriamente simple y siempre se procede de la siguiente manera:

Formular la distribución muestral y la distribución a priori .

Calcular la distribución posterior según Bayes

¡Eso es todo! Toda la información acerca de está contenida ahora en la distribución posterior. Por ejemplo la probabilidad que es:

|p y

p|p y

AP | |

A

A y p y d

Page 102: IO

102

10. Generalización del teorema de Bayes

Ya que la distribución posterior es la representación completa de sus creencias sobre , a veces es conveniente informar una sola estimación, por ejemplo el valor más probable de , este se denomina entonces el estimador bayesiano de .

Aplicación: sea y = x1, x2, …, xn una muestra aleatoria de puntuaciones, con la suposición que estas provienen de una población normal con media y varianza 2,

Si usamos la a priori:

2

. . .

,i

i i d

x N

/ 2 2

2

1

12 exp

2

nn n

i

i

p y x

1 / 2 21

0 02

0

12 exp

2p

Page 103: IO

103

10. Generalización del teorema de Bayes

Donde 0 y 02 son la media y la varianza a priori

conocidas, antes de conocer los datos

La distribución posterior de es:

El numerador es:

p y p p y pp y

p y p y p d

1 / 2 2 21

0 02 2

1 0

1 12 exp

2 2

nn n

i

i

p y p x

2 2

0 0 2

2 2 2 2

0 0

/ 1 / 1;

/ 1 / / 1 /

n x

n nC on

Page 104: IO

104

10. Generalización del teorema de Bayes

Entonces:

Donde:

Luego:

O también:

/ 2 1

02 exp

n np y h y

1 / 2 21

2

1

12 exp

2

n

i

p y p p y

2 2

02 2 1 21 0

1 1

2 2

n

i

i

h y x x xn

Si

1 / 2 21

2

12 exp

2p y

2

2

1exp

2p y

Page 105: IO

105

10. Generalización del teorema de Bayes

En el siguiente gráfico se observan las densidades a priori y posterior de para diferentes muestras.

Muestra: {1,0,6,0,3}

-2 -1 1 2 3 4 5

0.2

0.4

0.6

0.8

1

Page 106: IO

106

11. TEORIA DE LA DECISION

Def: La teoría de la decisión estudia los métodos analíticos que

proveen las herramientas para analizar situaciones en las cuales

hay que tomar una o más decisiones.

La decisión tomada debe ser la mejor posible respecto a algún

criterio de optimalidad ( o la mejor posible “en promedio”)

Page 107: IO

107

11. TEORIA DE LA DECISION

AMBIENTES SOBRE LOS CUALES SE TOMA DECISIONES

Decisiones bajo Certidumbre

Decisiones bajo incertidumbre

Decisiones bajo riesgo

Page 108: IO

108

11. TEORIA DE LA DECISION

Decisiones bajo Certidumbre: Se conocen con certeza los

resultados o consecuencias de seleccionar cada alternativa

Ejemplo: Se tienen 1000$ a invertir en un año, se los puede poner

en una libreta de ahorros al 3.0% de interés anual o comprar un

certificado de depósito que paga el 5% anual. Asumiendo que

ambas alternativas son seguras el certificado de depósito nos da

un retorno mayor. La decisión óptima está clara, fácil de obtener!.

Page 109: IO

109

11. TEORIA DE LA DECISION

Otros problemas de decisión bajo certidumbre son muy

complicados, en ese caso solo se puede obtener una “buena”

solución.

Ejemplo: Se tienen 100 clientes, a los cuales se debe entregar

cierto producto en determinado intervalo de tiempo, se conoce la

ubicación, la demanda y la ventana de tiempo de los clientes.

También se tiene un depósito, desde donde deben salir los

vehículos (que tienen una capacidad q conocida) cargados para

satisfacer la demanda de los clientes. Se debe decidir cuántos

vehículos enviar y por donde enviarlos.

Page 110: IO

110

11. TEORIA DE LA DECISION

Red física: Ubicaciones de clientes

Page 111: IO

111

11. TEORIA DE LA DECISION

0

Grafo matemático: Nodos, arcos y pesos

Page 112: IO

112

11. TEORIA DE LA DECISION

1

2

3

4

5

6

78

9

10

1112

13

14

15

1617

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

3637

383940

41

42

43

44

454647

48

49

50

51

52

53

54

5556

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

8485

868788

89

90

91

9293

94

95

96

97

98

99

100

101

Obtención de rutas individuales

Page 113: IO

113

Costo del ruteo: 19794

Costo del ruteo: 1307

11. TEORIA DE LA DECISION

Page 114: IO

114

11. TEORIA DE LA DECISION

Decisiones bajo Incertidumbre: No se conocen las

probabilidades asociadas con los diferentes resultados de cada

alternativa.

Ejemplo: Un empresa estudia la posibilidad de añadir un nuevo

producto a su línea de producción. Las alternativas que se

estudian son: hacer una ampliación grande, hacer una ampliación

pequeña, o no hacer ninguna ampliación a las actuales

instalaciones para producir el nuevo producto. Si no conocemos

las probabilidades asociadas con cada uno de los resultados para

las distintas alternativas tenemos que tomar una decisión bajo una

completa incertidumbre.

Page 115: IO

115

11. TEORIA DE LA DECISION

Decisiones bajo Riesgo: Se conocen las probabilidades asociadas

con los diferentes resultados de cada alternativa.

Ejemplo: Si en el ejemplo anterior se conocen estimaciones de las

probabilidades asociadas a la posible demanda del nuevo

producto, por ejemplo a través de un estudio de mercado, tenemos

un problema de decisión bajo riesgo.

Page 116: IO

116

11. TEORIA DE LA DECISION

El origen de la teoría de la decisión para la toma de decisiones se

deriva de la economía, en el área de la función de la utilidad del

pago. Propone que las decisiones deben tomarse calculando la

utilidad y la probabilidad de rangos de opciones, y establece

estrategias para una buena toma de decisiones.

Proceso de Toma de Decisiones Estadísticas

A diferencia de los procesos de toma de decisiones

determinísticas tal como, optimización lineal resuelto mediante

sistema de ecuaciones, sistemas paramétricos de ecuaciones y en

la toma de decisión bajo pura incertidumbre, las variables son

normalmente más numerosas y por lo tanto más difíciles de medir

y controlar. Sin embargo, los pasos para resolverlos son los

mismos. Estos son:

Page 117: IO

117

11. TEORIA DE LA DECISION

1. Simplificar

2. Construir un modelo de decisión

3. Probar el modelo

4. Usar el modelo para encontrar soluciones:

El modelo es una representación simplificada de la situación real

No necesita estar completo o exacto en todas las relaciones

Se concentra en las relaciones fundamentales e ignora las

irrelevantes.

Este es entendido con mayor facilidad que un suceso empírico

(observado), por lo tanto permite que el problema sea resuelto con

mayor facilidad y con un mínimo de esfuerzo y pérdida de

tiempo.

5. El modelo puede ser usado repetidas veces para problemas

similares, y además puede ser ajustado y modificado.

Page 118: IO

118

11. TEORIA DE LA DECISION

Elementos de la teoría de decisiones:

El análisis de decisiones es un proceso que le permite al decisor seleccionar

una decisión (sólo una) entre un conjunto de alternativas posibles de decisión,

cuando existe incertidumbre con respecto al futuro, con el objetivo de

optimizar el pago (retorno) resultante, en términos de algún tipo de criterio de

decisión numérico. Los elementos de los problemas de análisis de decisiones

son los siguientes:

Hay un decisor responsable individual.

Un número finito de eventos (futuros) posibles, llamados Estados de la

Naturaleza, es decir, un conjunto de escenarios posibles. Las circunstancias en

las cuales se toma una decisión se llaman estados de la naturaleza. Los estados

de la naturaleza se identifican y agrupan en el conjunto ; los miembros se

denotan como . El conjunto es un grupo de conjuntos mutuamente

excluyentes. Es decir, sólo puede ocurrir un estado de la naturaleza. ¿Qué

puede hacer la naturaleza?

Page 119: IO

119

11. TEORIA DE LA DECISION

Elementos de la teoría de decisiones:

Un número finito de alternativas posibles de decisión. Hay una acción

a, miembro del conjunto A, que puede ser adoptada por el decisor. Sólo puede

adoptar una. ¿Qué puedo hacer? Una buena decisión requiere buscar un

conjunto más rico de alternativas que las que se presentaron inicialmente o que

las aceptadas tradicionalmente.

La manera más sencilla de formular el problema de decisión es usando una

matriz de beneficios (o tabla de pagos). Suponemos que se puede construir una

matriz de beneficios L bien definida, monetaria (y luego de utilidad) sobre dos

conjuntos de dominio dimensionales A y . Las filas y las columnas se asignan

a las alternativas de decisión posibles y a los estados posibles de la

naturaleza, respectivamente. Normalmente no es tarea sencilla construir esta

matriz; por lo tanto, puede requerir algo de práctica.

Generalmente, esta función refleja una ganancia, si el problema se plantea en

términos de pérdidas, estas se pueden expresar como ganancias negativas. Un

valor de la matriz de pagos l(a, ) representa el pago asociado a esta

combinación acción - estado de la naturaleza.

Page 120: IO

120

11. TEORIA DE LA DECISION

Fuente de Errores en la Toma de Decisiones:

La fuente principal de errores en los problemas de toma de

decisiones arriesgadas son las presunciones falsas, no tener una

estimación exacta de las probabilidades, depender de la

expectativa, dificultades en medir la función de utilidad, y los

errores de pronóstico.

Page 121: IO

121

11. TEORIA DE LA DECISIONAcciones dominadas:

En los problemas de decisión suelen existir muchas acciones

posibles, por lo tanto es conveniente que previamente se lo

reduzca tanto como sea posible.

Decimos que una acción a’ es dominada por una acción a, si los

pagos para a son mejores que los pagos para a’, sin importar el

estado de la naturaleza. Es decir:

Si los pagos son ganancias, al contrario si son costos

: , ',l a l a

Page 122: IO

122

11. TEORIA DE LA DECISION

EJEMPLO:

Una compañía de computadoras compra chips a dos proveedores,

A y B. En cada orden de 1000 chips (independientemente del

proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.

El proveedor A vende el paquete de 1000 chips por $300 y el

proveedor B lo vende por $302. Cada chip defectuoso se devuelve

a un costo de $0.15 por chip. ¿A cuál proveedor conviene

comprar los chips?

% defectuosos

Proveedor 1% 3% 5%

A -301.5 -304.5 -307.5

B -303.5 -306.5 -309.5

Estados de la naturaleza

Acciones

PagosAcción dominada

Page 123: IO

123

11. TEORIA DE LA DECISION

EJEMPLO:

Una compañía de computadoras compra chips a dos proveedores,

A y B. En cada orden de 1000 chips (independientemente del

proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.

El proveedor A vende el paquete de 1000 chips por $300 y el

proveedor B lo vende por $302. Cada chip defectuoso adquirido

al proveedor A es devuelto a un costo de $0.15 por chip, mientras

que uno defectuoso adquirido al proveedor B es devuelto a un

costo de $0.05 ¿A cuál proveedor conviene comprar los chips?

TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS

ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5

ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5

Page 124: IO

124

11. TEORIA DE LA DECISION

OBSERVACIONES A PARTIR DE LA TEORIA DE JUEGOS:

El pago es una medida cuantitativa del valor de las consecuencias del

resultado para el tomador de decisiones, en este sentido muchas veces el

pago se representa por la ganancia monetaria neta (utilidad). Si las

consecuencias del resultado no son completamente ciertas aun cuando

ocurra el estado de la naturaleza, entonces el pago se convierte en un

valor esperado (en el sentido estadístico) de la medida de las

consecuencias

Sea l(a, ) el pago al tomar la acción a cuando el estado de la naturaleza

es . En general, se usa una tabla de pagos para cada combinación de a y

y ; en el contexto de la teoría de juegos el tomador de decisiones y la

naturaleza se pueden ver como dos jugadores.

Las acciones posibles y los estados de la naturaleza posibles se pueden

ver como las estrategias disponibles para los respectivos jugadores,

donde cada combinación de estrategias da como resultado un pago para

el jugador 1 (el tomador de decisiones).

Page 125: IO

125

11. TEORIA DE LA DECISION

Así se tiene que:

- El tomador de decisiones necesita elegir una de las acciones

posibles

- La naturaleza elegirá luego uno de sus estados (de la naturaleza)

posibles, cada combinación de una acción a y un estado de la

naturaleza da como resultado uno de los elementos de la tabla

de pagos. Esta tabla de pagos debe usarse para encontrar una

acción óptima para el tomador de decisiones según un criterio

adecuado.

Si consideramos que en la teoría de juegos ambos jugadores son

racionales y eligen sus estrategias para promover su propio

beneficio, esto se ajusta al tomador de decisiones pero no a la

naturaleza ya que esta es un jugador pasivo que elige sus

estrategias (estados de la naturaleza) de una manera aleatoria.

Page 126: IO

126

11. TEORIA DE LA DECISION

TIPOS DE MODELOS DE DECISION:

Existen tipos diferentes de modelos de decisión que ayudan a

analizar distintos escenarios, dependiendo de la cantidad y el

grado de conocimiento que tengamos. Los tres tipos más

ampliamente utilizados son:

– Decisión tomada con pura incertidumbre,

– Decisión tomada con riesgo,

– Decisión tomada comprando información (empujando el

problema hacia el "polo" determinista)

Page 127: IO

127

11. TEORIA DE LA DECISION

TOMA DE DECISIONES BAJO INCERTIDUMBRE:

En las decisiones tomadas con pura incertidumbre, el decisor no

tiene ningún conocimiento, ni siquiera de la probabilidad de

ocurrencia de cualquier estado de la naturaleza. En este caso, el

comportamiento del decisor se basa puramente en su actitud hacia

lo desconocido. Algunos de estos comportamientos son los

optimistas, los pesimistas y los de arrepentimiento, entre otros.

Optimista: El vaso está medio lleno.

Pesimista: El vaso está medio vacío.

Gerente: El vaso es el doble de grande de lo necesario.

Page 128: IO

128

11. TEORIA DE LA DECISION

Comportamiento según los tipos de personalidad y la toma de

decisiones con pura incertidumbre:

Pesimismo, o Conservador (MAXIMIN). Las cosas malas

siempre me suceden a mí.

Optimismo, Agresivo (MAXIMAX). Las cosas buenas siempre

me suceden a mí.

Mínimo arrepentimiento: (Pérdida de Oportunidad de Savage).

Odio las lamentaciones. Debo minimizar las situaciones

deplorables. Mi decisión debe ser tal que valga la pena repetirla.

Sólo debería hacer las cosas que siento que podría repetir con

placer.

Page 129: IO

129

11. TEORIA DE LA DECISION

MAXIMIN:

Basado en la teoría de juegos, se selecciona la acción

encontrando el pago mínimo sobre todos los estados posibles de

la naturaleza y después encontrar el máximo de estos pagos

mínimos.

Es válido cuando se considera que se está compitiendo contra un

oponente racional y malévolo, como puede ser el caso de la

competencia con alguna otra empresa; sin embargo si se

considera que el oponente es la propia naturaleza resulta

demasiado conservador en este contexto ya que la naturaleza no

es un oponente malévolo y el tomador de decisiones no necesita

enfocar su atención solo en el peor pago de cada acción.

En el caso de que la tabla de pagos sea de Costos o pérdidas,

sería un criterio MINMAX

Page 130: IO

130

11. TEORIA DE LA DECISION

, ,k r j i

j i

l a M ax M in l a

1 2

a1 0 2

a2 -1 4

MAXIMIN: Seleccionar la acción ak en la cual se tiene la

ganancia maximin:

Ejemplo: Sea el problema de decisión con tabla de ganancias:

0

-1

Mínimo

Mínimo Máximo

La acción Maximin es a1

Page 131: IO

131

11. TEORIA DE LA DECISION

, ,k r j i

j i

l a M ax M ax l a

1 2

a1 0 2

a2 -1 4

MAXIMAX: Seleccionar la acción ak en la cual se tiene la

ganancia maximax:

Ejemplo: En el problema anterior:

2

4

Máximo

Máximo

Máximo

La acción Maximax es a2

Page 132: IO

132

11. TEORIA DE LA DECISION

, ,P k r j i

j i

L a M in M ax l a

LP 1 2

a1 0 2

a2 1 0

MINIMAX: Construir la tabla de pérdida de oportunidades LP, y

seleccionar la acción ak en la cual se tiene la pérdida de

oportunidades minimax:

Ejemplo: En el problema anterior:

2

1

Máximo

Máximo

Mínimo

La acción Minimax es a2

L 1 2

a1 0 2

a2 -1 4

Page 133: IO

133

11. TEORIA DE LA DECISION

Ejemplo: De acuerdo con sus registros anteriores de ventas, un

vendedor de revistas conoce que la demanda por cierta revista es

solo de 5, 6, 7 u 8 ejemplares. Cada revista cuesta 1.2$ y se vende

por 3.0$.

a. Supongamos que el devuelve las revistas no vendidas al mismo

valor que las adquirió.

b. Si hay un descuento de 0.50 por cada revista devuelta.

Deducir la decisión optimista, pesimista y de mínima pérdida de

oportunidad

Page 134: IO

134

11. TEORIA DE LA DECISION

Ejemplo: Una empresa debe seleccionar una de las 4 máquinas

que dispone para fabricar Q unidades de determinado producto,

del que se sabe que como mínimo se demandarán 10 unidades y

como máximo 40 unidades. Si los costos fijos y variables por

unidad producida de cada máquina son:

Qué máquina utilizará? (utilice los criterios)

Máquina Costo fijo Costo unitario

1 100 5

2 40 12

3 150 3

4 90 8

Page 135: IO

135

11. TEORIA DE LA DECISION

En este caso resulta bastante largo ( e innecesario) construir toda

la matriz de pagos, pues se tienen 4 acciones posibles:

a1: Lanzar la producción en la máquina 1

a2: Lanzar la producción en la máquina 2

a3: Lanzar la producción en la máquina 3

a4: Lanzar la producción en la máquina 4

Y se tienen 31 estados de la naturaleza posibles (cuánto producir)

j: producir j unidades del producto; j=10, 11, …, 40

Así, podríamos utilizar la relajación contínua de estas

variables, que se muestra en la figura siguiente (donde se puede

analizar fácilmente si hay acciones dominadas o establecer la

decisión por los criterios optimista, pesimista o de mínimo

arrepentmento)

Page 136: IO

136

11. TEORIA DE LA DECISION

15 20 25 30 35 40

200

250

300

350

400

450

500

a2

a4

a1

a3

Q

$

Dominadas

por a1

Page 137: IO

13715 20 25 30 35 40

160

180

200

220

240

260

280

300

11. TEORIA DE LA DECISION

a1

a3

Q

$

MAXIMIN

MAXIMAX

Page 138: IO

138

11. TEORIA DE LA DECISION

Decisión tomada con riesgo:

Observe que la categoría de problemas anteriores (es decir, los

problemas con pura incertidumbre) resultan apropiados sólo para

la toma de decisiones en la vida privada. No obstante, la persona

pública (es decir, el gerente) tiene que tener cierto conocimiento

de los estados de la naturaleza, para poder predecir las

probabilidades de cada estado. De lo contrario no podrá tomar

una buena decisión.

Siempre que un decisor tiene cierto conocimiento sobre los

estados de la naturaleza puede asignar una probabilidad subjetiva

a la ocurrencia de cada estado. Y cuando lo hace, el problema se

clasifica como toma de decisiones bajo riesgo.

Page 139: IO

139

11. TEORIA DE LA DECISION

Se tienen fundamentalmente dos criterios:

CRITERIO DE LA MAXIMA VEROSIMILITUD

Este criterio se refiere al estado más probable de la naturaleza. El

criterio de la máxima verosimilitud afirma que se debe identificar

el estado más probable de la naturaleza (Aquel que tiene la

probabilidad más grande), y para ese estado de la naturaleza se

debe encontrar la acción con el máximo pago y por último se

debe elegir esa acción.

Se debe elegir la acción ak para la cual (en el caso de ganancias):

, ,k r j r

j

l a l aM a x r es el estado

mas probable

Page 140: IO

140

11. TEORIA DE LA DECISION

*, ;

k jj

l a E l aM ax P E B I

CRITERIO DE BAYES

Se dispone de una distribución “a priori” de los estados de la

naturaleza, se debe elegir la acción ak en la cual se maximiza el

pago esperado. Es decir:

Es decir se selecciona la acción que proporciona el mejor pago

esperado. Por tanto tiene aplicación si es que la decisión debe

tomarse algunas veces.

También puede aplicarse el criterio sobre la matriz de pérdida de

oportunidades, y en ese caso se debe tomar la acción que

minimice la pérdida esperada de oportunidad.

Page 141: IO

141

11. TEORIA DE LA DECISION

En el ejemplo de la diapositiva 128, si las probabilidades de que

hayan 1%, 3% o 5% de defectuosos del proveedor A son de 80%,

10% y 10%, respectivamente, se tiene lo siguiente:

COSTO ADQUISICION A 300

COSTO ADQUISICION B 302

COSTO X DEFECTUOSO A 0.15

COSTO X DEFECTUOSO B 0.05

TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS

ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5 -302.4

ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5 -302.8

TABLA DE PERDIDA OPORT. 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS

ADQUIRIR A PROVEEDOR A 0 1 3 0.4

ADQUIRIR A PROVEEDOR B 1 0 0 0.8

maxima

ganancia

esperada

minima

pérdida de

oportunidad

esperada

Page 142: IO

142

11. TEORIA DE LA DECISION

*,E l aP E IP

PAGO ESPERADO CON INFORMACION PERFECTA:

PEIP = Pago promedio que puede anticiparse con el conocimiento

de información perfecta acerca del estado de la naturaleza.

VALOR ESPERADO DE LA INFORMACION PERFECTA:

VEIP es la cantidad promedio que pierde por no tener

información perfecta sobre que estado de la naturaleza ocurrirá.

Coincide con la pérdida esperada de oportunidad mínima.

Aunque no existe información 100% confiable este valor puede

ser como una cota de la cantidad de dinero que el decisor estaría

dispuesto a pagar por información.

Page 143: IO

143

11. TEORIA DE LA DECISION

*

*

, ,

, ,

,

,

k jj

k jj

jj

jj

M in E l a l a

M in E l a E l a

M in E l a

M ax E l a

V E IP

P E IP

P E IP

P E IP - P E B I

Para el caso en que los pagos son ganancias:

Para el caso en que los pagos son costos:

V E IP P E B I - P E IP

Page 144: IO

144

11. TEORIA DE LA DECISION

Para el ejemplo anterior:

COSTO ADQUISICION A 300 PEBI -302.4

COSTO ADQUISICION B 302 PEIP -302

COSTO X DEFECTUOSO A 0.15 VEIP 0.4

COSTO X DEFECTUOSO B 0.05

TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS

ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5 -302.4

ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5 -302.8

TABLA DE PERDIDA OPORT. 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS

ADQUIRIR A PROVEEDOR A 0 1 3 0.4

ADQUIRIR A PROVEEDOR B 1 0 0 0.8

probabilidades a priori 80% 10% 10%

maxima

ganancia

esperada

minima

pérdida de

oportunidad

esperada

Page 145: IO

145

11. TEORIA DE LA DECISION

ARBOLES DE DECISION:

• Los árboles de decisión son diagramas donde se presentan, en

forma secuencial, las decisiones y los estados de la naturaleza.

• Tienen dos tipos de nodos:

- Nodos de decisión:

- Nodos de eventos:

• En cada una de las ramas que sales de los nodos evento se

colocan las probabilidades de cada uno

• Para cada nodo evento se calcula un pago esperado

• En cada nodo de decisión se escoge la alternativa con el

mejor pago esperado

Page 146: IO

146

11. TEORIA DE LA DECISION

ARBOLES DE DECISION:

• En resumen, los árboles de decisión proveen un método

efectivo para la toma de decisiones debido a que:

• - claramente plantean el problema para que todas las opciones

sean analizadas.

• - permiten analizar totalmente las posibles consecuencias de

tomar una decisión.

• - proveen un esquema para cuantificar el costo de un resultado

y la probabilidad de que suceda.

• - nos ayuda a realizar las mejores decisiones sobre la base de

la información existente y de las mejores suposiciones.

Page 147: IO

147

11. TEORIA DE LA DECISION

CASO: LITIGIO

TELMOV, un operador de telefonía móvil, ha presentado una querella legal en

contra de FONOMOVIL por prácticas comerciales monopolistas, pidiendo US.$

1Millón por daños. En noviembre, TELMOV recibe una oferta de

FONOMOVIL para arreglar la situación, en la que le ofrecen 350.000 dólares.

El consejo de administración de TELMOV debe decidir si acepta o no la propuesta

o continúa la querella. Los abogados creen que la probabilidad que TELMOV

gane es de 2/3. Sin embargo, señalan que incluso ganando, la probabilidad de

que el juez otorgue el 1 millón pedido es de 50%, ya que también existe la

posibilidad de que otorgue sólo 500.000$. Los abogados han informado que sus

honorarios entre noviembre y junio (mes en que se celebrará la audiencia) serán

de 30.000$ y que los honorarios de representación en el juicio serán de 25.000$.

El consejo de administración de TELMOV cree que hay una probabilidad de 60%

de que FONOMOVIL haga una 2º oferta en junio, antes de empezar la

audiencia. Si esto es así, se estima que la probabilidad de que el arreglo sea por

450.000$ es del 70% y del 30% que sea de 550.000$. Si FONOMOVIL no

presenta esta segunda oferta en junio, TELMOV puede iniciar una negociación,

conformándose, en ese caso, con unos 250.000$.

Page 148: IO

148

11. TEORIA DE LA DECISION

CASO: LITIGIO

Si esta empresa utiliza una estrategia que maximice su utilidad esperada, construya

el árbol de decisión, ¿Cuál debe ser su decisión?, realice un análisis de

sensibilidad

DESARROLLO: Este es un problema de decisiones secuenciales que se puede

resolver con un árbol de decisiones. Acciones y estados de la naturaleza son:

A1: Aceptar la primera oferta en noviembre A2: No aceptar la primera oferta

A3: Ir a juicio A4: iniciar una negociación

A5: Aceptar la segunda oferta en junio A6: No aceptar la segunda

oferta

1: FONOMOVIL no propone una segunda oferta

2: FONOMOVIL propone una segunda oferta

3: TELMOV gana el juicio

4: TELMOV pierde el juicio

5: el juez concede una indemnización de 1 millón de dólares

6: el juez concede una indemnización de 500.000 dólares

7: la segunda oferta es de 450.000 dólares

Page 149: IO

149

11. TEORIA DE LA DECISION

CASO: LITIGIO

INDEMNIZACION GANANDO EL JUICIO

Indemnización pedida $ 1,000,000

Otra Indemnización posible $ 500,000

OFERTA DE FONOMOVIL

Primera Oferta $ 350,000

Segunda Oferta 1 $ 450,000

Segunda Oferta 2 $ 550,000

NEGOCIACION PARA NO IR A JUICIO

Por negociación $ 250,000

HONORARIOS

Período noviembre – junio $ 30,000

durante el juicio: junio - $ 25,000

PROBABILIDADES

Ganar juicio 66.67%

Obtener 1 millón si gana el juicio 50.00%

Segunda oferta en junio 60.00%

Si hay 2º oferta que sea de 450,000 70.00%

Si hay 2º oferta que sea de 550,000 30.00%

Page 150: IO

150

11. TEORIA DE LA DECISIONCASO: LITIGIO (ARBOL)

FALSO 0

$ 350,000 350000

¿Aceptar 1º oferta?

448000

50.0% 0.133333333

$ 1,000,000 945000

66.7% INDEMNIZACION

0 695000

50.0% 0.133333333

$ 500,000 445000

VERDADERO ¿GANA JUICIO?

-$ 25,000 445000

33.3% 0.133333333

0 -55000

40.0% ¿IR A JUICIO?

0 445000

FALSO 0

$ 250,000 220000

VERDADERO Hay una 2º oferta

-$ 30,000 448000

70.0% 0.42

$ 450,000 420000

VERDADERO monto 2º oferta

0 450000

30.0% 0.18

$ 550,000 520000

60.0% ¿Aceptar?

0 450000

50.0% 0

$ 1,000,000 945000

66.7% INDEMNIZACION

0 695000

50.0% 0

$ 500,000 445000

FALSO ¿GANA JUICIO?

-$ 25,000 445000

33.3% 0

0 -55000

litigio

A1

A2

NO

SI

A3

A4

GANA

PIERDE

1 MILLON

500 MIL

A5

A6

450 mil

550 mil

GANA

PIERDE

1 MILLON

500 MIL

Page 151: IO

151

11. TEORIA DE LA DECISIONCASO: LITIGIO (ARBOL)

Los siguientes reportes se generan con la opción DECISION ANALYSIS:

ESTADISTICAS:

STATISTICS

Mean 448000

Minimum -55000

Maximum 945000

Mode 420000

Std Dev 260638.958

Skewness -0.03061386

Kurtosis 3.61341588

¿Aceptar 1º oferta?

448000

50.0% 0.133333333

$ 1,000,000 945000

66.7% INDEMNIZACION

0 695000

50.0% 0.133333333

$ 500,000 445000

VERDADERO ¿GANA JUICIO?

-$ 25,000 445000

33.3% 0.133333333

0 -55000

40.0% ¿IR A JUICIO?

0 445000

VERDADERO Hay una 2º oferta

-$ 30,000 448000

70.0% 0.42

$ 450,000 420000

VERDADERO monto 2º oferta

0 450000

30.0% 0.18

$ 550,000 520000

60.0% ¿Aceptar?

0 450000

A2

NO

SI

A3

GANA

PIERD

E

1 MILLON

500 MIL

A5

450 mil

550 mil

Page 152: IO

152

11. TEORIA DE LA DECISIONCASO: LITIGIO (SENSIBILIDAD)

UTILIDAD ESPERADA DE LA MEJOR POLITICA EN FUNCION

DEL MONTO DE LA PRIMERA OFERTA Y LA PROBABILIDAD DE

GANAR EL JUICIO

2-Way Strategy Region of utilidad esperada

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

200000 250000 300000 350000 400000 450000 500000 550000 600000

primera oferta

pro

bab

ilid

ad

de g

an

ar

juic

io

1 : A1

2 : A2

Page 153: IO

153

11. TEORIA DE LA DECISION

TOMA DE DECISIONES CON INFORMACION EXPERIMENTAL:

• Los árboles de decisión hacen más fácil la inclusión de información nueva

(o a posteriori), obtenida generalmente por un proceso de experimentación

o de muestreo. En ese caso se debe hacer uso de la regla de Bayes para

calcular las probabilidades a posteriori.

• El árbol de decisión es una representación cronológica del proceso de

decisión.

• Se calculan las ganancias esperadas retrocediendo en el árbol,

comenzando desde el extremo derecho.

• En las ramas salientes de los nodos evento se deben asignar las

probabilidades, según la regla de Bayes o la fórmula de la probabilidad

total, según sea el caso.

Page 154: IO

154

11. TEORIA DE LA DECISION

PROBLEMA DE DECISION:

PRIMERA PARTE:

Se tiene el siguiente problema de decisión concerniente a la producción de un

nuevo producto, en el cuál se debe decidir si desarrollar o no el mismo, bajo los

posibles escenarios de poca venta, venta media y mucha venta:

Estados de la naturaleza

Mucha venta Venta media Poca venta

A(0,2) B (0,5) C (0,3)

A1 (desarrollar) 3000 2000 -6000

A2 (no desarrollar) 0 0 0

Las probabilidades de los estados de la naturaleza (en paréntesis) representan los

distintos grados que tiene el criterio del decisor (por ejemplo, un gerente) con

respecto a la ocurrencia de cada estado. Estas evaluaciones subjetivas de la

probabilidad son las probabilidades "a priori".

¿ Bajo el criterio de máxima verosimilitud que se elige ?

¿ Bajo el criterio de Bayes que se elige ?

¿Cuál es el VEIP ?

Page 155: IO

155

11. TEORIA DE LA DECISION

SEGUNDA PARTE:

Sin embargo, el gerente se siente algo reacio a tomar esta decisión sin mas información;

por ello solicita la asistencia de una firma de investigación de mercado. Ahora nos

enfrentamos a una nueva decisión. Es decir, con cuál firma de investigación de mercado

debe consultar su problema de decisión. De esta manera es que el gerente debe tomar una

decisión acerca de cuán "confiable" es la firma consultora. Analizando el desempeño

previo de la consultora se ha desarrollado la siguiente matriz de confiabilidad:

Qué sucedió realmente en el pasado

A B C

Lo que el consultor Ap 0,8 0,1 0,1

predijo Bp 0,1 0,9 0,2

Cp 0,1 0,0 0,7

Donde Ap: el consultor predice buen mercado, Bp: un mercado mediano, Cp: uno malo.

Todas las Firmas de Investigación de Mercado llevan registros (es decir, conservan datos

históricos) del desempeño alcanzado en relación con las predicciones anteriores que

hubieren formulado. Estos registros los ponen a disposición de sus clientes sin cargo

alguno. Para construir una matriz de confiabilidad debe tomar en consideración los

"registros de desempeño" de la Firma de Investigación de Mercado

Page 156: IO

156

11. TEORIA DE LA DECISION

Se conoce que el consultor cobra 500 dólares por la consultoría realizada.

• Identificar las verosimiltudes P(Ap|A), P(Bp|A), P(Cp|A), P(Ap|B),

P(Bp|B), P(Cp|B), P(Ap|C), P(Bp|C), P(Cp|C).

• Hallar las probabilidades a posteriori P(A|Ap), P(A|Bp), P(A|Cp),

P(B|Ap), P(B|Bp), P(B|Cp), P(C|Ap), P(C|Bp), P(C|Cp)

• Dibuje el árbol de decisiones.

Muchos casos de toma de decisiones gerenciales, como el de este

ejemplo, involucran una secuencia de decisiones.

En la siguiente lámina se observa el gráfico correspondiente al árbol de

decisiones óptimas.

Page 157: IO

157

TreePlan (Tryout Version) 0.667

A

2500

3000 2500

0.208

producir B

1500

0 1167 2000 1500

0.24 0.125

Ap C

1 -6500

0 1167 -6000 -6500

no producir

-500

0 -500

0.038

A

2500

3000 2500

0.849

producir B

1500

0 634 2000 1500

0.53 0.113

contratar consultor Bp C

1 -6500

-500 501.1 0 634 -6000 -6500

no producir

-500

0 -500

0.087

A

2500

3000 2500

0

producir B

1500

0 -5717 2000 1500

0.23 0.913

Cp C

1 2 -6500

501.1 0 -500 -6000 -6500

no producir

-500

0 -500

0.2

A

3000

3000 3000

0.5

producir B

2000

0 -200 2000 2000

0.3

no contratarlo C

2 -6000

0 0 -6000 -6000

no producir

0

0 0

Page 158: IO

158

12. Decisiones con muestreo hipergeométrico y binomial

La incorporación de nueva información es beneficiosa para el proceso de toma de

decisiones pues tiene por efecto principal disminuir la incertidumbre involucrada.

Generalmente, la nueva información se obtiene por “muestreo”, proceso por

medio del cual se establecen las reglas que indican como se debe escoger los

elementos de una población para ser objeto de estudio.

Esta nueva información se incorpora al proceso de toma de decisiones en forma

de las probabilidades a posteriori.

El proceso de muestreo mas común involucra las distribuciones hipergeométrica

y binomial.

Page 159: IO

159

12. Decisiones con muestreo hipergeométrico y binomial

El muestreo implica distribuciones hipergeométricas, pues implica situaciones

como la de: “se extrae una muestra de tamaño n de una población de tamaño N

de los cuales k son defectuosos”, entonces si X= número de artículos defectuosos

en la muestra, X tiene distribución hipergeométrica

Pero, si se considera que las muestras son muy pequeñas comparadas con el

tamaño de la población (o si el muestreo se hace con reposición), se puede decir

que X tiene aproximadamente una distribución binomial con parámetros n, p=k/N

k N k

j n jp j

N

n

1n jj

np j p p

j

Page 160: IO

160

Un vendedor está ante la alternativa de comprar o no un lote de 80 bombillos. El tendrá una pérdida de 150 por cada bombillo defectuoso y obtendrá una ganancia de 50 por cada bombillo no defectuoso. La proporción de bombillos defectuosos en los lotes tiene la siguiente función de frecuencia: P( =0.1)=0.4, P( =0.2)=P( =0.3)=0.3. El fabricante permitirá al vendedor examinar cada bombillo por un valor de 35 no reembolsables y rechazar cualquier unidad defectuosa sin costo adicional alguno para el vendedor; cualquier unidad rechazada por el vendedor será sustituida por una unidad buena por el fabricante. En el caso de que el vendedor examine la muestra esta será de tamaño 2. ¿Cuál es la ganancia máxima que espera obtener el vendedor? ¿Cuál es su estrategia óptima?

Resolver utilizando muestreo hipergeométrico

Resolver utilizando muestreo binomial

Que pasaría si el costo de examinar cada bombillo es de 10?

12. Decisiones con muestreo hipergeométrico y binomial

Page 161: IO

161

Con muestreo hipergeométrico:

A PRIORI: P( = z); donde (estado de la naturaleza) es la proporción

de defectuosos en el lote

z 0.1 0.2 0.3

P( = z) 0.4 0.3 0.3

12. Decisiones con muestreo hipergeométrico y binomial

Page 162: IO

162

VEROSIMILITUDES: P(x/ ); x = Número de artículos defectuosos en la muestra

j 0 1 2

P(x=j / = 0.1)

8 72

0 20, 8089

80

2

8 72

1 10,1823

80

2

8

20, 0088

80

2

P(x=j / = 0.2)

16 64

0 20, 6380

80

2

16 64

1 10, 3241

80

2

16 64

2 00, 0380

80

2

P(x=j / = 0.3)

24 56

0 20, 4873

80

2

24 56

1 10, 4253

80

2

24 56

2 00, 0873

80

2

12. Decisiones con muestreo hipergeométrico y binomial

Page 163: IO

163

A POSTERIORI: P( /x)

z 0.1 0.2 0.3

P( = z / x = 0) 0,489374 0,289489 0,221137

P( = z / x = 1) 0,244897 0,326531 0,428571

P( = z / x = 2) 0,0861563 0,276918 0,636925

0.1, 0.2 , 0.3

/; 0.1, 0.2, 0.3

/

w

x j z zP z x j z

x j w w

12. Decisiones con muestreo hipergeométrico y binomial

Page 164: IO

164

PROBABILIDADES TOTALES: P(x = j)

j 0 1 2

P(x = j) 0,66114 0,297721 0,0411392

0.1, 0.2 , 0.3

/ ; 0, 1, 2

w

P x j x j w w j

12. Decisiones con muestreo hipergeométrico y binomial

Page 165: IO

165

0.489374

2295

2400 2295

0.289489

Comprar

695

0 1124.1792 800 695

0.66114 0.221137

x=0

1 -905

0 1124.1792 -800 -905

No comprar

-105

0 -105

0.244897

2495

2600 2495

0.326531

Comprar

895

0 601.120705 1000 895

0.297721 0.428571

Tomar muestra x=1

1 -705

-105 931.000392 0 601.120705 -600 -705

No comprar

-105

0 -105

0.0861563

2695

2800 2695

0.276918

Comprar

1095

0 213.769314 1200 1095

0.0411392 0.636925

x=2

2 1 -505

960 0 213.769314 -400 -505

No comprar

-105

0 -105

0.4

2400

2400 2400

0.3

Comprar

800

0 960 800 800

0.3

No tomar muestra

1 -800

0 960 -800 -800

No comprar

0

0 0

Page 166: IO

166

13. Decisiones con muestreo binomial

USO DE LA DISTRIBUCION BETA:

La distribución Beta ( , ), que tiene por función de densidad:

Donde y son parámetros de forma.

Y se usa comúnmente para medir proporciones. En nuestro caso es una

buena distribución para modelizar la “proporción” de defectuosos en un

lote.

112

1 1 , 0 11

f z z z z

0.2 0.4 0.6 0.8 1

0.5

1

1.5

2

x, 1, 2

0.2 0.4 0.6 0.8 1

0.25

0.5

0.75

1

1.25

1.5

1.75

x, 2, 3

0.2 0.4 0.6 0.8 1

1

2

3

4

x, 2, 10

0.2 0.4 0.6 0.8 1

1

2

3

4

x, 10, 2

Page 167: IO

167

13. Decisiones con muestreo binomial

USO DE LA DISTRIBUCION BETA:

Suponemos que la distribución a priori de los estados de la naturaleza es

Beta ( , )

Y si suponemos además que el número X de resultados que tienen cierta

característica (por ejemplo defectuosos), de entre dos características

posibles, sigue una distribución binomial (n,z), entonces se tiene por la

fórmula de la probabilidad total (caso contínuo) que:

111

0

21 1 1 , 0 1

1

2 1 ! 1 !1

1 1 !

n jj

p X j p X j z f z dz

np X j z z z z dz z

j

n j n j

j n

Page 168: IO

168

13. Decisiones con muestreo binomial

USO DE LA DISTRIBUCION BETA:

Y por el teorema de Bayes (en su forma contínua diapositiva 87):

Así la distribución a posteriori de es: BETA ( +j , +n-j)

Distribución A priori: Beta

+ = Distribución A posteriori Beta

Muestreo Binomial

112

1 1 , 0 11

n jj

p X j z f zf z X j

p X j

nn z z z

j

=

Page 169: IO

169

13. Decisiones con muestreo binomial

Ejemplo: Una empresa tiene una máquina que llena frascos de aceite. Sea la

proporción de frascos mal llenados en un lote de producción. Un lote de

producción consiste en 5000 frascos envasados, y el costo de llenar mal un frasco

es de 4 u.m.. La empresa tiene la opción de contratar un experto que ajuste la

máquina, a un costo de 300 más 2 por cada frasco mal envasado. En 20 lotes

anteriores se observó el siguiente número de defectuosos:

El investigador supone que , sigue una distribución Beta(2,78),

(COMPROBAR SI ESTA SUPOSICION DEL INVESTIGADOR ES VALIDA)

La empresa tiene la posibilidad de examinar tres frascos para saber si ellos están

bien o mal envasados antes de decidir si contratar o no al experto.

25 63 130 279 232 76 71 68 107 388

177 141 73 386 88 138 130 62 14 170

Page 170: IO

170

13. Decisiones con muestreo binomial

¿Es razonable la suposición a priori de que sigue una distribución

Beta(2,78) ?

Sin muestreo, ¿Cuál es la acción que debe tomarse? (contratar o no al

experto)

Con muestreo, ¿Cuál es la acción que debe tomarse?

Page 171: IO

171

13. Decisiones con muestreo binomial

Es razonable la suposición a priori de que sigue una distribución (2,78)

Utilizando la prueba de K-S: (comparar con los resultados de R)

Máximo

p-value = 0.6375,

Si es razonable la

distribución a priori

Caso

Número de

defectuosos Proporción i i/n Fo( i) i/n-Fo( i)

1 14 0.002781263 0.05 0.021 0.0293145

2 25 0.004991033 0.1 0.06 0.0403766

3 62 0.01242886 0.15 0.258 0.107529

4 63 0.012510624 0.2 0.26 0.059919

5 68 0.01364011 0.25 0.293 0.04294

6 71 0.014283648 0.3 0.312 0.011691

7 73 0.01450443 0.35 0.318 0.031897

8 76 0.015238493 0.4 0.339 0.060678

9 88 0.017549448 0.45 0.405 0.045352

10 107 0.021487621 0.5 0.508 0.00834

11 130 0.025918231 0.55 0.61 0.060343

12 130 0.025984703 0.6 0.612 0.011747

13 138 0.027670404 0.65 0.646 0.00392

14 141 0.028105425 0.7 0.655 0.045452

15 170 0.033918451 0.75 0.753 0.002913

16 177 0.035313377 0.8 0.773 0.027339

17 232 0.046322345 0.85 0.886 0.03589

18 279 0.055844949 0.9 0.939 0.039436

19 386 0.077275605 0.95 0.987 0.036744

20 388 0.077596173 1 0.987 0.012948

Page 172: IO

172

13. Decisiones con muestreo binomial

Sin muestreo, ¿Cuál es la acción que debe tomarse?

• Como: E( )=0.025, y la función de pagos es:

• Siendo a1= Contratar el experto, a2= No contratar el experto,

300 10000 1,

20000 2j

jl a

j

Si

S i

Acción Costo esperado

a1 300 + 10000 E( ) = 550

a2 20000 E( ) = 500

óptimo

Page 173: IO

173

13. Decisiones con muestreo binomial

Con muestreo, ¿Cuál es la acción que debe tomarse?• Las probabilidades de X son (evaluadas con probabilidad total):

• Y la distribución a posteriori de es Beta(2+j, 81-j), luego:

• Y la tabla de costos esperados es ahora:

2

83

jE X j

j = 0 j = 1 j = 2 j = 3

P(X = j) 0.927733 0.0695799 0.00264228 0.0000451671

Costo esperado (a posteriori)

Acción j = 0 j = 1 j = 2 j = 3

a1 540.964 661.446 781.928 902.41

a2 481.928 722.892 963.855 1204.82

Mínimo

Page 174: IO

174

13. Decisiones con muestreo binomial

Con muestreo, ¿Cuál es la acción que debe tomarse?

• Si al menos uno de los frascos de la muestra resulta mal envasado, la empresa debe contratar un experto para ajustar la máquina, mientras que si en la muestra no aparecen frascos mal envasados, no se debe contratar experto alguno

Page 175: IO

175

14. Uso de la distribución normal

• Muchas veces se tienen distribuciones normales, o por su defecto puede aproximarse asintóticamente por una distribución normal, por ejemplo si la población es binomial (esto es, solo tiene dos características distinguibles: defectuoso - no defectuoso, a tiempo – con retraso, etc.). Sea Xi la variable:

• Dada la muestra aleatoria: X1, X2, …, Xn, según el teorema del Límite Central, se tiene que:

#i

X

i

d e elem en t os en los cu a les se p r esen t a

la ca r a ct er íst ica 1 en la ob ser v a ción

2

,n

Xn

N

Page 176: IO

176

14. Uso de la distribución normal

• A priori: Si la distribución a priori del estado = de la naturaleza es:

• Y sea y = x1, x2, …, xn una muestra aleatoria de una población con

distribución , así se tiene:

• Verosimilitud:

• A posteriori:

2,N

2

0 0,N

/ 2 2

2

1

12 exp

2

nn n

i

i

p y x

p y p p y pp y

p y p y p d

Page 177: IO

177

14. Uso de la distribución normal

Como: i.i.d.

2,

ix N

/ 2 2

2

1

12 exp

2

nn n

i

i

f y x=

De la distribución a priori: 1 / 2 21

0 02

12 exp

2f =

La dist. A posteriori es: f y f f y f

f yf y f y f d

= =

El numerador:

1 / 2 2 21

0 02 2

1 0

1 12 exp

2 2

nn n

i

i

f y f x=

Como: 2 2 2

1 1

= +

n n

i i

i i

x x x n x

Y además: 2 2 2 2

0 02 2 2 2 1 2

0 0

1 1 1+ = +

nx x

n

Con

2 2

0 0

2 2

0

/ 1 /,

/ 1 /

+

=

+

n x

n; y, 2

2 2

0

1

/ 1 /=

+n

Page 178: IO

178

14. Uso de la distribución normal

Así, la expresión en llaves del numerador de la fórmula de Bayes es:

2 2 2

02 2 2

1 0

1 1 1

2 2 2

n

i

i

x h y=

Siendo: 2 2

02 2 1 21 0

1 1

2 2

n

i

i

h y x x xn

= +

Y de esta manera:1 / 2 21

2

12 exp

2f y f f y=

Donde / 2 1

02 exp

n nf y h y=

Y así: 1 / 2 21

2

12 exp

2

f y ff y

f y= =

Page 179: IO

179

14. Uso de la distribución normal

• Así:

• Es decir, la distribución a posteriori de es:

• Así cuando la distribución a priori del estado de la naturaleza es normal, y el muestreo se realiza sobre una población con

distribución normal, la distribución a posteriori de es normal también.

2 2

0 0 2

2 2 2 2

0 0

/ 1 / 1;

/ 1 / / 1 /

n x

n nC on

2,y N

1 / 2 21

2

12 exp

2p y

Page 180: IO

180

14. Uso de la distribución normalConsideremos una empresa que piensa modernizar la maquinaria que tiene. Actualmente

dispone de la oferta de un fabricante Chino, que ofrece una maquinaria que produce

regularmente cierta cantidad de unidades defectuosas, la tabla siguiente muestra los

costos diarios para los dos tipos de maquinaria. Un trabajo de producción en la

maquinaria consiste en la elaboración de lotes de 1000 unidades, y el costo de una unidad

defectuosa es de 3$. La empresa tiene la opción de contratar una cobertura especial, por

200$ por lote producido, por medio de la cual las unidades defectuosas son reemplazadas.

El fabricante permitió a la empresa realizar una corrida de producción de 20 lotes, con el

siguiente número de unidades defectuosas producidas (suponer normalidad del número de

unidades defectuosas producidas, con la varianza estimada a partir de los datos y la media

desconocida):

La empresa consiguió información de 12 empresas que usaron el mismo tipo de

maquinaria que elaboraron 10 lotes, cada uno de 1000 partes. Sea Xi (i = 1,2, …, 10) el

número de partes defectuosas del i-ésimo lote. Determinar el costo mínimo que espera

conseguir la empresa, considerando que la distribución del número de partes defectuosas

producidas por la máquina ofrecida sigue una distribución normal con media y varianza

25, y que en experiencias de producciones anteriores el número de piezas defectuosas

por lote fueron:

17 40 55 34 26 40 46 35 46 51 44 37 32 23 33 38 19 44 0 69

Page 181: IO

181

14. Uso de la distribución normalMes Defectuosos por lote

1 32 22 37 48 47 52 13 33 46 24

2 41 20 43 43 46 53 24 38 42 34

3 42 28 33 28 46 35 56 31 21 20

4 38 29 28 37 46 28 40 38 29 43

5 56 37 52 21 20 21 36 20 18 15

6 46 43 28 36 31 36 36 28 28 23

7 46 40 61 45 26 42 42 39 43 42

8 37 42 30 27 32 40 34 27 39 20

9 48 27 55 50 42 32 30 29 51 40

10 35 27 29 33 18 35 48 32 30 30

11 30 44 48 25 43 25 46 32 44 33

12 30 34 25 25 44 31 55 45 37 39

Page 182: IO

182

14. Uso de la distribución normal

•Obtener los promedios muestrales de unidades defectuosas por cada mes y

establecer una distribución a priori normal para el promedio de unidades

defectuosas entregadas.

•Establecer la distribución a posteriori de .

•Calcular los costos esperados sin la contratación de la cobertura y con la

contratación de la cobertura.

Page 183: IO

183

15. Tamaño óptimo de la muestra

•El muestreo cumple un importante papel en la toma de decisiones

•Se busca determinar el tamaño óptimo de la muestra N.

•A cada muestra se asocia un valor crítico c, el cual indica que si

hay en la muestra por lo menos c elementos que poseen cierta

característica, se adopta una acción, y otra acción sino. Cuando no

se toma una muestra se considera N= c= 0.

•Para determinar N se calcula el pago esperado y el valor crítico

para un tamaño n de la muestra, luego el costo del muestreo, se le

resta a este pago (si indica ganancia). Este procedimiento se hace

para valores de n = 0, 1, 2, 3, … El tamaño de la muestra que da

lugar al mejor pago esperado total es el tamaño óptimo N buscado.

Page 184: IO

184

15. Tamaño óptimo de la muestra

Ejemplo: El dueño de un almacén está considerando la compra de 50 focos a un costo

unitario de 9$ para venderlos a un precio de 11 $ por unidad; cuando un bombillo sale

defectuoso el dueño pierde lo que pagó por él. Se conoce (por lo sucedido con lotes

anteriores) que el 10% o el 30% de los bombillos es defectuoso con frecuencias de 0.8 y

0.2 respectivamente. Con el fin de adoptar una decisión el dueño puede inspeccionar cada

foco a un costo de 0.30. Se desea conocer cuál es el tamaño de la muestra que maximiza

su ganancia esperada.

Cuando el dueño saca una muestra de tamaño n, hay la posibilidad de obtener 0, 1, …, n

focos defectuosos. En base al resultado decide a1: comprar el lote, a2: no comprarlo.

El número de focos defectuosos tiene aprox. una distribución binomial (n, ) siendo la

proporción de defectuosos en el lote.

Para establecer el tamaño óptimo de la muestra que debe tomar el dueño del almacén se

encuentra el pago esperado con información muestral cuando se toman muestras de

tamaño 2, 3, 4, ..., para lo cual se pueden usar árboles o matrices estocásticas. Finalmente

se tabulan los resultados de los pagos esperados, los valores críticos, los costos del

muestreo y las ganancias resultantes para escoger entre estas la máxima y seleccionar así

el tamaño muestral óptimo.

Page 185: IO

185

n=2

TreePlan (Tryout Version) 0.8686

45

comprar lote 45 45

0 30.546 0.1314

0.746

x=0 -65

1 -65 -65

0 30.546

no comprar lote

0

0 0

0.6316

45

comprar lote 45 45

0 4.476 0.3684

0.228

tomar muestra (n=2) x=1 -65

1 -65 -65

23.807844 0 4.476

no comprar lote

0

0 0

0.3077

45

comprar lote 45 45

0 -31.153 0.6923

0.026

x=2 -65

1 2 -65 -65

23.807844 0 0

no comprar lote

0

0 0

0.8

45

comprar lote 45 45

0 23 0.2

no tomar -65

1 -65 -65

0 23

no comprar lote

0

Page 186: IO

186

15. Tamaño óptimo de la muestra

Tabla de información para hallar el tamaño muestral óptimo

Tamaño de la

muestra

Valor crítico Ganancia

esperada

Costo de la

muestra

Ganancia total

0 0 23.00 0 23.00

1 1 23.30 0.30 23.00

2 2 23.81 0.60 23.21

3 2 24.80 0.90 23.90

4 2 25.65 1.20 24.45

5 2 26.20 1.50 24.70

6 2 26.43 1.80 24.63

7 3 26.66 2.10 24.56

Ganancia esperada Optima

Tamaño óptimo

Page 187: IO

187

16. Procesos de decisión Markovianos

VER DESARROLLO EN CLASE