ECONOMÍA DE LA INFORMACIÓN TEOREMA DE BAYES Teoría de la decisión – Facultad de Ciencias...

24
ECONOMÍA DE LA INFORMACIÓN TEOREMA DE BAYES oría de la decisión – Facultad de Ciencias Económicas - UBA

Transcript of ECONOMÍA DE LA INFORMACIÓN TEOREMA DE BAYES Teoría de la decisión – Facultad de Ciencias...

  • Diapositiva 1
  • ECONOMA DE LA INFORMACIN TEOREMA DE BAYES Teora de la decisin Facultad de Ciencias Econmicas - UBA
  • Diapositiva 2
  • TEOREMA DE BAYES REVISA LAS CREENCIAS A PRIORI A LA LUZ DE INFORMACIN ADICIONAL Mejora la calidad de mi decisin al reducir mi incertidumbre PROBABILIDADES A PRIORI P(N) INFORMACIN ADICIONAL PROBABILIDADES NUEVAS; A POSTERIORI
  • Diapositiva 3
  • INFORMACIN Es un conocimiento acerca del comportamiento de una variable, para un observador determinado, en un momento y circunstancias determinados.
  • Diapositiva 4
  • Cundo comprar informacin? Cuando estoy en riesgo o incertidumbre Cuando la informacin agregue valor, y adems el valor que agregue sea menor al costo de su compra Cuando sea til y confiable
  • Diapositiva 5
  • De dnde obtener informacin?
  • Diapositiva 6
  • Diapositiva 7
  • Diapositiva 8
  • Diapositiva 9
  • Diapositiva 10
  • Diapositiva 11
  • Diapositiva 12
  • INFORMANTES, CONSULTORAS, CUALQUIER PERSONA QUE EL DECISOR PIENSE QUE PUEDE PROVEERLE INFORMACIN TIL Y CONFIABLE
  • Diapositiva 13
  • Cmo se mide lo CONFIABLE? Un informante nos da MENSAJES (Z), que son pronsticos de lo que l indica que va a pasar en el futuro. A travs de la VEROSIMILITUD medimos la CONFIABILIDAD del informante: Es una mirada hacia el pasado, que nos indica cuntas veces que ocurri algn evento (N) el informante lo haba pronosticado (con su mensaje Z) Suele provenir de estadsticas : Cantidad de pronsticos acertados Cantidad de pronsticos efectuados Es un dato objetivo Ejemplo: En el pasado el informante ha acertado el 90% de los pronsticos N1N2 Z10.90.1 Z20.10.9 Matriz de Verosimilitud
  • Diapositiva 14
  • Hay dos tipos de informantes: INFORMANTE PERFECTO INFORMANTE PERFECTO (ACIERTA EL 100% DE SUS PRONSTICOS) INFORMANTE IMPERFECTO INFORMANTE IMPERFECTO (ACIERTA MENOS DEL 100%)
  • Diapositiva 15
  • Situacin inicial: Sin recurrir a informacin (A PRIORI) MATRIZ A PRIORI P(N1)=P(N2)=V esp s1 s2 Probabilidades a priori
  • Diapositiva 16
  • TEOREMA DE BAYES: APLICACIN PROBABILIDAD DE LOS MENSAJES P(Z): Como todava no compr la informacin, no s qu mensaje me va a dar el informante. Por eso calculo la PROBABILIDAD de que me de cada mensaje. Surge de sumar las conjuntas de cada Z PROBABILIDADES A PRIORI P(N) VEROSIMILITUD P(Z/N) PROBABILIDADES CONJUNTAS P(Z^N) PROBABILIDADES A POSTERIORI P(N/Z) Son subjetivas al decisor antes de comprar la informacin Son las estadsticas, objetivas. Habiendo ocurrido un estado N, cuntas veces acert en el pasado. Resultan de multiplicar las probabilidades a priori por la verosimilitud: P(N)*P(Z/N) Luego de la informacin: Teniendo un mensaje pronosticado Z, qu tan probable es que ocurra en el futuro un estado N. PROBABILIDAD DE MENSAJES P(Z): Como todava el decisor no compr la informacin, no sabe de antemano qu mensaje le va a dar el informante. Para ello, se calcula la probabilidad del mensaje, que surge de sumar todas las probabilidades conjuntas para ese mensaje
  • Diapositiva 17
  • Z1 Z2 P(Z2) 2 2 22 2 2 2) 2) 2) Teorema de Bayes: Clculos
  • Diapositiva 18
  • Tabla de Bayes: Clculos
  • Diapositiva 19
  • Usando la tabla anterior calcularemos el Valor Esperado A POSTERIORI: Valor esperado luego de la compra de la informacin Z1P(N1/Z1)P(N2/Z1)V esp s1 s2 Z2P(N1/Z2)P(N2/Z2)V esp s1 s2 Al igual que como calculamos el Valor Esperado a priori; con la diferencia de que ahora tendremos dos (o ms) matrices, porque al hacer el anlisis todava desconocemos qu mensaje nos dar el informante (todava no compramos la informacin)
  • Diapositiva 20
  • A esos Valores Esperados A POSTERIORI de cada mensaje... Necesariamente deberemos multiplicarlos por la probabilidad de ocurrencia de cada mensaje, para llegar a un nico Valor Esperado A posteriori: V esp Z1*P(z1) V esp Z2*P(z2) V esp Zn*P(Zn) VALOR ESPERADO A POSTERIORI
  • Diapositiva 21
  • EL VALOR DE LA INFORMACIN CUL ES EL MXIMO VALOR A PAGAR POR LA INFORMACIN? Si el Costo (total) de la informacin es menor al mximo valor a pagar, comprar la informacin Valor esperado A POSTERIORI MAYOR > Valor esperado A PRIORI Valor esperado A POSTERIORI -Valor esperado A PRIORI =Mximo valor a pagar
  • Diapositiva 22
  • CUNTO PAGO POR LA INFORMACIN? CONVIENE COMPRARLA? Vesp a POSTERIORI Vesp a PRIORI VALOR ESPERADO A POSTERIORI P(Z1)* Mejor V esp (Z1)+ P(Z2)* Mejor V esp (Z2) +.... P(Zn)* Mejor V esp (Zn) MATRICES A POSTERIORI Para cada Z habr una matriz a posteriori. De cada una calculo el Valor Esperado TABLA DE BAYES P(N)P(Z/N)P(Z^N)P(N/Z) y P(Z) MATRIZ INICIAL P(N). Valor esperado a priori Cmo trabajamos con Bayes:
  • Diapositiva 23
  • LA ENTROPA Adems de interesarnos el VALOR DE LA INFORMACIN que podramos comprar, nos interesa medir cunto nos reduce la incertidumbre. La ENTROPA es una herramienta que nos permite medir la incertidumbre de una variable. Cmo se calcula la reduccin? Al igual que con el valor monetario de la info, compararemos: Entropa a priori vs Entropa a posteriori = Variacin de entropa
  • Diapositiva 24
  • Preguntas Y si el informante me da un nico mensaje? Qu ocurre si estoy en certeza? Qu ocurre en costos? Qu ocurre si realizando el anlisis de bayes en la matriz a priori y en ambas matrices a posteriori se elige la misma alternativa? Si partimos de mxima incertidumbre cualquier mensaje reduce la incertidumbre? No conviene comprar la informacin porque no me sirve para predecir mis estados Si uno parte de la creencia de que algo es cierto, no hay mensaje posible que cambie su visin El valor esperado a posteriori es menor que el a priori No conviene comprar la informacin S, en mxima incertidumbre cualquier mensaje la reduce