TEORIA DE LAS DECISIONES
UNIDAD 1. CONCEPTOS BASICOS Y DECISIONES BAJO
INCERTIDUMBRE
Generalidades De La Toma De Decisiones Y
Conceptos Básicos
- Tipos de toma de decisiones- Proceso de tomas de decisionesLección 3. Elementos en los modelos de análisisde toma de decisión- Pasos para la toma de decisiones- Criterios de decisión
Decisiones Bajo Incertidumbre Valor
Esperado
- Criterio del valor esperado- Diseño y conducción de la investigación demerado- Valor esperado de la información muestra- Valor esperado con la información perfectaCriterio nivel de aceptación
Decisiones Bajo Incertidumbre Arboles
De Decisión
- Elementos de los arboles de decisión- Selección de alternativa de decisión- Regla de bayes y arboles de decisión- Teoría de la utilidad- Aplicaciones de la teoría de la utilidad
UNIDAD 2. DECISIONES BAJO
RIESGO
Decisiones Bajo Riesgo- Teoría De
Juegos
- Conceptos- Método estrategias dominadas- Método suma cero y punta de silla- Métodos estrategias mixtas- Método grafico
Decisiones Bajo Riesgo- Cadenas De
Markov
- Procesos estocásticos- Cadenas de Markov.- Clasificación de estados en una cadena de
markov- Procesos de decisión markoviano- Problema estático y dinámico
Decisiones Bajo Riesgo -
Programación Meta
- Conceptos fundamentales- Formulación del modelo- Programación con recursos limitados- Objetivos múltiples- Aplicaciones
Decisiones Bajo Riesgo – Simulación
- Definiciones- Tipos de simulación- Métodos de simulación- Aplicaciones de la simulación- Métodos de observaciones estadísticas
Contiene
CapítulosCapítulos
como
como
como
comocomo
como
como