Proceso estocástico

10
Proceso estocástico El índice de la bolsa es un ejemplo de proceso estocástico de tipo no estacionario (por eso no se puede predecir). En estadística , y específicamente en la teoría de la probabilidad , un proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios constituye un proceso estocástico. Ejemplos Los siguientes son ejemplos dentro del amplio grupo de las series temporales : o Señales de telecomunicación o Señales biomédicas (electrocardiograma, encefalograma, etc.) o Señales sísmicas o El número de manchas solares año tras año o El índice de la bolsa segundo a segundo o La evolución de la población de un municipio año tras año o El tiempo de espera en cola de cada uno de los usuarios que van llegando a una ventanilla o El clima es un gigantesco cúmulo de procesos estocásticos interrelacionados (velocidad del viento, humedad del aire, etc) que evolucionan en el espacio y en el tiempo. o Los procesos estocásticos de orden mayor a uno, como el caso de una serie de tiempo de orden 2 y una correlación de cero con las demás observaciones. En los procesos estocásticos se pueden usar las matrices para definir el número de evento, ya que no necesitan la historia para "predecir", sino de los hechos que están presentes se "predice" un comportamiento cadenas de Markov. 1 Definición matemática Un proceso estocástico se puede definir equivalentemente de dos formas diferentes:

Transcript of Proceso estocástico

Page 1: Proceso estocástico

Proceso estocástico

El índice de la bolsa es un ejemplo de proceso estocástico de tipo no estacionario (por eso no se puede predecir).

En estadística, y específicamente en la teoría de la probabilidad, un proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no.

Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios constituye un proceso estocástico.

Ejemplos

Los siguientes son ejemplos dentro del amplio grupo de las series temporales: o Señales de telecomunicacióno Señales biomédicas (electrocardiograma, encefalograma, etc.)o Señales sísmicaso El número de manchas solares año tras añoo El índice de la bolsa segundo a segundoo La evolución de la población de un municipio año tras añoo El tiempo de espera en cola de cada uno de los usuarios que van llegando a una

ventanillao El clima es un gigantesco cúmulo de procesos estocásticos interrelacionados

(velocidad del viento, humedad del aire, etc) que evolucionan en el espacio y en el tiempo.

o Los procesos estocásticos de orden mayor a uno, como el caso de una serie de tiempo de orden 2 y una correlación de cero con las demás observaciones.

En los procesos estocásticos se pueden usar las matrices para definir el número de evento, ya que no necesitan la historia para "predecir", sino de los hechos que están presentes se "predice" un comportamiento cadenas de Markov.1

Definición matemática

Un proceso estocástico se puede definir equivalentemente de dos formas diferentes:

Como un conjunto de realizaciones temporales y un índice aleatorio que selecciona una de ellas.

Como un conjunto de variables aleatorias indexadas por un índice , dado que , con .

puede ser continuo si es un intervalo (el número de sus valores es ilimitado) o discreto si es numerable (solamente puede asumir determinados valores).

Las variables aleatorias toman valores en un conjunto que se denomina espacio probabilístico.

Page 2: Proceso estocástico

Sea un espacio probabilístico.

En una muestra de tamaño n se observa un suceso compuesto E formado por sucesos elementales ω:

, de manera que .

El suceso compuesto es un subconjunto contenido en el espacio muestral y es un álgebra de Boole B. A cada suceso ω le corresponde un valor de una variable aleatoria V, de manera que V es función de ω:

El dominio de esta función o sea el campo de variabilidad del suceso elemental, es el espacio muestral, y su recorrido, o sea el de la variable aleatoria, es el campo de los números reales. Se llama proceso

aleatorio al valor en de un elemento , donde para todo

es una variable aleatoria del valor en .

Si se observa el suceso ω en un momento t de tiempo:

.

V define así un proceso estocástico.2

Si es una filtración,3 se llama proceso aleatorio adaptado, al valor en , de un elemento

, donde es una variable aleatoria -medible del valor en

. La función se llama la trayectoria asociada al suceso .

Casos especiales

Proceso estacionario : Un proceso es estacionario en sentido estricto si la función de distribución conjunta de cualquier subconjunto de variables es constante respecto a un desplazamiento en el tiempo. Se dice que un proceso es estacionario en sentido amplio (o débilmente estacionario) cuando se verifica que:

1. La media teórica es independiente del tiempo; y2. Las autocovarianzas de orden s sólo vienen afectadas por el lapso de tiempo

transcurrido entre los dos periodos y no dependen del tiempo.

Proceso homogéneo : variables aleatorias independientes e idénticamente distribuidas Proceso de Márkov : Aquellos procesos discretos en que la evolución sólo depende del estado

actual y no de los anteriores. Proceso de Gauss : Proceso continuo en el que toda combinación lineal de variables es una

variable de distribución normal. Proceso de Poisson Proceso de Gauss-Márkov : Son procesos, al mismo tiempo, de Gauss y de Márkov Proceso de Bernoulli Son procesos discretos con una distribución binomial

Cadena de Markov

Page 3: Proceso estocástico

En la teoría de la probabilidad, se conoce como cadena de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907.

Definición formal

En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.

Ley de Chapman-Kolmogórov

La ley de Chapman-Kolmogorov se basa en la ecuación del mismo nombre, a la que llegaron de forma independiente el matemático británico Sydney Chapman y el matemático ruso Andrey Kolmogorov. Enunciada de una forma sencilla dice: "la probabilidad de que dos hechos debidos al azar (y que cumplen unas condiciones determinadas), pasen conjuntamente... es "pequeñísima".

El concepto era conocido de antemano, y se empleaba en la investigación forense. Por ejemplo, se sabe que, en un incendio forestal, si hay un solo foco puede ser accidental, pero si hay dos la probabilidad de que sea provocado es altísima.

Dentro del entorno de entrada de datos de las máquinas de Bull 1 (con tarjetas perforadas tipo Hollerith), se hacía una 2ª entrada de datos leyendo al mismo tiempo las tarjetas perforadas en la 1ª entrada, la máquina pitaba si había alguna diferencia, en caso contrario se daba como correcta, ya que la probabilidad de error pasaba a ser "ínfima".

En ambos ejemplos se está aplicando la ley de Chapman-Kolmogorov, aunque no se explicite.

Ecuación de Chapman-Kolmogorov

En matemáticas, específicamente en teoría de probabilidad y, en particular, la teoría de procesos estocásticos Markovianos, la ecuación de Chapman-Kolmogorov es una identidad sobre las distribuciones de probabilidad conjunta de los diferentes conjuntos de coordenadas en un proceso estocástico.

Supongamos que { fi } es una colección indexada de variables aleatorias, es decir, un proceso estocástico. Hacemos

Page 4: Proceso estocástico

sea la función conjunta de densidad de probabilidad de los valores de las variables aleatorias f1 to fn. Entonces, la ecuación de Chapman-Kolmogorov es

es decir, una marginalización directa sobre la variable estorbo

(Hay que tener en cuenta que todavía no hemos asumido nada sobre el orden temporal (o cualquier otro) de las variables aleatorias, la ecuación anterior se aplica igualmente a la marginalización de cualquiera de ellos).

Aplicación a cadenas de Markov

Cuando el proceso estocástico considerado es Markoviano, la ecuación de Chapman-Kolmogorov es equivalente a una identidad en las densidades de transición. En la formación de la cadena de Markov, se supone que 'i1 < ... < in. Así, debido a la propiedad de Márkov

donde la probabilidad condicional es la probabilidad de transición entre los momentos i > j. Así, la ecuación de Chapman-Kolmogorov toma la forma

Cuando la distribución de probabilidad sobre el espacio de estados de una cadena de Markov es discreta y la cadena de Markov es homogénea, las ecuaciones de Chapman-Kolmogorov se pueden expresar en términos de multiplicación de matrices (posiblemente de dimensión-infinita), así:

donde P(t) es la matriz de transición, es decir, si Xt es el estado del proceso en el momento t, entonces para dos puntos cualesquiera i & j en el espacio de los estados, tenemos

Proceso de Poisson

En estadística y simulación un Proceso de Poisson (también conocido como "Ley de los sucesos raros") llamado así por el matemático Siméon Denis Poisson (1781–1840) es un proceso estocástico de tiempo continuo que consiste en "contar" eventos raros (de ahí el nombre "ley de los eventos raros") que ocurren a lo largo del tiempo.

Definición.

Un proceso Poisson con intensidad (o tasa) es un proceso de contar en tiempo continuo

, donde Nt es una colección de variables aleatorias con las siguientes propiedades:

Page 5: Proceso estocástico

1. .

2. Si entonces .

3. Para todo y , las variables aleatorias

, son independientes

4. Para toda y y tienen la misma distribución.

5. .

6. .

Donde o(h) es una función tal que:

Propiedades

A partir de la definición es posible demostrar que:

Las variables aleatorias Nt tienen distribución Poisson con parámetro λt Si Tk denota el tiempo transcurrido desde el (k-1)-ésimo evento hasta el k-ésimo, entonces Tk es

una variable aleatoria con distribución exponencial y parámetro λ Si Sn denota el tiempo transcurrido desde el inicio del conteo hasta el n-ésimo evento, entonces

Sn tiene distribucion Gamma con parametros (n,λ)

Aplicación en seguros

Una importante aplicación del proceso Poisson se encuentra en la probabilidad de ruina de una compañía aseguradora. El problema fue tratado formalmente por Filip Lundberg en su tesis doctoral en 1903. Posteriormente Crámer desarrolla las ideas de Lundberg y da lugar a lo que hoy se conoce como el Proceso de Ruina o Modelo de Crámer-Lundberg.

Procesos de Poisson no homogéneos

A menudo son más realistas los modelos basados en procesos de Poisson no homogéneos, en los que la tasa de llegadas es una función del parámetro de tiempo, λ(t). Formalmente esto significa que un Proceso de Poisson no homogéneo es un proceso de contar que satisface:

1. N(0) = 0

2. Los incrementos en intervalos ajenos son independientes.

3. P(N(t + h) − N(t) = 1) = λ(t)h + o(h)

4. P(N(t + h) − N(t) > 1) = o(h)

Page 6: Proceso estocástico

Los tres métodos más conocidos de generación de un proceso de Poisson no homogéneo de este tipo se basan en la modificación de la escala de tiempo, en el condicionamiento y en una adaptación del método de rechazo.

Para procesos homogéneos hay una densidad media λ. Eso significa que la media de los sucesos en un intervalo de tiempo t es λ / t.

El tiempo entre dos sucesos de un proceso de Poisson con intensidad media λ es una variable aleatoria de distribución exponencial con parámetro λ.

Aplicaciones

Se pueden modelar muchos fenómenos como un proceso de Poisson. El número de sucesos en un intervalo de tiempo dado es una variable aleatoria de distribución de Poisson donde λ es la media de números de sucesos en este intervalo. El tiempo hasta que ocurre el suceso número k en un Proceso de Poisson de intensidad λ es una variable aleatoria con distribución gamma o (lo mismo) con distribución de Erlang con θ = 1 / λ.

Otras aplicaciones:

La cantidad de clientes que entran a una tienda. El numero de coches que pasan por una autopista. La llegada de personas a una fila de espera. El número de llamadas que llegan a una central telefónica. Particulas emitidas por un material radiactivo.

PROCESO DE NACIMIENTO Y MUERTE

La mayor parte de los modelos elementales de colas suponen que las entradas (llegada de clientes)

y las salidas (clientes que se van) del sistema ocurren de acuerdo al proceso de nacimiento y

muerte. Este importante proceso de teoría de probabilidad tiene aplicaciones en varias áreas. Sin

embrago en el contexto de la teoría de colas, el término nacimiento se refiere a llegada de un nuevo

cliente al sistema de colas y el término muerte se refiere a la salida del cliente servido. El estado del

sistema en el tiempo t (t 0), denotado por N (t), es el número de clientes que hay en el sistema de

colas en el tiempo t. El proceso de nacimiento y muerte describe en términos probabilísticos cómo

cambia N (t) al aumentar t. En general, dice que los nacimientos y muertes individuales ocurren

aleatoriamente, en donde sus tasas medias de ocurrencia dependen del estado actual del sistema.

De manera más precisa, las suposiciones del proceso de nacimiento y muerte son las siguientes:

SUPOSICIÓN 1. Dado N (t) = n, la distribución de probabilidad actual del tiempo que falta para

el próximo nacimiento (llegada) es exponencial con parámetro (n=0,1,2,….).

SUPOSICIÓN 2. Dado N (t) = n, la distribución de probabilidad actual del tiempo que falta para

la próxima muerte (terminación de servicio) es exponencial con parámetro (n=1,2,….).

Page 7: Proceso estocástico

SUPOSICIÓN 3. La variable aleatoria de la suposición 1 (el tiempo que falta hasta el próximo

nacimiento) y la variable aleatoria de la suposición 2 (el tiempo que falta hasta la siguiente

muerte) son mutuamente independientes.

Como consecuencia de las suposiciones 1 y 2, el proceso de nacimiento y muerte es un tipo

especial de cadena de Markov de tiempo continuo. Los modelos de colas que se pueden

representar por una cadena de Markov de tiempo continuo son mucho más manejables

analíticamente que cualquier otro.

Excepto por algunos casos especiales, el análisis del proceso de nacimiento y muerte es

complicado cuando el sistema se encuentra en condición transitoria. Se han obtenido algunos

resultados sobre esta distribución de probabilidad de N (t) pero son muy complicados para

tener un buen uso práctico. Por otro lado, es bastante directo derivar esta distribución después

de que el sistema ha alcanzado la condición de estado estable (en caso de que pueda

alcanzarla). Procesos de nacimiento puro: aplicación a la confiabilidad

Vamos a estudiar sistemas que eventualmente pueden pasar por etapas de "degradación" antes de colapsar definitivamente mediante cadenas de markov, recordemos que esta situación se vio incipientemente en la sección 12. Pero esta vez por razones analíticas consideraremos los estados infinitos para así poder establecer las ecuaciones diferenciales que regulan el sistema, para posteriormente truncar el proceso en un estado finito absorvente, que significará el estado de falla del sistema. Conceptualmente será un proceso de Markov el cual solo podrá avanzar, o quedarse en el estado en que está, en tiempos infinitesimales. El mejor modelo que se adecua a este objetivo es el llamado proceso de nacimiento puro.Proceso de nacimiento PuroConsideremos una sucesión de números positivos {lk}. Se define un proceso de nacimiento puro como un proceso de Markov que satisface los siguientes postulados:

X( t ) denota el valor de estado que puede tomar el proceso en el tiempo t. En lo que respecta a la teoría de confiabilidad el valor de estado denotará el estado de degradación en que incurre el sistema, entendiendo el 0 como el estado óptimo, y los sucesivos estados como etapas de degradación creciente, hasta llegar a un estado N que significará el estado de colapso, no obstante con el objeto de aplicar directamente la teoría de los procesos de nacimiento puro, consideraremos el espacio de estado infinito {0, 1, 2, ...}.El término o1,k(h) y o2,k(h) son "infinitesimales" de orden h, esto es

Un ejemplo de función infinitesimal es o(h) = h2. La función o(h) = h no es infinitesimal de orden h.Además podemos definir

diciendo con esto que el proceso de Markov es estacionario., y estos valores corresponden a los valores

Page 8: Proceso estocástico

del lado izquierdo de (i) y (ii), diciendo con esto además que las funciones infinitesimales no dependen de t.Definamos

Teorema. El proceso de nacimiento puro satisface el siguiente sistema de ecuaciones diferenciales:

La demostración se deja como ejercicio: Se utiliza la ley de la probabilidad completa, la propiedad de Markov y el postulado (iii).La primera ecuación diferencial se puede resolver directamente, y esta es

Las restantes se calculan recurrentemente, y la expresión general está dada por

Tarea: haga las modificaciones pertinentes para detener el proceso en un estado absorvente N.Para asegura la validez del proceso en la resolución de las ecuaciones diferenciales que determinan Pn(t), esto es de que efectivamente

los valores lk deben satisfacer la condición