I DENTIFICACIÓN DE S ISTEMAS Señales y Sistemas Estocásticos 1.

Post on 11-Apr-2015

114 views 0 download

Transcript of I DENTIFICACIÓN DE S ISTEMAS Señales y Sistemas Estocásticos 1.

IDENTIFICACIÓN DE SISTEMAS

Señales y Sistemas Estocásticos

1

/109

CONTENIDO Variables aleatorias Caracterización Estadistica de las variables aleatorias Distribuciones de Probabilidad comunes Función de distribución de probabilidad conjunta Procesos estocásticos Procesos Estacionarios Procesos ergodicos Procesos estocásticos de tiempo discreto Procesos quasi-estacionarios Sistemas lineales discretos con excitación aleatoria Ejemplos

2

Variables aleatorias

3

/109

DEFINICIÓN DE VARIABLE ALEATORIA

Una Variable aleatoria es una función (o regla) x( w) que asocia un número real x con cada resultado en el espacio muestral S de un experimento.

4

/109

EJEMPLO DE UNA VARIABLE ALEATORIA

Supongamos que estámos arrojando una moneda.

El espacio muestral de nuestro experimento es:

Asumamos que tenemos una función x con las siguientes propiedades:1 si

0 si

carax

sello

S = { cara, sello }

x es una variable aleatoria (discreta).

5

/109

FUNCIÓN DENSIDAD DE PROBABILIDAD

Si “x” es una variable aleatoria continua podemos asociar una probabilidad a que su magnitud se encuentre entre dos niveles cualquiera, esto es x1 y x + dx1, como sigue:

px(x1)dx ≡ probabilidad que x1 ≤ x ≤ x1 + dx

px(x1) es la densidad de probabilidad de la variable en x = x1.

6

/109

FUNCIÓN DENSIDAD DE PROBABILIDAD

Ya que pueden ocurrir todos los valores de x:

Y la probabilidad de que x1 ≤ x ≤ x2 se convierte en

1p x dx

2

1

1 2

x

x

P x x x p x dx

7

/109

FUNCIÓN DENSIDAD DE PROBABILIDAD

Ejemplo: la Función densidad de probabilidad “normal”

2

1

1 2

x

x

P x x x p x dx 8

/109

FUNCIÓN DE MASA DE PROBABILIDAD

Si tenemos una variable que sólo tiene valores discretos la probabilidad es descrita en términos de la función de masa de probabilidad

0 ≤ r(x) ≤ 1 for all x

all

1x

r x

i

i

x b

ix a

P a x b r x

9

/109

FUNCIÓN DE DISTRIBUCIÓN DE PROBABILIDAD

Esta función define la probabilidad de que x sea más pequeña o igual a un cierto valor a, entonces:

Pra

P x x a p x dx

función de la distribución acumulativa.

10

Caracterización Estadistica de las variables aleatorias

11

/109

TEORÍA DE LOS MOMENTOS

Momentos respecto al Origen El nesimo momento respecto al origen para una

variable continua x es

Momentos respecto a la Media

nn x x p x dx

1

n

n x x x p x dx

12

/109

VALOR MEDIO O VALOR ESPERADO

El valor esperado es la media o valor promedio de la variable

Si tenemos N muestras de la variable x, es decir el x1, x2, . . ., xN, la estimación de la media es;

1 x E x xp x dx

11

N

ii

x x xN

primer momento respecto al origen

Con N muestras solo es posible hacer una “estimación”13

/109

VALOR CUADRÁTICO MEDIO

El Valor Cuadrático medio es el valor promedio de x2(t),

2 22 x x x p x dx

14

Segundo momento respecto al origen

/109

LA VARIANZA

La Varianza es el valor cuadrático medio de la diferencia con la media

Si tenemos N muestras de la variable x , es decir x1, x2, . . ., xN, la estimación de la varianza es

22x x x p x dx

2 22 1

1

1ˆ ˆ

N

i xi

x x xN

15

Segundo momento respecto a la media

Con N muestras solo es posible hacer una “estimación”

/109

LA VARIANZA

La varianza de una variable aleatoria es en cierta forma una medida del grado de aleatoriedad de la variable, que tanto se aleja de su valor medio

La desigualdad de Chebyshev:

2

2xP x x

16

Varianza alta Varianza baja

Distribuciones de Probabilidad comunes

17

/109

ORIGEN DE LAS FUNCIONES DE DISTRIBUCION Las distribuciones de Probabilidad provienen de

experimentos dónde el resultado está sujeto al azar.

La naturaleza del experimento dicta cuales distribuciones de probabilidad pueden ser apropiadas para modelar los resultados aleatorios resultantes.

Hay muchas distribuciones de uso común:

18

uniforme, exponencial, normal,

beta, gamma, etc.

/109

ESTIMACION PRÁCTICA DE LA DISTRIBUCIÓN DE PROBABILIDAD

Un histograma es una esquema que da la frecuencia relativa de ocurrencia de la variable x en diferentes intervalos de x.

Si hemos ordenado M valores de la variable x en un histograma y digamos Ni de estos caen dentro de un intervalo entre el xi and xi + Δx entonces,

iN

M x

es un estimado de la probabilidad que xi ≤ x ≤ xi + Δx19

/109

ESTIMACION PRÁCTICA DE LA DISTRIBUCIÓN DE PROBABILIDAD

Si la variable “x” es continua y Δx pequeño, es decir Δx → dx, la estimación de la densidad de probabilidad es

ii

Np x

Mdx

20

/109

LA DISTRIBUCIÓN UNIFORME

La distribución de probabilidad continua más fundamental es la distribución uniforme

21

/109

MOMENTOS DE LA DISTRIBUCIÓN UNIFORME

Media

Varianza

2

u b aE x

22

12u

x

b aVar x

22

/109

LA DISTRIBUCIÓN UNIFORME

Un uso importante de la distribución uniforme es la simulación numérica de las distribuciones que pueden ser transformadas a partir de la distribución uniforme.

El generador uniforme de MATLAB es llamado rand

Genera números aleatorios en el intervalo [0,1], escalar, vectorial o arreglos más generales

23

/109

LA DISTRIBUCIÓN UNIFORME

De manera más general, en MATLAB para generar N muestras uniformes en en intervalo [a,b ]

La distribución aproximada se grafica por medio de la función hist(x).

x = a – (b – a)*rand(N,1)

24

/109

LA DISTRIBUCIÓN UNIFORME

Histogramas de simulaciones de distribución uniforme en (0,1) usando MATLAB para dos tamaños de muestra diferentes N.

25

/109

LA FUNCIÓN NORMAL O GAUSSIANA

La Función Normal o Gaussiana de densidad de probabilidad y su funcion de distribución son definidas como:

2

22 21; ,

2

xnp x e

2

221; ,

2

xxnP x e dx

se denota:

2,x xx N

26

/109

LA FUNCIÓN NORMAL O GAUSSIANA

Distribucion normal con E[x] = 5 y distintos valoes de σ

27

/109

LA FUNCIÓN NORMAL O GAUSSIANA

Histogramas de simulaciones de la distribución estándar normal con media 0 y varianza 1 usando 50 bloques para dos medidas de muestreo

N.

28

Función de distribución de probabilidad conjunta

29

/109

FUNCIÓN DE DENSIDAD DE PROBABILIDAD CONJUNTA

Sean dos variables aleatorias, x y y, definidas sobre el espacio muestra de un experimento

Podemos definir una probabilidad conjunta como

Ya que pueden ocurrir todos los valores de x y y:

p(x1,y1)dxdy ≡ probabilidad que x1 ≤ x ≤ x1 + dx

y y1 ≤ y ≤ y1 + dy

, 1p x y dxdy

30

/109

FUNCIÓN DE DENSIDAD DE PROBABILIDAD CONJUNTA

31

La probabilidad de que (x,y) asuman un valor en la región R es igual al volumen de la región sombreada

p(x,y)

/109

PROBABILIDAD CONJUNTA

La probabilidad conjunta para x y y para cualquier conjunto A de dos dimensiones es:

La probabilidad conjunta de dos variables aleatorias x y y se define como

, P ,xyP a b x a y b

32

, ( , )R

P x y R p x y dxdy

/109

FUNCIONES DE DENSIDAD DE PROBABILIDAD MARGINAL

Las funciones de densidad de probabilidad marginal de x y y, estan dadas por:

33

( ) ( , ) for

( ) ( , ) for

x

y

p x p x y dy x

p y f x y dx y

/109

VARIABLES ALEATORIAS INDEPENDIENTES

Dos variables aleatorias continuas x y y se dice que son estadísticamente independientes

si su probabilidad conjunta es igual al producto de sus probabilidades individuales,

Si esta condicion no se satisface para todo (x,y), entonces x y y son dependientes

,xy x yp x y p x p y

34

/109

PROBABILIDAD CONDICIONAL

Dadas dos variables aleatorias x y y, denotamos la probabilidad condicional

1 1

1 11

P x x y yP x x y y

P y y

35

/109

DENSIDAD CONDICIONAL

Usando las funciones de densidad correspondientes

La funcion densidad condicional es

1 1

11 1

,x y

xy

y

y

p x y dxdy

P x x y y

p y dy

1

1

,y

xy

yx y

y

p x y dy

p x y

p y dy

1 0P y y

36

funcion de densidad de probabilidad marginal de y

/109

VARIABLES ALEATORIAS INDEPENDIENTES

Es decir, para dos variables aleatorias continuas x y y estadísticamente independientes

1 1 1P x x y y P x x

37

1 1

1 1

,y y

xy x y

y yx y

y y

p x y dy p x p y dy

p x y

p y dy p y dy

/109

CORRELACION

La correlación Rxy de dos variables aleatorias x y y está definida por

, ,xyR x y E xy xyp x y dxdy

Si E[xy] = 0, se dice que x y y son ortogonales

38

/109

COVARIANCIA

La covarianza está definida como

2 ,xy Cov x y E x x y y x x y y

2 ,xy xyR x y E x E y

39

/109

COVARIANCIA

Cuando x y y son completamente independientes

Si x y y son independientes entonces la esperanza del producto es el producto de las esperanzas

2 0xy

,xyR x y E xy E x E y

40

/109

FUENTES FUENTES Van den Hof Paul M.J., Bombois Xavier, System Identification for Control. Lecture Notes

DISC Course. Delft Center for Systems and Control. Delft University of Technology. March, 2004

Carroll Michael L., Overview of Kalman Filter Theory and Navigation Applications. Course Materials. A week-long course given of in Warner Robins, GA. 23-27 Feb 2004.

Lagunas Miguel Angel, Procesado de Señal. Centro Tecnologic de Telecomunicacions de Catalunya, Barcelona, España. 25 de Octubre de 2004

Novak M., (expanded by N. Isyumov) “Dynamics of Structures”, Lecture Notes - CEE490. The University of Western Ontario - Faculty of Engineering Science Department of Civil And Environmental Engineering. 2003-2004

Olver Peter J. and Shakiban Chehrzad, Applied Mathematics. School of Mathematics, University of Minnesota and Department of Mathematics, University of St. Thomas. 1999.

Perez Tristan, Essentials of Random Variables and Stochastic Processes (Complementary Notes for TMR4240–Marine Control Systems). Centre for Ships and Ocean Structures—CeSOS. Norwegian University of Science and Technology. March 10, 2005

Roberts Clive, Fundamentals of Signals and Systems. University of Birmingham. 2003. Zanini Aníbal, Control Digital y Estocástico. Notas de clase. Ingeniería en Automatización y

Control Industrial, Universidad Nacional de Quilmes. Abril, 2000. Hanson Floyd and Westman Jhon, Applied Stochastic Processes and Control for Jump-

Diffusions: Modeling, Analysis and Computation. Society for Industrial and Applied Mathematics. May 1, 2004.

Belaustegui Goitia Carlos, Orda César, Galarza Cecilia. Procesos Estocásticos, notas de clase. Departamento de Electrónica, FIUBA, Universidad de Buenos Aires. 17 de Marzo 2005

41

/109

ULTIMA DIAPOSITIVA

42