Gram Schmidt

19
ORTOGOALIZACIO GRAM SCHMIDT Introducción: Comenzaremos revisando, en el siguiente diagrama de bloques, los elementos que conforman un sistema de comunicaciones digitales Se dice que los símbolos son generados por una fuente y a la conversión a elementos digitales que podrán ingresar al sistema de Comunicaciones Digitales se le llama codificación de fuente. Existe Codificación de Fuentes Analógicas (por ejemplo PCM o DPCM) y Codificación de Fuentes Discretas (por ejemplo Huffman). El codificador de fuente también se puede encargar de codificar eficientemente los datos binarios, asignando, por ejemplo en Codificación de Fuentes Discretas, más bits a los símbolos menos probables y menos bits a los más probables. El encriptamiento es la modificación de los datos originales, usando claves, para hacer irreconocible la información por parte de usuarios no autorizados. Por su parte, el codificador de canal introducirá bits o símbolos redundantes de una manera controlada, con el fin de fortalecer la información frente al ruido o a la interferencia que pueda producirse, predominantemente en el canal. El multiplexaje puede ser en tiempo, en frecuencia, etc... La modulación permite variar algún parámetro de una portadora en función de los datos que se quieren transmitir. Todos estos elementos conforman el transmisor. Luego de pasar por un canal que, entre otras cosas, filtra, atenúa y agrega ruido, el receptor se encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original. Comencemos con el codificador de Fuente: Si la señal no está digitalizada hay que muestrearla y cuantificarla. Repasemos estos conceptos. Suponga una señal x(t) cuya transformada X(f) tiene la siguiente forma: Esto se define como una señal bandabase (o pasabajo). Por ejemplo las señales de voz para telefonía básica tienen f max =4KHz, el audio en general puede alcanzar f max =20KHz, para las señales de video f max =6MHz.

description

fa

Transcript of Gram Schmidt

Page 1: Gram Schmidt

ORTOGO�ALIZACIO� GRAM SCHMIDT Introducción:

Comenzaremos revisando, en el siguiente diagrama de bloques, los elementos que conforman un

sistema de comunicaciones digitales

Se dice que los símbolos son generados por una fuente y a la conversión a elementos digitales que

podrán ingresar al sistema de Comunicaciones Digitales se le llama codificación de fuente. Existe

Codificación de Fuentes Analógicas (por ejemplo PCM o DPCM) y Codificación de Fuentes Discretas

(por ejemplo Huffman). El codificador de fuente también se puede encargar de codificar eficientemente

los datos binarios, asignando, por ejemplo en Codificación de Fuentes Discretas, más bits a los

símbolos menos probables y menos bits a los más probables. El encriptamiento es la modificación de

los datos originales, usando claves, para hacer irreconocible la información por parte de usuarios no

autorizados. Por su parte, el codificador de canal introducirá bits o símbolos redundantes de una

manera controlada, con el fin de fortalecer la información frente al ruido o a la interferencia que pueda

producirse, predominantemente en el canal. El multiplexaje puede ser en tiempo, en frecuencia, etc...

La modulación permite variar algún parámetro de una portadora en función de los datos que se quieren

transmitir. Todos estos elementos conforman el transmisor.

Luego de pasar por un canal que, entre otras cosas, filtra, atenúa y agrega ruido, el receptor se

encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original.

Comencemos con el codificador de Fuente: Si la señal no está digitalizada hay que muestrearla y

cuantificarla. Repasemos estos conceptos.

Suponga una señal x(t) cuya transformada X(f) tiene la siguiente forma:

Esto se define como una señal bandabase (o pasabajo). Por ejemplo las señales de voz para

telefonía básica tienen fmax=4KHz, el audio en general puede alcanzar fmax=20KHz, para las señales de

video fmax=6MHz.

Page 2: Gram Schmidt

Si, por ejemplo, tomamos muestras periódicas de esta señal cada ts segundos, el espectro X(f) se

repite cada fs Hz. Es decir, si en tiempo se multiplica la señal por un tren de deltas:

)()()( sss nttntxtx −= ∑∞

∞−

δ

Al pasar esto al dominio de la frecuencia, el espectro de la señal muestreada será el siguiente:

El espectro de la señal original se repite cada fs. Si quisiéramos rescatar la señal original, bastaría

utilizar un filtro pasabajo (LPF) ideal pero esto siempre y cuando no exista solapamiento (aliasing).

Para esto se DEBE cumplir que:

fs >=2fmax

Recordemos que esto es el Teorema de Nyquist del muestreo.

En el supuesto de que la señal esté bien muestreada debemos cuantificarla lo cual es,

básicamente, una discretización de las amplitudes; esto se lleva a cabo de la siguiente manera: Se

divide el rango total de voltaje de la señal en M franjas de tamaño a. M es el numero de niveles de

cuantificación y a es llamado el paso del cuantificador. En cada intervalo de tiempo kts se observa en

que rango de voltaje se encuentra la señal y en función de esto se le asigna un nivel de voltaje a la

salida tal y como se ilustra a continuación:

A diferencia del proceso de muestreo, que si está bien realizado nos permite recuperar

perfectamente la señal original, la cuantificación es un proceso no lineal que hace imposible recuperar

perfectamente la señal original muestreada. Se produce un error de reconstrucción denominado ruido

de cuantificación. Por supuesto si el número de niveles de cuantificación (M) crece, la señal

cuantificada se parecerá mucho a la original, lo que se reflejará en una reducción del error o ruido de

cuantificación.

Ahora supongamos que ya hemos pasado por el bloque Codificador de Fuente, es decir ya

tenemos símbolos listos para poder ingresar al Sistema de Comunicaciones Digitales; lo que se debe

hacer es asignar a cada símbolo una forma de onda que pueda ser enviada por un canal. Por ejemplo, si

Page 3: Gram Schmidt

estamos en un caso binario, podemos representar una determinada cadena de ceros y unos con una

sucesión de formas de onda que podrían transmitirse por el canal. Veamos un ejemplo en forma

gráfica:

En el primer caso llamado Non Return to Zero Polar (NRZp) el “1” se representa como un pulso

de altura V que dura todo el intervalo llamado tb o tbit; en cambio el “0” se representa como un pulso de

la misma duración pero negativo.

Esto representaría una transmisión en Banda Base. Otro ejemplo:

En este caso, los bits originales (1 0 1) se representan de forma diferente: La codificación de

arriba es Banda Base NRZ unipolar, la de abajo representa una modulación en frecuencia: para el “1”

se envían ciclos de sinusoide de una determinada frecuencia; para el “0” se envían ciclos de una

sinusoide de otra frecuencia. Esto representaría una señal Pasabanda. Llamemos a la onda genérica que representa cada símbolo si(t); al pasar por el canal

probablemente se contaminará en forma aditiva con ruido blanco gaussiano w(t). El receptor debe, cada

T segundos (tiempo entre símbolo y símbolo (ts) o entre bit y bit (tb)), a partir de la suma de esas dos

señales determinar cual fue el símbolo mi transmitido; en realidad se obtendrá un estimado del mismo.

El objetivo es claro: Determinar el receptor que mejor haga este trabajo.

Page 4: Gram Schmidt

Se ve entonces que a cada mensaje mi se le asocia una forma de onda si(t) que no es mas que una

señal de energía, la cual se puede calcular como:

∫=st

i dttsE

0

2)(

Una idea puede ser representar cada forma de onda si(t) en función de un conjunto finito de bases

ortonormales uj(t). Esto tiene varias ventajas: Se puede visualizar el problema de transmisión de señales

de una manera gráfica y, además, los cálculos involucrados se pueden simplificar. Por otra parte el

problema de detección estará directamente relacionado con la distancia euclidiana en este espacio y

será más fácil llegar a un receptor óptimo.

Cada forma de onda tendría asociada una cierta combinación de coeficientes sij.

)()(1

tustsn

jjiji ∑

=

=

Es decir:

)(....)()()(

.

)(....)()()(

)(....)()()(

2211

22221212

12121111

tustustusts

tustustusts

tustustusts

nmnmmm

nn

nn

+++=

+++=

+++=

Esto es equivalente a la representación de vectores en función de bases ortogonales.Esto

simplificará el diseño y análisis del receptor. Antes de conocer el procedimiento que permitirá tal

representación hagamos un repaso comparativo entre señales y vectores. SEÑALES VECTORES )(),( tytx x, y

Producto Escalar ∫= dttytxtytx )()()(),( x.y

Ortogonalidad 0)()( =∫ dttytx x.y=0

Bases

Ortonormales { })(),...,(),(),( 321 tutututu � {u1, u2, u3,… u�}

Ortonormalidad nmmn dttutu δ=∫ )()( un. um = δ δ δ δ nm

Representación

∑=

=�

nnn tuxtx

1

)()( ∑=

=N

1nnnuxx

Energía/ L2 ∫= dttxtxE )()(

L2= x.x

Supongamos que se tiene un conjunto de funciones ortonormales, es decir, que cumplen, en el

intervalo (0,T) lo siguiente:

==∫

kjsi

kjsidttutu k

T

j0

1)()(

0

Podemos aproximar una señal s(t) a través de este conjunto de funciones ortonormales, de tal

manera que los coeficientes sj se consiguen minimizando la energía de la señal de error respecto a si.

Page 5: Gram Schmidt

min0

2

1

))()(ˆ(

)()(ˆ

==

T

n

jjj

tsts

tusts

2

10

2

10

1 10

22

0

2

0

)()()()(

)()(Re2)()(ˆ)(

∑ ∫∑ ∫

∑ ∑ ∫∫∫

==

= =

−−+

=

−+=−

j

Tj

j

Tjjs

j

j

Tjjj

TT

dttutsdttutssE

dttutsssdttsdttsts

Esto se minimiza cuando

�jdttutssT

jj ....,2,1)()(0

== ∫

Es decir cuando el coeficiente sj se calcula proyectando la señal sobre la base ortonormal uj(t).

Por ejemplo si los vemos como vectores: queremos representar s(t) en función de dos vectores en el

plano; la señal aproximada es la proyección de s(t) en el plano. Observe que el error resulta ortogonal

al plano o espacio de señales

Veamos ahora un procedimiento generalizado de ortogonalización conocido como Gram-

Schmidt.

Procedimiento de ortogonalización de Gram-Schmidt:

Cualquier conjunto de señales de energía puede representarse por un conjunto de bases

ortonormales derivadas de las señales originales a través de un procedimiento conocido como Gram-

Schmidt el cual se describe a continuación. Antes de entrar a explicarlo detalladamente pondremos un

ejemplo sencillo con vectores y bidimensional: Supongamos que tenemos dos señales: s1(t) y s2(t) que

existen en un espacio bidimensional. Para buscar unas posibles bases ortogonales, que las represente,

podemos hacer lo siguiente:

Page 6: Gram Schmidt

1) Fijamos la primera de las bases )t(s/)t(s)t(u 111 = por conveniencia. Es decir la

primera base tomará la forma de s1(t) pero con energía unitaria.

2) Para elegir a u2(t) sabemos que esta debe ser ortogonal a u1(t). Para expresar u2(t)

en función de s1(t) y s2(t), nos apoyaremos en la siguiente figura:

)())().(()(

))())().(()(()(

tan

)().(

)()()(

)(

)().(

)()()(

)(

)()(

1122

11222

1221

111

1

1221

1212222

111

1111

tututsts

tututststu

toPor

tutss

tutstsComo

ts

tstss

tustusts

tss

tusts

−=

=

=

=

+=

=

=

En palabras: se proyecta s2(t) en u1(t) y este número se multiplica por el vector u1(t). Cuando se

le reste este vector a s2 (t) quedará un vector ortogonal a u1(t) pudiendo ser candidato a ser la segunda

base. Así entonces, progresivamente, se construirían las dos funciones bases para este caso.

Pasemos a la idea general:

Supongamos que tenemos un conjunto de señales de energía si(t) (1<i<m) que queremos

representar a través de un conjunto de funciones bases uj (1<j<n), en un intervalo de tiempo (0,T) de la

siguiente manera:

)()(1

tustsn

jjiji ∑

=

= (1)

Si aceptamos que las funciones bases uj forman un conjunto de funciones ortonormales, es decir,

que cumplen, en el intervalo (0,T) lo siguiente:

==∫

kjsi

kjsidttutu k

T

j0

1)()(

0

Generalmente (m<=n); el procedimiento sería el siguiente

Paso 1: Fijamos sij=0 excepto s11.

Page 7: Gram Schmidt

[ ] dttutusdttsTT

∫∫ =

0

112

11

2

0

1 )()()(

De aquí se puede despejar s11

[ ] 11

2

0

1 )( sdttsT

=∫

y así:

u1(t)=s1 (t)/s11

Si ahora se le resta a s2(t) su proyección sobre u1(t) produce una señal que es ortogonal a u1(t) y

que sería candidata a ser la segunda función base u2(t)

Paso 2: Fijamos sij=0 excepto s21 y s22 en la ecuación 1. Tendremos

s2(t)=s21u1(t)+ s22u2(t)

multiplicando por u1(t), e integrando en el intervalo (0,T)

21

0

1222

0

1121

0

12 )()()()()()( sdttutusdttutusdttutsTTT

=+= ∫∫∫

Por lo tanto, como

s2(t)=s21u1(t)+ s22u2(t)

entonces

s2(t)-s21u1(t)= s22u2(t)

Elevando al cuadrado en integrando en el intervalo (0,T)

( )

( ) dttustss

dttutusdttusts

T

TT

2

0

121222

0

22

2

22

2

0

1212

)()(

)()()()(

∫∫

−=

=−

Usando s2(t)=s21u1(t)+ s22u2(t) entonces

u2(t) = [s2(t)-s21u1(t)]/s22

Ya tenemos la segunda función base

Se continua con el mismo procedimiento hasta que se hayan conseguido las m funciones bases.

En general se hace

Page 8: Gram Schmidt

)()()(1

1

tuststusi

jjijiiii ∑

=

−=

Hasta que se consiga un ui(t)=0. Cuando esto ocurra hay que verificar si el sk(t) que está siendo

considerado no es representable en función de las bases ya obtenidas. Si esto ocurre es lógico que la

base buscada resulte nula. Entonces se continúa con la próxima sk(t); si no existen mas sk(t) esto

significaría que se habría conseguido un conjunto completo de funciones ortonormales y el

procedimiento finalizaría.

El procedimiento iterativo puede resumirse en las siguientes ecuaciones:

=

=

=

−=

=

1

1

1

1

1122

11222

1

11

)()(),()(

)()(),()(

)(

)()(),()(

)()(),()()(

)(

)()(

n

mmmnn

n

mmmnn

n

tututsts

tututsts

tu

tututsts

tututststu

ts

tstu

Este procedimiento ofrecerá n (<=m) funciones bases dadas m señales; la igualdad se logra

cuando las señales sk(t) son linealmente independientes. Si el proceso se inicia con otra señal que no

sea s1(t) se obtendrá un conjunto diferente de funciones ortonormales pero igualmente válido.

Ejemplo 1: Supongamos que tenemos dos señales s1(t)=2 para 0,T y s2(t)=4 entre (0,0.5T) y s2(t)=0 entre

(0.5T,T). Encuentre u1(t) y u2(t).

[ ]

)T,0(T

1

s

)t(s)t(u

T2sdt)t(s

11

11

11

2T

0

1

==

==∫

Page 9: Gram Schmidt

[ ]

T

dtT

TdtT

T

dttustss

Tdts

tsdttutss

T

T

T

T

TT

2

)1

(20)1

(24

)()(

2)(

4)()(

5.0

25.0

0

2

0

2121222

5.0

0 11

1

0

1221

∫∫

∫∫

−+

=−=

===

u2(t) = [s2(t)-s21u1(t)]/s22 .

Ejemplo 2 : Sea una codificación NRZ polar donde se definen dos formas de onda como sigue :

Al calcular las bases ortogonales para representar esta transmisión se tiene que:

Definamos en este momento la constelación que no es mas que un gráfico que permite representar

todas las señales sk(t), en función de las bases uj(t). En este caso particular la constelación queda de la

siguiente forma:

Observe que, por ejemplo, el símbolo )()( 11 tutVts b=

Una vez obtenido el conjunto de funciones base

)()(1

tustsn

jjiji ∑

=

=

)(1

)(1

0)(2

)(1

)(1

)(1)(1

)(

)(1

2 tu

tu

tu

btV

ts

ts

tstu

btVts

btVts

−=

=

=

==

Page 10: Gram Schmidt

Hay muchos parámetros que pueden ser calculados en base a los coeficientes de la representación.

Por ejemplo la energía de la señal puede ser calculada como:

2

2

1 1 0 10 1 10

2 )()()()()(

ii

j

k

T �

jijkjikij

T �

j

kkikjij

T

ii

sE

sdttutussdttustusdttsE

=

==== ∑ ∑ ∫ ∑∫ ∑ ∑∫= = == =

Del diagrama de constelación podemos ahora calcular la energía de cada símbolo como la

distancia radial (del origen al símbolo), elevada al cuadrado. En este caso los dos símbolos tienen la

misma energía y esta es igual aE1=E2=V2tb

Ahora definimos la energía promedio como

2

1

2

1212211 EEpEpEEp +=+=

Así quedaría si los símbolos son equiprobables, 2p = 1p =0.5. Lo más importante es que de aquí

podemos obtener la potencia de la señal real transmitida

btSpE .=

Si la transmisión fuese m-aria entonces diríamos

stSpE .=

Ejemplo 3: Supongamos que tenemos 4 señales definidas como sigue:

2t0para4,3,2,1i)2

)1i(t(Cos)t(s i ≤≤=π

−+π=

Esta señal luciría de la siguiente forma al verla en un osciloscopio

200 300 400 500 600 700 800

-1

-0.5

0

0.5

1

Se observa que es una señal modulada en fase ya que la sinusoide tiene amplitud y frecuencia

constantes pero la fase cambia (es una modulación de 4 fases que llamaremos QPSK)

Page 11: Gram Schmidt

Si se realiza el procedimiento Gram-Schmidt resulta

0)t(u)t(u

tSen)t(u

tCos)t(u

43

2

1

==

π−=

π=

Para definir las 4 señales si(t) se tendrán parejas de coeficientes como sigue:

s1=(1,0) s2=(0,1) s3=(-1,0) s4=(0,-1).

Esto se podría dibujar como puntos en un plano o constelación como se muestra a continuación:

Iremos observando que, en la medida que los símbolos se encuentren mas separados en la

constelación, la transmisión será más fuerte frente al ruido.

El ruido (si es de media cero) solo “movería” los puntos de la constelación dificultando su

detección precisa y generando errores en la determinación de los símbolos transmitidos

El radio de los círculos alrededor de cada símbolo dependerá de la intensidad de ruido presente.

Page 12: Gram Schmidt

Supongamos ahora que esta señal es enviada por un canal que suma ruido blanco gaussiano. El

receptor debe tener dos elementos fundamentales: Un primer sistema que convierta cada señal de

entrada en las coordenadas que la especifican. Es decir si a la entrada llega la señal sin contaminar, la

salida de este primer bloque serían las coordenadas que representan, en el espacio de señales

ortogonales, al símbolo que fue transmitido. Una posibilidad es que este primer bloque esté constituido

por un banco de correladores como el que se muestra a continuación:

Este receptor lo que hace es buscar los coeficientes sij que representan el contenido de la señal en

cada base ui(t). Si la señal llega limpia la salida serán las componentes que representan a la señal de

entrada en el espacio de señales generado.

En cambio cuando la señal se contamina, a cada rama ingresa la señal x(t)=s(t)+n(t). Se realiza la

integral del producto de la misma con la base uj(t);la salida será: sij+wj para j=1…,N. La componente

de ruido sobre la base uj(t) será wj

Para el ejemplo de la señal QPSK realizado anteriormente, el receptor sería

Page 13: Gram Schmidt

En el capítulo de detección encontraremos el desarrollo pleno de este concepto

Ejemplo Comunicaciones II. UCAB. Parcial 1. Noviembre 2009

RESUELTO POR LUIS SALAZAR Problema 2: Se tiene una señal bandabase binaria que, para una secuencia de 4 bits

igual a [0 1 0 1], luce como sigue (Voltaje en volts y tiempo en seg.)

a)

2 puntos) Dibuje la(s) base(s) con absoluta precisión. b)

(3 puntos) Compare fortaleza frente al ruido con NRZp de la misma potencia y misma velocidad

Page 14: Gram Schmidt

Para 0 < t < 1 seg

1v para 0 < t < ½ seg

Page 15: Gram Schmidt

-1v para ½ < t < 1 seg

a) Bases:

b)

Nivel DC:

c)

Page 16: Gram Schmidt

NRZp:

�RZp es más fuerte frente al ruido porque la distancia mínima entre los puntos de la constelación

es mayor 3,162 > 2,236

Elementos básicos para una decisión estadística: (Información complementaria)

Una vez que la señal es pasada por el banco de correladores, se necesita un sistema que, en base a

la salida del banco, tome una decisión que minimice la probabilidad media de error por símbolo. A

continuación presentaremos algunas bases y criterios estadísticos que nos permitirán escoger el óptimo.

La idea es la siguiente se tiene primero un conjunto de M mensajes; a cada mensaje se le

representa con una forma de onda de energía finita a los cuales están asociadas ciertas Hipótesis. Luego

se tiene una muestra a la salida del filtro de recepción (prueba).Se debe fijar una regla de decisión y un

criterio de optimización para hacer una hipótesis de la posible señal que fue transmitida.

Por ejemplo: Suponga que existen símbolos si (i=1,2,3,…,M) que pueden ser enviados; estas

serían las hipótesis. A la salida del receptor se tienen valores muestra zi.

El teorema de Bayes establece que:

Page 17: Gram Schmidt

Donde P(si) es la probabilidad de que se transmita 1 de los M símbolos (el símbolo si)

P(zj) es la probabilidad de la prueba.

P(zj/si) es la probabilidad de recibir zj dado que se conoce que se transmitió si.

P(si / zj) es la probabilidad a-posteriori de haber transmitido si sabiendo que se recibió zj

Ejemplo:

Suponga que tenemos en una caja 3 monedas: 1 normal, 1 con dos sellos y 1 con dos caras.

Supongamos que la probabilidad de que se escoja una de las monedas es 1/3.

Se puede, por ejemplo, calcular

P(Moneda1/Salió cara)=P(cara/Moneda1)P(Moneda1)/P(cara)

= P(cara/Moneda1)P(Moneda1)/[P(cara/Moneda1)P(Moneda1)+ P(cara/Moneda2)P(Moneda2)+

P(cara/Moneda3)P(Moneda3)]

=(1/2)(1/3)/[(1/2)(1/3)+0(1/3)+1(1/3)]=(1/6)/(3/6)=1/3

Si se calcula P(Moneda2/Salió cara) esto da 0 y si se calcula P(Moneda3/Salió cara)=2/3

Para salidas continuas esto cambia: en vez de Probabilidades, se relacionan las funciones

densidad de probabilidades:

Donde las funciones p(z) son funciones densidad de probabilidades

Criterios para la toma de decisiones Maximum A Posteriori:MAP: Máxima Probabilidad a Posteriori

Observando la salida del receptor z, se calcula la probabilidad P(si/r=z). Por ejemplo,

supongamos solo dos símbolos posibles:

[ ])z(p

)s(P)s/z(pz/sP 11

1 =

Se elige como símbolo transmitido a s1, si y solo si:

[ ] [ ])s(P)s/z(p)s(P)s/z(p

z/sPz/sP

2211

21

>

>

Page 18: Gram Schmidt

Es decir ve si es mayor la Probabilidad de haber transmitido s1 dado que se recibió z o la

Probabilidad de haber transmitido s2 dado que se recibió z.

Cuando la señal se contamina con ruido blanco gaussiano, las las fdp’s condicionales son

gaussianas centradas en cada uno de los valores si. De esta manera el criterio de decisión se puede

escribir como: 22/2)2sz(

2

22/2)1sz(1 e)s(Pe)s(P

σ−−σ−−>

Gráficamente se presentan las funciones fdp’s condicionales, pesadas por la probabilidad de

ocurrencia de cada símbolo. En este dibujo los símbolos no son equiprobables.

Esto también se representa como

Esto se traduce como: La decisión será la hipótesis H1 si el lado izquierdo es mayor que el

derecho, y será la hipótesis H2 si el lado derecho es superior al izquierdo. También se le llama criterio

de mínimo error porque en promedio ofrece menor probabilidad de error en la decisión.

Calculemos el punto donde las dos curvas se interceptan

)(

)(ln

2

)(

2)(

)(ln)(2

)(

)(ln))()((

2

1

)()(

1

2

21

221

2

1

22221

1

221

222

2/)(2

2/)(1

12

222

221

sP

sP

ss

ssa

sP

sPssssa

sP

sPsasa

esPesPszsz

−+

+=⇒

=−+−

=−−−

=−−−−

σ

σ

σ

σσ

Aquí se observa que el límite se acerca a si cuando P(si) es mas pequeño y el desplazamiento es

mayor mientras el ruido tenga mas potencia. Si son equiprobables

Page 19: Gram Schmidt

2

)ss(a 21 +

=

Criterio de Máxima verosimilitud : Maximum Likelihood. ML. Se basa en maximizar las

fdp’s p(z/si) para todos los si.

Si las probabilidades de los símbolos a transmitir son iguales, los criterios MAP y ML producen

el mismo resultado. Cuando los símbolos pasan por un canal que los contamina con ruido blanco

gaussiano, las fdp’s condicionales son gaussianas centradas en cada uno de los valores si. Si se le toma

el log a la fdp este queda proporcional a -(z-si)2 de forma que maximizar p(z/si) se logra minimizando

el sm que minimiza la distancia euclidiana (z-sm).

( )2N

1kmkkm sz)s,z(D ∑

=

−=

Por esto a esta regla se le conoce como de mínima distancia

Se puede demostrar que los umbrales óptimos de decisión partiendo de los criterios estadísticos

antes mencionados coinciden con los que se obtienen al pasar la señal por un receptor de correlación

como el que se propuso al principio.