Post on 21-Sep-2020
0
REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LAEDUCACIÓN
UNIVERSIDAD GRAN MARISCAL DE AYACUCHO
FACULTAD DE CIENCIAS ECONOMICAS Y SOCIALES
NÚCLEO EL TIGRE – ESTADO ANZOATEGUI
VARIBLES ALEATORIAS
DOCENTE: HAMLET MATA MATA
ESTUDIANTE ORIANNIS ESPINOZA
EL TIGRE / ANZOÀTEGUI
1
La probabilidades, obtiene sus cimientos en ensayos aleatorios o estocásticos
los cuales son efectuados en similares circunstancias y nunca logramos predecir los
resultados. Como por ejemplo: extraer una carta, etc.
“Podemos definir La Probabilidad como la medida de la inseguridad relacionada a
un hecho”. Las variables juegan un papel muy importante en el estudio de las
probabilidades.
Se conoce con el nombre de variable cuantitativa, o simplemente variable, a aquella
magnitud que toma valores mensurables. Las variables se conocen como discretas si
toman valores enteros, como el número de alumnos en un aula o el número de defectos
por metro en un cable eléctrico. Las variables continuas pueden variar de forma
continua, como por ejemplo el peso de una persona o la longitud de una varilla.
El estudio de estos temas nos servirá para saber, que en mas actividades de las que
creemos están presentes todas estas teorías de probabilidades.
El estudio de probabilidad nos permitirá conocer la cantidad de veces en la cual se
repite una variable aleatoria.
2
DESARROLLO
1. VARIABLES ALEATORIAS:
En algunos experimentos, sucede que antes de realizarlos, no podemos decir con
certeza cuál será el resultado, es decir, no podemos asegurar cuál será el valor que
toma la variable asociada al experimento. A este tipo de variables se les conoce como
variables aleatorias.
Una variable es aleatoria si toma diferentes valores como resultado de un
experimento aleatorio. Puede ser discreta o continua. Si puede tomar sólo un número
limitado de valores, entonces es una variable aleatoria discreta. En el otro extremo, si
puede tomar cualquier valor dentro de un intervalo dado, entonces se trata de una
variable aleatoria continua.
Se puede pensar en una variable aleatoria como un valor o una magnitud que
cambia de una presentación a otra, sin seguir una secuencia predecible. Los valores
de una variable aleatoria son los valores numéricos correspondientes a cada posible
resultado de un experimento aleatorio.
La distribución de probabilidad de una variable aleatoria proporciona una
probabilidad para cada valor posible, y estas probabilidades deben sumar 1.
Una variable aleatoria es una función que asocia a cada elemento del espacio
maestral un número real.
EX :
Observación: Sobre un mismo espacio maestral se pueden definir varias variables
aleatorias.
3
Es simplemente un conjunto de números X1, X2, X3,..... Xn, uno para cada estado de
manera que el resultado de un intento no es solamente el estado Ei, sino también el
numero X1 de interés
Ejemplo 2.1:
Si el intento es el lanzamiento de dos dados, una variable aleatoria puede
definirse como la suma de los puntos obtenidos en los dados. Si denotamos esta
variable aleatoria por z, entonces z tendrá el valor 2 para el estado {1,1}, 3 para el
estado {1,2} y así sucesivamente. Observe que a pesar de haber 36 puntos en el
espacio de muestra, solamente hay 11 valores posibles para z, estos son con su
respectiva función de frecuencia (relativa respecto al espacio de muestra):
Variable aleatoria z Función de frecuencia P(z)
2 1/36
3 2/36
4 3/36
5 4/36
6 5/36
7 6/36
8 5/36
9 4/36
10 3/36
11 2/36
12 1/36
Total 36/36
Se puede observar que la suma de las probabilidades individuales en cualquier
función de frecuencia es 1, ello resulta del hecho de que uno y solo uno de los
resultados posible se materializa como resultado de un intento.
4
Pueden obtenerse muchas variables aleatorias en el mismo espacio de muestra.
Si el intento es el lanzamiento de dos dados, podemos definir también la variable
aleatoria z como el numero menor de los dos que aparecen en el lanzamiento. En este
caso z tendría los valores 1, 2, 3, 4, 5, 6. El evento "z = 6 " se presenta solamente en
el punto de muestra (6,6) y tiene probabilidad 1/36. El evento "z = 4" se observa en
los puntos (4,4), (4,5), (5,4), (4,6), (6,4) y tiene una probabilidad de 5/36 y así
sucesivamente. La función de frecuencia completa para esta variable aleatoria es:
Variable aleatoria z Función de frecuencia P(z)
1 11/36
2 9/36
3 7/36
4 5/36
5 3/36
Total 36/36
Generalmente una distribución de frecuencia de una variable aleatoria se
caracteriza por dos estadísticos derivados: su media y su varianza. La descripción
mediante estos números es una función de frecuencia de probabilidad, aunque
incompleta, es valiosa en muchas de las aplicaciones.
Sea xi {1,2,3,......,n} los diversos valores posibles que puede tomar una variable
aleatoria, y sea P(x) la probabilidad de que la variable toma el valor xi, entonces su
media será:
X = xiP(xi)
2 = xi2 P(xi) - X2
5
La media de x es un valor que puede esperarse que tome x en un intento, y la
varianza es una medida de la dispersión esperada de los valores que alcanza x,
alrededor del valor esperado
Al igual que en la aplicación de las formulas para la probabilidad de eventos
compuestos, el espacio de muestra fundamental no necesita estar en forma explícita
para que se utilicen los conceptos de variable aleatoria y de distribución de
probabilidad. La función de frecuencia de la variable aleatoria es entonces un conjunto
de números no negativos.
P(xi), P(xii), P(xiii), ..... P(xn) uno para cada xi, tal que P(xi) = 1
Bajo esta premisa, como sucede en cualquier tratamiento de espacios de
muestras, el numero de valores posible de la variable aleatoria x no tiene que ser finito.
Es por ello que existen funciones de distribución de probabilidad para variables
aleatorias discretas y para variables aleatorias continuas.
DIVISIÓN DE LAS VARIABLES ALEATORIAS
Variable aleatoria discreta
Una variable aleatoria es discreta cuando el conjunto de sus valores posibles es
finito, o bien en el caso de ser infinito es numerable. La distribución de probabilidad
de variables aleatorias discretas se representa indicando los valores de la variable
aleatoria y sus respectivas probabilidades.
Sean x1, x2, x3, ... xn los distintos valores que puede tomar la variable aleatoria.
Y p(x1), p(x2),... p(xn) su probabilidad.
Los pares de valores (xj, p(xj)) constituyen la distribución de probabilidades de la
variable aleatoria.
6
p(x) se denomina función de probabilidad, y debe cumplir con las siguientes
propiedades:
0 < p(xj) < 1 (p(x) es una probabilidad, y por lo tanto debe tomar valores
entre 0 y 1).
å p(xj) = 1 (la suma de probabilidades repartidas entre todos los valores de la
variable debe ser igual a 1).
De la misma manera que calculamos frecuencias acumuladas, podemos acumular
probabilidades, obteniendo la función de distribución de probabilidades:
F(x) = å p(xj)
Esta función representa la probabilidad de que la variable aleatoria sea menor o igual
que un determinado valor:
F(xj) = P (X < xj)
Gráficamente, la función aumenta de "a saltos", ya que entre dos valores consecutivos
de una variable discreta, no puede tomar valores intermedios.
En general se expresa mediante la función de distribución F(x) que es la probabilidad
de que la variable aleatoria x tome un valor menor o igual que x0.
F(x) = P(x < x0)
Variable aleatoria continua
Una variable aleatoria es continua cuando puede tomar cualquier valor dentro
de un intervalo.
7
Ejemplo
Al observar el velocímetro de un automóvil, se nota que al acelerar, la manecilla se
mueve en forma continua, por lo cual, la variable “velocidad del automóvil” puede
tomar valores aproximados a cualquier fracción de km/hr., por lo tanto, es una
variable continua.
La variable “peso de los estudiantes” puede asumir cualquier valor mayor de cero, es
decir, puede tomar un número infinito no numerable de valores, por lo que se trata
de una variable continua.
Una variable continua puede asumir cualquier valor comprendido en algún intervalo
de valores, es decir, no se restringe a valores aislados como lo hace una variable
discreta. Por ejemplo la cantidad de agua que fluye por un río durante un día, es una
variable que puede tomar cualquier valor dentro del intervalo de cero a infinito,
tratándose por lo tanto de una variable continua.
Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores
dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza media
de vida de una población (72,5 años, 7,513 años, 72, 51234 años).
Una función de densidad de probabilidad debe cumplir con las siguientes propiedades:
F(x) > 0 (la función es no negativa para cualquier valor de x, f(x) no es una
probabilidad, y puede valer más de 1).
ò f(x) dx = 1 (la acumulada para todos los valores de la variable suma 1, el área bajo
la curva de la función vale 1).
La función de distribución para una variable aleatoria continua se calcula:
F(a) = P(X < a) = ò f(x) dx
La probabilidad de que la variable esté dentro de un intervalo [a - b] se calcula:
8
P (a< x < b) = F(b) - F(a)
La probabilidad de que la variable tome un valor particular se puede expresar como:
F(c) - F(c) = 0
Esto explica la idea de que para el caso de una variable aleatoria continua no tiene
sentido trabajar con la probabilidad de un valor particular.
Para representar una distribución de probabilidad de variables continuas es necesario
tener en cuenta los siguientes aspectos:
Si las medidas de una magnitud se representa en un Histograma y se van tomando
cada vez más observaciones y se van disminuyendo el tamaño de las clases, dicho
Histograma tiende a una curva que describe el comportamiento de la variable a largo
plazo. Esta función límite recibe el nombre de Función de Densidad f (x).
En este caso, en lugar de trabajar con la probabilidad de valores particulares de la
variable, resulta más apropiado calcular probabilidades asociadas a intervalos. Para
distribuir propiedades se usa una función que mide "concentración" de probabilidades
alrededor de un punto, que se denomina función de densidad de probabilidad (fdp) y
se denota como f(x).
2. ESPERANZA MATEMÁTICA O VALOR ESPERADO
Es el promedio pesado de los resultados de un experimento. Para obtenerlo se
multiplica cada valor que la variable puede tomar por la probabilidad de ese valor y
se suman los productos. El valor esperado es un solo número.
Ejemplo
9
Valores
Posibles
Probabilid
ad
Valor
Esperado
1 0.0476 0.0476
2 0.0952 0.1904
3 0.1429 0.4287
4 0.1905 0.7620
5 0.2381 1.1905
6 0.2857 1.7142
21 1 4.3334
En estadística el valor esperado o esperanza matemática (o simplemente esperanza)
de una variable aleatoria es la suma de la probabilidad de cada suceso
multiplicado por su valor. Por ejemplo en un juego de azar el valor esperado es el
medio beneficio. Si todos los sucesos son de igual probabilidad la esperanza es la
media aritmética.
Si una variable aleatoria X asume los valores: X1,X2,.....,Xn con sus correspondientes
probabilidades P(X1) P(X2)......P(Xn), se define como valor esperado o esperanza
matemática:
Un contratista hace las siguientes estimaciones: Determine el número de días.
Probabilidad Tiempo Determinado
0.30 10 días
0.20 15 días
0.50 22 días
E Xi P X X P X X P X Xn n( ) ( ) ( ) .... ( ) 1 1 2 2
10
Valor esperado de una variable aleatoria.
El valor esperado es una idea fundamental en el estudio de las distribuciones
de probabilidad.
Para obtener el valor esperado de una variable aleatoria discreta, se multiplica
cada valor que la variable puede tomar por la probabilidad de presentación de ese
valor y luego se suman esos productos. Es un promedio pesado de los resultados que
se esperan en el futuro. El valor esperado pesa cada resultado posible con respecto a
la frecuencia con que se espera se que presente. En consecuencia, las presentaciones
más comunes tienen asignadas un peso mayor que las menos comunes.
El valor esperado también puede ser obtenido a partir de estimaciones
subjetivas. En ese caso, el valor esperado no es más que la representación de las
convicciones personales acerca del resultado posible.
En muchas situaciones, encontraremos que es más conveniente, en términos
de los cálculos que se deben hacer, representar la distribución de probabilidad de una
variable aleatoria de una manera algebraica. Al hacer esto, podemos llevar a cabo
cálculos de probabilidad mediante la sustitución de valores numéricos directamente
en una fórmula algebraica.
El valor esperado de una variable aleatoria discreta es un promedio pesado del
valor de cada resultado posible multiplicado por la probabilidad de dicho resultado.
E X P P P
E X dias
( ) ( . ) ( . ) ( . )
( )
0 30 10 0 20 15 0 50 22
3 3 11 17
11
Aunque existen muchos valores diferentes posibles que la variable aleatoria puede
tomar, el valor esperado es sólo un número.
Cuando hablamos de la función de probabilidad, estamos evaluando la posibilidad de
que una variable aleatoria tome un valor específico o bien al hablar de una función de
distribución nos referimos al hecho de que una variable aleatoria tomé algún valor
dentro de un intervalo (donde una variable aleatoria es una variable continua) pero
estos conceptos no contemplan el hecho de que se requiera conocer la información de
un valor esperado, valor medio o esperanza matemática de una variable aleatoria.
3. PRUEBAS PARAMETRICAS. PROPIEADADES Y EJEMPLOS
Pruebas parametricas:
Consisten en que la mayoría de las pruebas de hipótesis que han analizado
han hecho inferencia respecto a los parámetros de la población, como la media y la
porción.
Estas pruebas parametricas han utilizado la estadística parametrica de muestra
que provinieron la población que estaba probando. Para formular estas pruebas
hicimos suposiciones restrictivas sobre las poblaciones de las que extraemos
nuestras muestras.
12
4. PRUEBAS NOPARAMETRICAS.
Pruebas no paramétricas
Cuando no se puede pensar la pertenencia de una muestra a una población de
distribución conocida es el momento de emplear técnicas no paramétricas.
En muchas ocasiones, aún no conociendo la distribución poblacional, se puede,
en virtud del Teorema Central del Límite, asumir que la distribución es normal si el
tamaño maestral es suficientemente grande; pero cuando no es este el caso,
reiteradamente resultan pertinentes los métodos no paramétricos.
Estadística no paramétrica
La Estadística no paramétrica permite desplegar modelos estadísticos para
ejecutar ratificaciones de todo tipo de magnitud biológica, tanto cualitativa como
cuantitativa. El primer modelo es el de la Binomial, aplicable al caso de una sola
muestra, y que puede ser acercado con el de Gauss cuando las muestras sean grandes.
El segundo modelo de rachas en una muestra usa para validar la aleatoriedad en el
orden o secuencia de extracción de modelos de una población.
A continuación se desarrollan modelos para contrastar dos muestras entre sí.
Cuando los ejemplares sean igualadas se tienen dos modelos: el del Signo y el de
13
Wilcoxon. Si bien este último es más poderoso que el otro porque usa mayor cantidad
de información, el del Signo se presenta por su uso propagado en Estudio Clínicos y
Farmacia. Cuando las muestras son autónomos, se presenta el modelo paramétrico
más poderoso, el modelo de la U de Mann-Whitney, casi tanto como su equivalente
paramétrico: el modelo Student para dos muestras independientes.
Propiedades
Modelo del Signo
Esta prueba se basa en los signos de las discrepancias observadas entre valores
apareados. La independencia se protege si la unidad de muestreo es el resultado de
comparar a las parejas entre sí, en lugar de usar las observaciones individuales. Cada
pareja de datos debe ser independiente de las otras, y la forma de lograrlo fácilmente
es seleccionada al azar al elegir los componentes de las muestras. Una primacía es que
puede usarse cuando las observaciones pareadas están simplemente ordenadas por
rangos. No es necesaria la homogeneidad de las varianzas, ni que las muestras sean
extraídas de la misma población. Su desventaja es que elimina mucha información
pues la reduce a una dicotomía. Otras ventajas son: la facilidad de aplicación, la
reducción de tiempo y costo para el investigador. Los supuestos básicos para aplicar
este modelo son:
- La variable subyacente en las determinaciones es continua;
- los pares de muestras son independientes;
- la hipótesis nula es: los signos se distribuyen al azar alrededor de la mediana.
Este último implica que las diferencias deben ser tales que aproximadamente
la mitad de ellas sean positivas y la otra mitad negativas. Por supuesto que puede
14
haber ligas, esto es, parejas de muestras cuya diferencia sea nula. Para el modelo solo
interesan las otras. Se toma en cuenta el número n de diferencias halladas (n + :
cantidad de signos positivos y n - : número de negativos).
Donde n ++ n - = n. Este valor puede ser a lo sumo igual al número total N de parejas
testeadas.
O sea, N = n + e (donde e es la cantidad de empates o ligas encontrados). En
resumen, el procedimiento para emplear este modelo sigue los pasos:
Paso 1) Se efectúan las parejas de mediciones y se determina el signo de diferencia.
Paso 2) Se cuenta el número de (+) y el de (-) hallados y así se calculan: n ++
n - = n.
Paso 3) Se elige al menor de ellos como x = n mínimo para efectuar el test.
Paso 4) Dependiendo del tamaño de la muestra se siguen dos caminos:
( I )Muestras pequeñas
( n < 25 ): se usa la Tabla 8 del Anexo de Tablas Estadísticas para determinar el valor
crítico en un ensayo de una sola cola Bx = B
. Para un ensayo de dos colas se duplica el valor de tablas Bx = 2 B
. El estadígrafo comparativo es la probabilidad para la frecuencia menor obtenida, o
sea con el valor x (frecuencia menor) se saca de tablas el valor B y se calcula Bx según
si es de una o dos colas. Luego si Bx < se rechaza Ho.
(II)Muestras grandes
( n > 25 ): se usa la aproximación normal a la binomial, para determinar Z en forma
análoga a las vistas antes, con la debida corrección por continuidad. Como la (Ho)
15
supone una igualdad entre la cantidad de positivos y negativos, se toma p = q = 0,5 y
así:
( r ± 0,5 ) -
r ( r ± 0,5 ) np
Z = = = [ (2 r ± 1 ) n ] / n versus Z
r .p.q.n
Ejemplo 1)
Muestras pequeñas: en un laboratorio se desea testear una nueva técnica. Para ello se
toman las determinaciones hechas en el día con la manera usual (método viejo) y se
las replica con el nuevo procedimiento, obteniéndose los valores:
Paciente Nuevo Viejo Signo
1 2,3 2,2 +
2 2,6 2,5 + N = 17
3 3,5 3,4 +
4 2,9 2,9 0 (+) = 11 = n+
5 2,5 2,4 +
6 3,3 3,1 + ( - ) = 3 = n-
7 1,7 1,8 -
8 2,8 2,8 0 ( 0 ) = 3
9 2,9 2,9 0
10 3,1 3,2 -
11 2,4 2,3 + Entonces
12 3,2 3,3 -
13 2,5 2,4 + n = 14
14 2,6 2,5 +
15 3,3 3,2 + x = 3
16
16 2,9 2,8 +
17 2,2 2,1 +
Del total de pruebas N = 17 solo interesan los n = 14 que no fueron empates (e
= 3). Con los 14 casos restantes se tienen: n + = 11 signos positivos y n - = 3
negativos; por lo tanto, se toma el valor mínimo como x < 3. Entrando a la Tabla 8
con n = 14 y x = 3, resulta un valor de probabilidad binomial: Bx = 0,029 que es menor
que el nivel de significación = 0,05, por lo que se debe rechazar la Ho. Esto
es, se tiene evidencia científica que ambos métodos no son equivalentes para las
mediciones realizadas. Por la cantidad de signos + parece que el método nuevo arroja
valores más grandes que el viejo. Para continuar, es conveniente obtener un suero
control y revisar la calibración de los métodos.
Ejemplo 2) Muestras grandes: el centro de estudiantes de cierta Facultad piensa que
una de sus autoridades debe ser removida de su cargo. Para ello planifica una campaña
de pegatinas y un congreso estudiantil ad-hoc, donde sus discípulos harán comentarios
significativos para convencer a los presentes. Uno del grupo, que cursó Bioestadística,
duda de la firmeza del plan y decide buscar evidencia científica para decidir si tuvo
efecto la asamblea. Prepara un sondeo a los asistentes para detectar los cambios "antes
y después" de la reunión, y elige al azar a 100 de ellos para encuestarlos.
Los casos que interesan son los 30 + 42 = 72 casos de cambios de opinión. Si
la asamblea no afectara a sus asistentes, cerca de la mitad de los que cambiaron de
opinión hubieran pasado de SÍ a NO y la otra mitad de NO a SÍ. Esto es: Ho: Se
esperan 36 cambios porque la asamblea no tuvo fruto. Los casos que atañen son los
que cambiaron de opinión n = 30 + 42 = 72.
Antes
r = n p = 72 (0,5) = 36
17
SI NO r = .p.qn = 72 (0,5)0,5 = 4,243
SI 9 42 r = 42 cambiaron de opinión de Si a NO
Después
NO 30 19 Z = [(42 0,5) 2 72]/ 72 = 1,3
Notar que si se hubiera tomado r = 30, el resultado sería el mismo: Z = 1,3 (no
significativo).
Como cae en la zona de aceptación con un nivel del 95% (Z = 1,96), no se puede
rechazar la hipótesis nula. La conclusión es que a pesar de los 42 casos que pasaron
de NO a SÍ no hay evidencia significativa como para pensar que la asamblea fue útil
a los fines estudiantiles.
Ejemplo 3) Muestras grandes:
Un farmacéutico que ha realizado transformaciones en el aspecto de su negocio,
realiza una encuesta entre sus clientes habituales para conocer su opinión respecto a
los cambios. Descarta a los que no emitieron opinión y a los que no tenían un
conocimiento previo de su empresa. Elige al azar 60 entre los remanentes. Encontró
que 48 de ellos emitieron una opinión que considera positiva y 12negativas. Ver si
obtuvo pruebas de que la imagen de su empresa ha mejorado.
(Ho) p = q = 0,5 las opiniones emitidas se deben al azar y no hay mejora de imagen.
De los datos surgen: r = n p = 60 (0,5) = 30 ; r = .p.qn = 3,873 y r = 48
Z = [( r ± 0,5 ) -
r] / r
Reemplazando con los de opinión positiva es: Z = [(48 - 0,5) 30)] / 3,873 = 4,52***
Reemplazando con los de opinión negativa es: Z = [(12 + 0,5) 30)] / 3,873 = 4,52***
Y también se puede calcular con la otra fórmula: Z = [2 (48 0,5) 60] / 60 = 4,52***
18
Por lo tanto, se rechaza la Ho de que el cambio de opinión se debe al azar, pues tiene
evidencia altamente significativa que justifica su esfuerzo por mejorar la imagen de
su farmacia.
5. DISTRIBUCIÓN DE PROBABILIDADES
Las distribuciones de probabilidad están relacionadas con las distribuciones de
frecuencias. Una distribución de frecuencias teórica es una distribución de
probabilidades que describe la forma en que se espera que varíen los resultados.
Debido a que estas distribuciones tratan sobre expectativas de que algo suceda,
resultan ser modelos útiles para hacer inferencias y para tomar decisiones en
condiciones de incertidumbre.
Una distribución de frecuencias es un listado de las frecuencias observadas de
todos los resultados de un experimento que se presentaron realmente cuando se
efectuó el experimento, mientras que una distribución de probabilidad es un listado
de las probabilidades de todos los posibles resultados que podrían obtenerse si el
experimento se lleva a cabo.
Las distribuciones de probabilidad pueden basarse en consideraciones teóricas
o en una estimación subjetiva de la posibilidad. Se pueden basar también en la
experiencia.
Tipos de distribuciones de probabilidad.
Las distribuciones de probabilidad se clasifican como continuas y discretas.
En la distribución de probabilidad discreta está permitido tomar sólo un número
limitado de valores.
En una distribución de probabilidad continua, la variable que se está
considerando puede tomar cualquier valor dentro de un intervalo dado.
19
Las distribuciones continuas son una forma conveniente de presentar
distribuciones discretas que tienen muchos resultados posibles, todos muy cercanos
entre sí.
Una distribución probabilistica es una distribución de frecuencias relativas
respecto a resultados de espacio muestral; señala la proporción de veces en que la
variable aleatoria tiende a adoptar diversos valores.
Es un modelo teórico que describe la forma en que varían los resultados de un
experimento aleatorio. Lista de los resultados de un experimento con las
probabilidades que se esperarían ver asociadas con cada resultado.
En estadística matemática la distribución de probabilidad F(x) es una función
de la probabilidad que representa los resultados que se van obteniendo en un
experimento aleatorio.
X P(X)
5 0.11
4 0.09
8 0.18
9 0.20
10 0.23
7 0.16
43 0.97
Para medir el nivel de conocimiento de los estudiantes que ingresa al colegio,
se aplico un examen a una muestra de 500 estudiantes. Las calificaciones obtenidas
se muestran en la siguiente tabla:
20
Xi 3 4 5 6 7 8 9 10
fi 30 45 60 110 100 70 5 35
6. DISTRIBUCIONES DISCRETAS
Son funciones de probabilidad en las cuales la variable aleatoria toma valores
discretos, entre las más importantes tenemos: La Distribución de Bernoulli o
Distribución Binomial, la Distribución Hipergeométrica, Distribución de Poisson
Diremos que una variable aleatoria X es discreta si puede tomar un numero finito de
valores o infinito numerable.
Características de una Variable Aleatoria Discreta
Sea X una variable aleatoria. discreta con función puntual de probabilidad
ii XXPXp llamamos esperanza matemática de la v.a. X a:
n
i
ii XPXXE1
.)(
Observación: La existencia de E(X) depende de la convergencia de la serie cuando X
toma un nº infinito numerable de valores.
Propiedades de la esperanza:
gener alen
YE
XE
Y
XE
YEXEYXE
YEXEYXE
YEXEYXE
bXaEbaXEXECC XE
CCEcteCSi
.6
...5
.4
.3
)(.)(.2
)(.1
Sea X una v.a discreta con función puntual de probabilidad ii XXPXp .
Llamamos varianza de la v.a. X a:
21
22 XEXVar
siendo )(XE
Propiedades:
22 )(XEXEXVar
Demostración:
22
22222222
)(
2.22)(
XEXVar
XEEXEXEXXEXEXVar
Propiedades:
)()()3
.)(.)2
0)()12
2
YVarXVarYXVar
bVarXVarabaXVarXVarCC XVar
CVarc teCSi
ct e
Definición: Llamamos desviación típica de la v.a. X a la raíz cuadrada positiva de la varianza
XVar
DISTRIBUCIÓN DISCRETA DE BERNOULLI
Llamaremos experimento de Bernouilli a un experimento con dos resultados
posibles mutuamente excluyentes, que denominaremos éxito y fracaso, susceptible de
ser repetido indefinidamente bajo las siguientes condiciones:
a) Todas las realizaciones del experimento son independientes entre sí
b) La probabilidad de obtener éxito en cada realización se mantiene constante.
La distribución de Bernuilli es el modelo que sigue un experimento que se realiza
una sola vez y que puede tener dos soluciones: acierto o fracaso:
Cuando es acierto la variable toma el valor 1
Cuando es fracaso la variable toma el valor 0
22
Ejemplo:
Probabilidad de ser admitido en la universidad:
Probabilidad de ser admitido: p = 0,25
Probabilidad de no ser admitido: q = 0,75
p + q = 0,25 + 0,75 = 1
Ejemplo :
Probabilidad de acertar una quiniela:
Probabilidad de acertar: p = 0,00001
Probabilidad de no acertar: q = 0,99999
p + q = 0,00001 + 0,99999 = 1
DISTRIBUCION MULTINOMIAL.
Si los sucesos E1, E2, ....., Ek pueden ocurrir con frecuencias P1, P2,.....,Pk
respectivamente, entonces la probabilidad, entonces la probabilidad de E1, E2, .....,
Ek ocurran hasta X1, X2, ....., Xk veces, respectivamente es:
Donde:
N
X X XP P P
k
x x
k
x!
! !... !.....
1 2
1
1
2
2 1
X X X Nk1 2 ...
23
Esta distribución, que es una generalización de la distribución binomial, se llama
distribución multinomial, ya que la fórmula es el término general en el desarrollo
multinomial:
DISTRIBUCIÓN UNIFORME
En estadística la distribución uniforme es una distribución de probabilidad cuyos
valores tienen la misma probabilidad.
Caso discreto
Su función de probabilidad es en el caso discreto con valores posibles
p(xi) = 1 / n.
Su función de distribución es en el caso discreto
Su media estadística es
Caso continuo
Su función de probabilidad en el caso continuo entre los valores a y b
La función de densidad en el caso continuo entre a y b es
( ..... )P P Pk
N
1 2
24
Su media estadística es (a + b) / 2 y su varianza (b - a)2 / 12.
Ejemplos
Para un dado perfecto todos los resultados tienen la misma probabilidad 1 / 6.
DISTRIBUCION BINOMIAL.
Cuando un ensayo de un experimento solo puede conducir solo a uno de dos
resultados mutuamente exclusivos, tales como vivo o muerto, varón o mujer, casado
o soltero, sano o enfermo, inteligente o tonto, etc.
El ensayo se conoce como: “Ensayo de Bernoulli”, en honor del matemático
suizo “Jame Bernoulli”.
La distribución binomial es una distribución de probabilidad discreta, aplicable cada
vez que se suponga que un proceso de muestreo conforma un proceso de Benoulli. Es
decir que ocurra un proceso de muestreo en el cual:
1. - Hay dos resultados posibles mutuamente excluyentes en cada ensayo u
observación.
2. - La serie de ensayos u observaciones constituyen eventos independientes.
3. - La probabilidad de éxito permanece constante de ensayo a ensayo, es decir el
proceso es estacionario.
Para aplicar esta distribución al calculo de la probabilidad de obtener un numero dado
de éxitos en una serie de experimentos en un proceso de Bermnoulli, se requieren tres
25
valores: el numero designado de éxitos (m), el numero de ensayos y observaciones
(n); y la probabilidad de éxito en cada ensayo (p). Entonces la probabilidad de que
ocurran m éxitos en un experimento de n ensayos es:
P (x = m) = nCm Pm(1-P)n-m
Siendo nCm el numero total de combinaciones posibles de m elementos en un con
junto de n elementos. En otras palabras P(x = m) = m!/{m!(n-m)!}pm(1-p)n-m
Suponemos que repetimos un experimento un numero n de veces de manera
independiente. Si definimos:
X= “nº de éxitos obtenidos en los n experimentos”
Diremos que X sigue una distribución Binomial de parámetros.
éxitodeladpr obabilidp
er imentosdenn
expº
pnBX ,
rnr qpr
nrXP
.. Función puntual de probabilidad de la
distribución Binomial
Es función puntual de probabilidad:
11..1
nnn
r
rnr qpqpr
n
X la podemos considerar como suma de n variables Xi que siguen una
distribución de Bernouilli.
qpnqpXiVarXiVarXVar
pnpXiEXiEXE
n
i
n
i
n
i
n
ii
n
i
...
.
111
111
26
En general : Si se considera pruebas repetidas e independientes de un experimento
con 2 resultados, llamados un éxito y otro fracaso. Sea P o p la probabilidad favorable
y Q o q; Q=1-P , la probabilidad desfavorable. Si nos interesa el número de éxitos y
no el orden en que sucede, entonces la probabilidad se calcula haciendo uso de la
siguiente fórmula:
Una distribución sigue la ley binomial siempre y cuando se cumplan las siguientes
hipótesis:
- Las observaciones se clasifican en dos categorías, que son además excluyentes. Por
ejemplo, los elementos se pueden clasificar en aceptables o defectuosos
- Las observaciones son independientes. Esto significa que la probabilidad de que
aparezca un elemento aceptable es siempre la misma y a su vez la probabilidad de
aparición de un elemento defectuoso también se mantiene.
- La proporción de elementos de las dos categorías en las que se ha clasificado la
población es siempre constante.
El modelo de la distribución binomial se aplica a:
- poblaciones finitas, de las que se toman elementos al azar, con reemplazamientos.
- poblaciones consideradas infinitas desde el punto de vista conceptual, como son las
piezas que produce una máquina (defectuosas o aceptables), siempre que el resultado
de cada momento sea independiente de lo ocurrido con anterioridad.
Propiedades de la Distribución Binomial.
La media de una variable aleatoria binomial X, que se designa X0 o E(x), es el número
esperado de éxitos en “n” pruebas.
P x n pn
n x xp p
P x n pn
n x xp q
x n x
x n x
( ; , )!
( )! !( )
( ; , )!
( )! !
1
27
Desviación estándar ó típica. La varianza de la distribución de probabilidad binomial
que expresa de la siguiente manera:
La desviación típica se expresa:
Ejemplo
La probabilidad de que un alumno apruebe la asignatura Calculo de Probabilidades es
de 0,15. Si en un semestre intensivo se inscriben 15 alumnos ¿Cuál es la probabilidad
de que aprueben 10 de ellos?
P(x = 10) = 15C10(0,15)10(0,85)5 = 10!/{10!(15-10)!}(0,15)10(0,85)5 = 7,68 * 10-6
Generalmente existe un interés en la probabilidad acumulada de "m o más " éxitos o
"m o menos" éxitos en n ensayos. En tal caso debemos tomar en cuenta que:
P(x < m) = P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x =m- 1)
P(x > m) = P(x =m+ 1) + P(x =m+ 2) + P(x = m+3) +....+ P(x =n)
P(x < m) = P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x =m)
P(x > m) = P(x = m) + P(x =m+1) + P(x =m+2) +....+ P(x =n)
Supongamos que del ejemplo anterior se desea saber la probabilidad de que aprueben:
a.- al menos 5
b.- mas de 12
a.- la probabilidad de que aprueben al menos 5 es P(x < 5) es decir que
P(x < 5) = P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)+P(x = 5)
P(x < 5) = 0,2312 + 0,2856 + 0,2184 + 0,1156 + 0,045 = 0,8958
b.- la probabilidad de que aprueben mas de 12 es P(x > 12) es decir que
E x xP x n P( ) ( ) *
2 2 2 2 2 E x x p x( ) ( )
x p x2 2
( )
28
P(x > 12) = P(x = 13)+P(x = 14)+P(x = 15)
P(x > 12) = 1,47 *10-9 +3,722 *10-11 +4,38 *10-13 = 1,507 *10-9
La esperanza matemática en una distribución binomial puede expresarse como
E(x) = np
Y la varianza del numero esperado de éxitos se puede calcular directamente:
Var(x) = np(1-p)
Distribución Binomial expresada en Proporciones:
En lugar de expresar la variable aleatoria como el numero de éxitos X, podemos
designarla en términos de la proporción de éxitos, p, que es la relación entre el numero
de éxitos y el numero de ensayos:
P = X
n
En tales casos la formula se modifica solo respeto de la definición de la proporción:
P( p = P/n) = nCxpx(1-p)n-x
Ejemplo
La probabilidad de que Juan pueda conquistar una chica es de 0,20. Si se seleccionan
5 chicas al azar, que se encontraran con Juan, ¿Cuál es la probabilidad la proporción
de chicas interesadas en Juan sea exactamente 0,2?
P(p = 0,2 = 1/5) = 5C1(0,20)1(0,80)4 = 0,4096
Cuando la variable binomial se expresa como una proporción, la distribución es aun
discreta y no continua. Solo pueden ocurrir las proporciones para las que el numero
de éxitos X es un numero entero. El valor esperado para una distribución de
probabilidad binomial expresada por proporciones es igual a la proporción de la
población:
E(p) = p
29
La varianza de una proporción de éxitos para una distribución de probabilidad
binomial es:
Var(p) = p(1-p)
N
Uso de la probabilidad bonomial
La distribución binomial se aplica cuando se realizan un número"n" de veces el
experimento de Bernouilli, siendo cada ensayo independiente del anterior. La variable
puede tomar valores entre:
0: si todos los experimentos han sido fracaso
n: si todos los experimentos han sido éxitos
Ejemplo
¿Cuál es la probabilidad de obtener cuatro veces el número 3 al lanzar
un dado 8 veces?
" k " (número de aciertos) toma el valor 4
" n" toma el valor 8
" p " (probabilidad de que salga un 3 al tirar el dado) es
1 / 6 (= 0,1666)
La fórmula queda:
Luego,
P (x = 4) = 0,026
30
Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el número 3 al
tirar un dado 8 veces.
DISTRIBUCIÓN BINOMIAL NEGATIVA
La distribución binomial negativa permite hallar un número de "z" elementos de una
categoría antes de que aparezca el primer elemento de la otra categoría.
DISTRIBUCIÓN DE POISSON:
Se utiliza para determinar la probabilidad de un numero designado de éxitos cuando
los eventos ocurren en un espectro continuo de tiempo y espacio. Tal proceso se
denomina Proceso de Poisson, es semejante al proceso de Bernoulli excepto que los
eventos ocurren en un espectro continuo en vez de ocurrir en ensayos u observaciones
fijas. Por ejemplo la entrada de materiales a una celda de producción, la llegada de
clientes a un servidor cualquiera, etc.
Solo se requiere un valor parea determinar la probabilidad de un numero designado
de éxitos en un proceso de Poisson: el numero promedio de éxitos para la dimensión
especifica de tiempo o espacio de interés. Este numero promedio se representa
generalmente por por o . La expresión matemática de la distribución de Poisson
es:
P(x| ) = xe- /x!
Suponemos que estudiamos un suceso que ocurre esporádicamente a lo largo de un
“soporte continuo” X= “nº de veces que aparece dicho suceso en un periodo de
tiempo” Diremos que X sigue una distribución de Poisson de parámetro
PX Si se cumplen 2 condiciones:
i. El suceso aparece, a largo plazo, un nº medio de veces
31
ii. La aparición del suceso ocurre de manera independiente (el nº de
veces que ocurre en un intervalo de tiempo no induce a saber el
nº de veces que ocurrirá en el siguiente intervalo).
er
rXPr
.!
Es función puntual de probabilidad:
22
00
0
00
..!1
..!
.
1.!
.!
XEXEXVar
eerr
reer
rXE
eeer
eer
r
r
r
r
r
r
r
r
Observación: Tanto la distribución Binomial como la Poisson son reproductivas
respecto a los parámetros n y respectivamente.
21
2
1
21
2
1,
,
,
PYXPY
PX
pnnBYXpnBY
pnBX
La distribución de Poisson se emplea para obtener modelos de probabilidad para
eventos raros, es decir, que no ocurren frecuentemente en el espacio, en el tiempo, o
en cualquier otra dimensión. Por ejemplo accidentes automovilísticos, accidentes
industriales, etc. en una unidad de tiempo dada. Otros ejemplos son el número de
llamadas telefónicas recibidas en una central en un tiempo dado. El número de
partículas radioactivas que decaen en un periodo de tiempo específico, el número de
errores de una secretaria al escribir una página, etc.
Ejemplo
Un puesto de trabajo en una línea recibe un promedio de 4 productos por hora. ¿Cuál
es la probabilidad de que reciba al menos 2 productos?
= 5, x< 2
P(x < 2| = 5) = 51 e-5/1! + 52 e-5/2! = 0,1179
32
Aproximación de Poisson de Probabilidades Binomiales:
Cuando el numero de observaciones o ensayos n en un proceso de Bernoulli es muy
grande, los cálculos son bastante tediosos. Mas aun, en general no se encuentran tablas
de probabilidad con valores muy pequeños de p. En estos casos la distribución de
Poisson es conveniente como una aproximación de probabilidades binomiales cuando
n es grande y p o (1-p) es pequeño. Empíricamente esta aproximación se puede hacer
cuando n > 30, y np < 5. La media de la distribución de Poisson, utilizada para
aproximar probabilidades binomiales es:
= np
Sí la probabilidad de que un individuo sufra una reacción por una inyección de un
determinado suero es de 0.001, determinar la probabilidad de que de un total de 2000
individuos
a) exactamente tres tengan alguna reacción.
Este problema puede resolverse aplicando el concepto de distribución binomial, es la
cual una variable puede tomar sólo dos valores (éxito o fracaso).
Sea X = número de individuos que sufren alguna reacción.
De donde p=0.001 y n = 2 000 individuos. Entonces
33
DISTRIBUCIÓN GEOMÉTRICA
Permite calcular la probabilidad de que tengan que realizarse un número k de ensayos
para obtener un éxito en el último ensayo, siendo p la probabilidad de obtener un éxito.
Así pues, esta distribución es un caso particular de la distribución binomial negativa
para el caso en que r=1.
Se utiliza en la distribución de los tiempos de espera, de manera que si los ensayos se
realizan a intervalos regulares de tiempo, esta variable aleatoria proporciona el tiempo
transcurrido hasta el primer éxito. Por ejemplo, encontrar la primera pieza defectuosa,
la primera ocurrencia de un suceso, la llegada de un cliente a un lugar de servicio, la
rotura de una cierta pieza, etc.
Esta distribución presenta la propiedad denominada propiedad de Markov o de falta
de memoria, que implica que la probabilidad de tener que esperar un tiempo que no
depende del tiempo que ya se haya esperado.
La variable aleatoria al igual que en la distribución binomial, sólo puede tomar
dos valores (éxito o fracaso).
Las pruebas son también idénticas e independientes entre sí.
La probabilidad de éxito es p y se mantiene constante de prueba en prueba.
Sin embargo, mientras que en la distribución binomial se buscaba el número de éxitos
que ocurrían en “n” pruebas, en la distribución geométrica lo que se busca es el
número de pruebas necesarias para que ocurra un éxito, es decir, el experimento
consiste de una serie de pruebas, las cuales concluyen cuando un éxito es observado.
Ejemplo
34
Un jugador de baloncesto se dispone a tirar hasta anotar una canasta. Sí se supone
que sus tiros son independientes y la probabilidad de anotar una canasta es de 0.8.
¿Cual es la probabilidad de necesitar efectuar dos tiros?, ¿tres tiros?, ¿cuatro tiros?,
¿cinco tiros?, ¿n tiros?.
Sea Y = número de tiros necesarios para anotar una canasta
p= 0.8 q = 0.2
P( Y=2 ) =q p =(0.2)*(0.8) = 0.16
P( Y=3 ) = q q p = (0.2)(0.2)(0.8)= 0.032
P( Y=4 ) = q q q p = (0.2)(0.2)(0.2)(0.8) = 0.0064
P( Y=5) = q q q q p= (0.2)(0.2)(0.2)(0.2)(0.8)= 0.00128
P( Y=n) = q n-1 p =
b) ¿Cual es la probabilidad de necesitar a lo más 5 tiros?
P(Y<5)= P(1) +P(2)+ P(3)+ P(4)+ P(5)
35
DISTRIBUCIÓN HIPERGEOMETRICA:
Esta distribución se emplea para calcular la probabilidad de obtener
determinado número de éxitos en un espacio muestral de N ensayos; pero a diferencia
de la distribución binomial en donde los datos de la muestra se extraen cada reemplazo
para una población finita o sin reemplazo para una población infinita, en la
distribución hipergeométrica los datos de la muestra se extraen sin reemplazo en una
población finita. Por esto, en esta distribución hipergeometrica el resultado de una
observación depende o es afectado por el resultado de cualquier otra u otra
observación anterior.
Resumiendo diremos que la distribución hipergeometrica se emplea para
muestreos sin reemplazo de un población finita cuya probabilidad de ocurrencia
cambia a lo largo del ensayo. Su definición formal es:
Dado un espacio muestral S de tamaño N con los subespacios
Entonces la probabilidad de que n ensayos K pertenecen a M y (n-k)
pertenezcan a (N-M) esta dada por:
Donde:
M N y N M N ( )
M
k
Son las formas diferentes de elegir k
de elementos del subespacio muestral M
N
n
Son las formas diferentes de elegir n
elementos del subespacio muestral N
36
Gráficamente se puede representar así:
M (N-M)
K (n-k)
Siendo:
N: el tamaño del espacio muestral S.
n: el tamaño de la muestra cada número de ensayos.
M: el número de éxitos en el espacio muestral.
N-M: el tamaño de fracasos en el espacio muestral.
k: el tamaño de éxitos en la muestra.
n-k: el tamaño de fracasos en la muestra.
Ejemplo
Si en una empresa se presentan para cubrir 2 vacantes, 13 aspirantes de los
cuales 5 son hombres y 8 son mujeres. Calcular la variable aleatoria X: número de
hombres contratados.
Siendo N={13 aspirantes para cubrir 2 vacantes}
x= número de hombres contratados para cubrirlas
E0= se contratan K0=0 hombres contratar a (n-k0)=2 mujeres.
N M
n k
Son las formas diferentes de elegir n k
elementos del subespacio muestral N M
( )
( )
37
E1= se contratan K1= 1 hombre contratar a (n-k1)=1 mujer
E2= se contratan K2= 2 hombres contratar a (n-k2)=0 mujer
La visión gráfica del problema es:
M=5 (N-M)=8
K0=0 (n-k0)=2
K1=1 (n-k1)=1
K2=2 (n-k2)=0
Donde N=13 ; n=2
La distribución multihipergeométrica es similar a la distribución hipergeométrica,
con la diferencia de que en la urna, en lugar de haber únicamente bolas de dos colores,
hay bolas de diferentes colores.
Ejemplo
en una urna hay 7 bolas blancas, 3 verdes y 4 amarillas: ¿cuál es la probabilidad
de que al extraer 3 bolas sea cada una de un color distinto?
La distribución multihipergeométrica sigue el siguiente modelo:
Donde:
38
X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que
una de las bolas sea blanca)
N1: indica el número de bolas blancas que hay en la urna (en el ejemplo,
7 bolas)
N: es el número total de bolas en la urna (en el ejemplo, 14 bolas)
n: es el número total de bolas que se extraen (en el ejemplo, 3 bolas)
DISTRIBUCIÓN ZETA
En estadística la distribución zeta es una distribución probabilidad discreta con
un parámetro s > 1 cuya función de densidad para valores discretos x= 1,2 es:
P=(X=x)\frac{x^{-s{{zeta(s)}
Aquí ζ(s) es la función zeta de Rieman con
zeta(s)=\sum_{n=1}^infn\frac{1}-{n^s}
El equivalente continuo de la distribución zeta es la distribución Pareto
7. ¿QUÉ SON DISTRIBUCIONES CONTINUAS?
Se puede definir como la forma conveniente de presentar distribuciones disueltas
que tiene muchos resultados positivos todos muy cercanos entre si; pudiendo
observarse experimentos como el proceso de bernoulli.
Características
39
También la podemos llamar densidades de probabilidad zaq son graficas de
funciones en la estadística.
Es una distribución discreta.
Se puede representar mediante gráficos y tablas estadísticas
Poseen diferentes tipos de distribuciones como distribución normal,
estandarizadas beta, couchy y otros.
Característica fundamental podemos decir que es área situada debajo de la curva
que existen dos valores A, B cuales quiera; da la probabilidad de que una
variable aleatoria que tenga esta distribución tome un valor contenido en el
intervalo A, B.
Se deduce con los valores de una densidad de probabilidad o distribuciones
continuas no deben ser negativas z que el área total situada de la curva que
representa la certeza de que una variable aleatoria deben tomar uno de sus
valores, siempre es igual a 1.
Ejemplo: Si una variable continua tiene densidad que se muestra en el siguiente
grafico.
Solución: a) Como esta es el área situada debajo de la curva debe ser igual a 1; así
mismo, al multiplicar la base del rectángulo por su altura se obtiene
{3-(-2)}.1/5=5.1/5=1.
B) Al multiplicar la base del rectángulo correspondiente por su altura, se obtiene (3-
1).1/5= 2/5.
C) La respuesta es la misma que la de la parte B es decir 2/5.
40
1 2 3 0 -1 -2
1/5
2/5
3/5
41
Distribucion Normal ( gaussiana):
La distribución gaussiana, recibe también el nombre de distribución normal,
su grafica la cual recibe el nombre de (grafica normal), es la curva en forma de
campana, la cual describe en forma aproximada muchos fenómenos que ocurren en la
naturaleza, tales como la estructura de los seres humanos y el coeficiente de
inteligencia de los niños, la industria y la investigación. Las mediciones físicas
realizadas en campos tales como experimentos metereologicos, los estudios acerca de
las lluvias y las mediciones sobre partes manufacturadas se explican con la
distribución normal de manera adecuada.
Ya que una gran mayoría de las v.a continúas de la naturaleza siguen esta
distribución. Se dice que una v.a. X sigue una distribución normal de parámetros y
, lo que representamos del modo si su función de densidad es:
Observación
Estos dos parámetros y coinciden además con la media (esperanza) y la varianza
respectivamente de la distribución como se demostrará más adelante.
42
La forma de la función de densidad es la llamada campana de Gauss.
Para el lector es un ejercicio interesante comprobar que ésta alcanza un único máximo
(moda) en , que es simétrica con respecto al mismo, y por tanto
, con lo cual en coinciden la media, la mediana y la
moda, y por último, calcular sus puntos de inflexión.
El soporte de la distribución es todo , de modo que la mayor parte de la masa de
probabilidad (área comprendida entre la curva y el eje de abcisas) se encuentra
concentrado alrededor de la media, y las ramas de la curva se extienden asintótica
mente a los ejes, de modo que cualquier valor ``muy alejado" de la media es posible
(aunque poco probable).
La forma de la campana de Gauss depende de los parámetros y :
indica la posición de la campana (parámetro de centralización);
(o equivalentemente, ) será el parámetro de dispersión. Cuanto menor
sea, mayor cantidad de masa de probabilidad habrá concentrada alrededor de
la media (grafo de f muy apuntado cerca de ) y cuanto mayor sea ``más
aplastado" será.
La función característica de la distribución normal, se comprueba más adelante que
es
Como consecuencia, la distribución normal es reproductiva con respecto a los parámetros
, y , ya que
43
Observación
Como se ha mencionado anteriormente, la ley de probabilidad gaussiana la
encontramos en la mayoría de los fenómenos que observamos en la naturaleza, por
ello gran parte de lo que resta del curso lo vamos a dedicar a su estudio y a el de las
distribuciones asociadas a ella. Sin embargo, a pesar de su utilidad, hay que apuntar
un hecho negativo para esta ley de probabilidad:
La función no posee primitiva conocida las consecuencias desde el punto de vista
práctico son importantes, ya que eso impide el que podamos escribir de modo sencillo la
función de distribución de la normal, y nos tenemos que limitar a decir que:
44
sin poder hacer uso de ninguna expresión que la simplifique. Afortunadamente esto
no impide que para un valor de x fijo, F(x) pueda ser calculado. De hecho puede ser
calculado con tanta precisión (decimales) como se quiera, pero para esto se necesita
usar técnicas de cálculo numérico y ordenadores. Para la utilización en problemas
prácticos de la función de distribución F, existen ciertas tablas donde se ofrecen (con
varios decimales de precisión) los valores F(x) para una serie limitada de valores xi
dados. Normalmente F se encuentra tabulada para una distribución Z, normal de
media 0 y varianza 1 que se denomina distribución normal tipificada:
En el caso de que tengamos una distribución diferente , se obtiene Z
haciendo el siguiente cambio:
De manera general se tiene
Proposición (Cambio de origen y escala)
Sean . Entonces
Este resultado puede ser utilizado del siguiente modo: Si , y nos
interesa calcular ,
45
1.
Hacemos el cambio y calculamos ;
2.
Usamos la tabla 3, relativa a la distribución para obtener (de modo
aproximado) ;
3.
Como
tenemos que el valor obtenido en la tabla, FZ(z) es la probabilidad buscada.
Ejemplo
Supongamos que cierto fenómeno pueda ser representado mediante una v.a.
, y queremos calcular la probabilidad de que X tome un valor entre 39
y 48, es decir,
Comenzamos haciendo el cambio de variable
46
de modo que
Vamos ahora a demostrar algunas de las propiedades de la ley gaussiana que hemos
mencionado anteriormente.
Proposición
Sea . Entonces
Demostración
Por ser la normal una ley de probabilidad se tiene que
47
es decir, esa integral es constante. Con lo cual, derivando la expresión anterior con
respecto a se obtiene el valor 0:
luego .
Para demostrar la igualdad entre la y , basta con aplicar la misma técnica,
pero esta vez derivando con respecto a :
Luego
Para demostrar el resultado relativo a la función característica, consideramos en
primer lugar la v.a. tipificada de X,
48
y calculamos
Como , por la proposición deducimos que
Distribuciòn Normal estandar:
Se puede definir como la distribuciòn normal donde se examina la relaciòn especial
de la desviaciòn estandar con la curva normal.
En realidad en una familia de distribucionrsinfinitamente grande, que en
consecuencia sera inutil intentar elaborar las tablas suficientes para satisfacer las
necesidades de los posibles usuarios.
Por otra parte para la formula de ditribuciòn normal no es muy adecuada para
este fin debido a su complejidad. Existe sin embargo , una alternativa sencilla que
evita los problemas, se asemeja a la determinaciòn de probabilidad por la flecha
guiatoria.
49
Formula de la distribuciòn estandar: Z= X – u
Ejemplo:
Determinar el area de la curva normal estandar enter Zque es igual -1,20 y Z que es
igual a 0.
Soluciòn:
Como se puede aplicar en la siguiente fifura, el area que esta debajo de la curva
entre Z=-1,20 y Z= 0 es igual al area situada debajo de la curva entre Z= 0 y Z=
1,20, de esta manera se busca la captaciòn de Z= 1,20 y se obtiene 0,3849.
0.3849 0.3849
-1,20 0 1.20
Aproximación a la normal de la ley binomial
Se puede demostrar (teorema central del límite) que una v.a. discreta con
distribución binomial, se puede aproximar mediante una distribución
normal si n es suficientemente grande y p no está ni muy próximo a 0 ni a 1. Como
el valor esperado y la varianza de X son respectivamente y , la
aproximación consiste en decir que . El convenio que se suele
utilizar para poder realizar esta aproximación es:
50
aunque en realidad esta no da resultados muy precisos a menos que realmente nsea
un valor muy grande o .
Ejemplo
Durante cierta epidemia de gripe, enferma el de la población. En un aula con
200 estudiantes de Medicina, ¿cuál es la probabilidad de que al menos 40 padezcan
la enfermedad? Calcular la probabilidad de que haya 60 estudiantes con gripe.
Solución: La v.a. que contabiliza el número de alumnos que padece la gripe es
cuya media es y su varianza es . Realizar los cálculos
con la ley binomial es muy engorroso, ya que intervienen números combinatorios de
gran tamaño, y potencias muy elevadas. Por ello utilizamos la aproximación normal
51
de X, teniendo en cuenta que se verifican las condiciones necesarias para que el error
sea aceptable:
Así aproximando la v.a. discreta binomial X, mediante la v.a. continua normal XN
tenemos:
También es necesario calcular . Esta probabilidad se calcula exactamente
como:
52
Dada la dificultad numérica para calcular esa cantidad, y como la distribución
binomial no está habitualmente tabulada hasta valores tan altos, vamos a utilizar su
aproximación normal, XN. Pero hay que prestar atención al hecho de que XN es una
v.a. continua, y por tanto la probabilidad de cualquier punto es cero. En particular,
lo que ha de ser interpretado como un error de aproximación. Hay métodos más
aproximados para calcular la probabilidad buscada. Por ejemplo, podemos
aproximar por el valor de la función de densidad de XN en ese punto (es
en el único sentido en que se puede entender la función de densidad de la normal
como una aproximación de una probabilidad). Así:
53
Por último, otra posibilidad es considerar un intervalo de longitud 1centrado en el
valor 60 del que deseamos hallar su probabilidad y hacer:
Ejemplo
Según un estudio, la altura de los varones de cierta ciudad es una v.a. X, que
podemos considerar que se distribuye según una ley gaussiana de valor esperado
y desviación típica . Dar un intervalo para el que tengamos
asegurado que el de los habitantes de la ciudad estén comprendidos en él.
Solución: Tenemos que . Si buscamos un intervalo donde
estar seguros de que el de los habitantes tengan sus alturas comprendidas en él
hay varias estrategias posibles:
1.
Podemos tomar el percentil 50, ya que este valor deja por debajo suya a la
mitad, 0,5, de la masa de probabilidad. Este valor, x0,5, se definiría como:
54
donde
El valor z0,5 lo podemos buscar en la tabla 3 (distribución ) y se
obtiene
Por tanto podemos decir que la mitad de la población tiene una altura inferior
a . Este resultado era de esperar, ya que en la distribución es
simétrica y habrá una mitad de individuos con un peso inferior a la media y
otro con un peso superior. Esto puede escribirse como:
El de la población tiene un peso comprendido en el intervalo .
55
2. Análogamente podemos considerar el percentil 50, y tomar como intervalo aquellos
pesos que lo superan. Por las mismas razones que en el problema anterior, podremos
decir:
El 50% de la población tiene un peso comprendido en el intervalo .
3. Los anteriores intervalos, aún dando un resultado correcto, no son satisfactorios en
el sentido de que son muy grandes, y no tienen en cuenta la simetría de la distribución
normal para tomar un intervalo cuyo centro sea . Vamos a utilizar entonces otra
técnica que nos permita calcular el intervalo centrado en la media, y que además será
el más pequeño posible que contenga al de la población.
Para ello observamos que la mayor parte de probabilidad está concentrada siempre
alrededor de la media en las leyes gaussianas. Entonces podemos tomar un intervalo
que contenga un de probabilidad del lado izquierdo más próximo a la media, y
un del derecho.
Esto se puede describir como el intervalo
56
donde x0,25 es el valor que deja por debajo de sí al de la masa de probabilidad y
x0,75 el que lo deja por encima (o lo que es lo mismo, el que deja por debajo al de
las observaciones). Del mismo modo que antes estos valores pueden ser buscados en
una tabla de la distribución normal, tipificando en primera instancia para destipificar
después:
donde
En una tabla encontramos el valor z0,75, y se destipifica:
Análogamente se calcularía
57
donde
Por la simetría de la distribución normal con respecto al origen, tenemos que
z0,25= - z0,75.Luego
En conclusión:
El de la población tiene un peso comprendido en el intervalo
[168,25,181,75].
De entre los tres intervalos que se han calculado el que tiene más interés es el último,
ya que es simétrico con respecto a la media, y es el más pequeño de todos los posibles
(más preciso). Este ejemplo es en realidad una introducción a unas técnicas de
inferencia estadística que trataremos posteriormente, conocidas con el nombre de
``estimación confidencial'' o ``cálculo de intervalos de confianza''
58
Distribución Gamma:
Concepto:
Pues el tiempo de espera hasta la ocurrencia del suceso r – hicimos obedece a una
distribución gamma con parámetros =r y B =9. Observe que la función de
densidad gamma se convierte en la distribución exponencial cuando =r =1 y
B = 0.
Es decir la suma de n variables independientes, exponencialmente
distribuidas cada una con parámetros O, se distribuye según la distribución gamma
con parámetro gamma con parámetros = n y B = 9
Distribución exponencial
La distribución exponencial es el equivalente continuo de la distribución
geométrica discreta. Esta ley de distribución describe procesos en los que:
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo
que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello
ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en
el que no ha pasado nada.
Ejemplos de este tipo de distribuciones son:
El tiempo que tarda una partícula radiactiva en desintegrarse. El
conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por
ejemplo, la datación de fósiles o cualquier materia orgánica mediante la
técnica del carbono 14, C14;
59
El tiempo que puede transcurrir en un servicio de urgencias, para la llegada
de un paciente;
En un proceso de Poisson donde se repite sucesivamente un experimento a
intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de
dos sucesos consecutivos sigue un modelo probabilística exponencial. Por
ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida
importante.
Concretando, si una v.a. continua X distribuida a lo largo de , es tal que su
función de densidad es
se dice que sigue una distribución exponencial de parámetro , .
Un cálculo inmediato nos dice que si x>0,
luego la función de distribución es:
60
Para calcular el valor esperado y la varianza de la distribución exponencial, obtenemos en
primer lugar la función característica
para después, derivando por primera vez
y derivando por segunda vez,
Entonces la varianza vale
61
Ejemplo
En un experimento de laboratorio se utilizan 10 gramos de . Sabiendo que la
duración media de un átomo de esta materia es de 140 días, ¿cuantas idas
transcurrirán hasta que haya desaparecido el de este material?
Solución: El tiempo T de desintegración de un átomo de es una v.a. de
distribución exponencial:
Como el número de átomos de existentes en una muestra de 10 gramos es enorme, el
histograma de frecuencias relativas formado por los tiempos de desintegración de cada uno
de estos átomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo
modo, el polígono de frecuencias relativas acumuladas debe ser muy aproximado a la curva
de su función de distribución F. Entonces el tiempo que transcurre hasta que el del
material radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es
decir
62
Ejemplo
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una
distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a
una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro
antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un
paciente, ¿cuál es la probabilidad de que haya que cambiarlo antes de años?
Solución: Sea T la variable aleatoria que mide la duración de un marcapasos en una
persona. Tenemos que
Entonces
En segundo lugar
63
Luego como era de esperar, por ser propio a un mecanismo exponencial,
o sea, en la duración que se espera que tenga el objeto, no influye en nada el tiempo que en
la actualidad lleva funcionando. Es por ello que se dice que ``la distribución exponencial no
tiene memoria".
Diagrama de Pareto.
Revela:
Que unas pocas “causas vitales” son responsables de la mayoría de los
problemas.
El resto de los problemas son consecuencia de las “muchas causas triviales”.
Definición:
64
Gráfico de barras, que ilustra las causas de los problemas de un proceso en
orden de severidad según frecuencia.
Chi-cuadrado
Es una técnica estadística que permite determinar sí dos o más
variables son independientes o sí la ocurrencia de una de ellas
esta supeditada a la otra , en este caso , se dice que hay
Dependencia con una variable con respecto a otra.
Es una prueba de hipótesis basada, en la diferencia entre los
Valores observados y los valores esperados (esperados bajo la
Hipótesis nula). En el caso más sencillo, puede aplicarse a datos clasificados
en varias celdas , según un factor único , como una Estación del año.
El también puede aplicarse a datos clasificados según dos
Factores para probar su independencia mutua. Las pruebas están
diseñadas para variables puramente categóricas como es el sexo o
la nacionalidad ( en tanto que los procedimientos como la regresión
son apropiados para variables numéricas como el ingreso y la
Productividad).
Estadísticamente se Expresa así:
65
(
La media de esta distribución es n-1 y como sucede con la
distribución T, llamamos a esta cantidad numero de grados de
libertad o simplemente grados de libertad . Lo denominamos la
varianza de la muestra lo denominamos la desviación
estándar de la población.
Pruebas de Chi-Cuadrado.
Chi- Cuadrado proporciona una prueba simple basada en la
diferencia entre las frecuencias observadas y esperadas . Dado que es tan
fácil comprender y calcular , es una forma muy popular de prueba de
hipótesis , asimismo hace pocas suposiciones respecto a la población
original que suele clasificarse como prueba no parametrica.
Distribución de Student
Es la familia de distribuciòn de probabilidades dque se distinguen por sus
grados de libertad individuales, es parecido, en forma, a la distribuciòn normal; y se
utiliza cuando se desconoce la desviaciòn estandar para la poblaciòn y el tamaño de
la muestra.
66
La distribución -Student se construye como un cociente entre una normal y
la raíz de una independientes. De modo preciso, llamamos distribución t-Student
con n grados de libertad, a la de una v.a. T,
donde , . Este tipo de distribuciones aparece cuando tenemos
n+1 v.a. independientes
y nos interesa la distribución de
La función de densidad de es
67
La distribución de Student tiene propiedades parecidas a :
Es de media cero, y simétrica con respecto a la misma;
Es algo más dispersa que la normal, pero la varianza decrece hasta 1 cuando
el número de grados de libertad aumenta.
Distribución Beta:
Es usada frecuentemente en los tecnicos Per ( Program Evaluation S Revien
Techniquies) para control de proyectos en la tecnica Pert se supone que los tiempos
de cada actividad “q” componen un proyecto son variables aleatorias que obedecen a
la ditribuciòn beta. Esta distribuciòn tiene caracteristicas que se adieren bien con las
caracteristicas de las variables aleatorias usadas en Pert a) Pequeñas probabilidades
de que se den los valores extremos. B) Es un buena distribuciòn unimodal.
Represetaciòn Grafica
F(t)
68
0 A B X
Distribución de Snedecor
Otra de la distribuciones importantes asociadas a la normal es la que se define
como cociente de distribuciones independientes. Sean e v.a.
independientes. Decimos entonces que la variable
sigue una distribución de probabilidad de Snedecor, con (n,m) grados de libertad.
Obsérvese que .
La forma más habitual en que nos encontraremos esta distribución será en el caso en
que tengamos n+m v.a. independientes
69
y así
De esta ley de probabilidad lo que más nos interesa es su función de distribución:
y para ello, como en todas las distribuciones asociadas a la normal, disponemos de
una tabla (la número 6) donde encontrar aproximaciones a esas cantidades
Es claro que la distribución de Snedecor no es simétrica, pues sólo tienen densidad
de probabilidad distinta de cero, los punto de . Otra propiedad interesante de la
distribución de Snedecor es:
70
También podemos definir la función F como la distribución maestral de la
razón de 2 variables y Ji Cuadrado independiente.
Su característica fundamental es que existe una distribución F diferente para
cada combinación de tamaño y numero de muestra.
Uso de la tabla en la Distribución “F” de Snedecor:
Los valores que se indican en la tabla “F” son valores críticos; es decir las
líneas divisorias que separan la variación aleatoria de la no aleatoria. Al realizar de
la prueba de variación las dos estimulaciones muestréales de la variación se utilizan
para calcular una razón F. posteriormente el numero resultante se compone dar el
valor F que se encuentra en la tabla.
Si el valor calculado es mayor que el valor tabular, la hipótesis nula es
rechazada. Si el valor calculado es menor que el valor presentado en la tabla, la
hipótesis nula no puede ser rechazado.
8. DISTRIBUCIONES SIMÉTRICAS Y DISTRUBUCIONES SESGADAS
SIMETRICAS
Se dice que la distribución es simétrica si se puede dividir en dos mitades que
parecen ser la imagen una de la otra. En estos casos las frecuencias en los extremos
de la distribución son idénticas. La gráfica puede tener diferentes formas. Una de estas
formas es la de campana.
71
Otra forma es la rectangular
DISTRIBUCIÓN SESAGADA
Si la distribución tiene algunos valores extremos muy bajos, entonces en la
gráfica se nota una cola larga y fina hacia la izquierda de la distribución y se dice que
la distribución está sesgada negativamente o que tiene un sesgo a la izquierda.
72
Si la distribución tiene algunos valores extremos altos, entonces en la gráfica
se nota una cola larga y fina hacia la derecha de la distribución y se dice que la
distribución está sesgada positivamente o que tiene un sesgo a la derecha.
73
CONCLUSION
El estudio de probabilidades surge como una herramienta utilizada ganar en los
juegos y pasatiempos. El adelanto de estas herramientas fue asignado a los
matemáticos. Con el tiempo estas técnicas matemáticas se perfeccionaron y
encontraron otros usos muy diferentes para la que fueron creadas. En la actualidad se
continúa con el estudio de nuevas metodologías que permitan propagar el uso de la
computación en el estudio de las probabilidades disminuyendo, de este modo, los
márgenes de error en los cálculos
Los métodos probabilísticas son usados muy comúnmente en la vida diaria,
principalmente en empresas para estudios de producción, mercado y en estudios
donde la muestra representada es elevada, es de suma importancia saber que muchos
de nuestros eventos se debe o se estudia a través de una probabilidad.
74
BIBLIOGRAFÍA
http://rrpac.upr.clu.edu:9090/~amenend/conf76390.htm#_Toc5503471
http://www.seh-lelha.org/noparame.htm
http://fisica.urbenalia.com/apuntsmat/probabilidad/?selact=apu
http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad
http://www.100cia.com/enciclopedia/Distribuci%F3n_zeta
http://www.nutriserver.com/Cursos/Bioestadistica/Distribuciones_Discretas.h
tml
http://server2.southlink.com.ar/vap/VARIABLE%20ALEATORIA.htm
http://zip.rincondelvago.com/?00029030
http://zip.rincondelvago.com/?00039053
http://math2.org/math/stat/distributions/es-z-dist.htm
Montgomery, D. Y Runger, G. (1996) Probabilidad y estadística. Editorial
McGraw-Hill.
López Casusi, Rafael (1984). Introducción al cálculo de probabilidades e
inferencia. Editorial Co-Bo. Caracas-Venezuela. Pag 177, 181, 189,193 y 196.
Gene. V. Glass, Julián C. (1986) Métodos Estadísticos Aplicados a las Ciencias
Sociales. Editorial Prenticehall. Hispano América, S.A. México
75
76
ANEXO 2
CALCULO DE DISTRIBUCIONES BINOMIAL NEGATIVA MEDIANTE
PROGRAMAS EN COMPUTADORA
En el siguiente gráfico se muestra la función de probabilidad de la distribución
Binomial negativa con un número de éxitos igual a 10 y una probabilidad de éxito de
0.4. En abcisas se representan los distintos valores que puede tomar la variable X
(número de ensayos), y en ordenadas se representa la probabilidad asociada a cada
valor posible de X.
En la dirección http://home.clara.net/sisa/negbino2.htm se puede acceder a una página
con la calculadora que se muestra a continuación, en la que se han introducido los
parámetros utilizados en el gráfico anterior para el cálculo de probabilidades no
acumuladas basadas en la función de probabilidad de la distribución Binomial
negativa. S.I.S.A. Simple Interactive Statistical Analysis.
..
77
ANEXO3 (nota presione “control +clic)