PROBABILIDADES

68
ESTADISTICA Y PROBABILIDADES

description

Estadistica

Transcript of PROBABILIDADES

Presentacin de PowerPoint

ESTADISTICA Y PROBABILIDADES

PROBABILIDADES

BARRIOS ROSARIO

MAGALY MAGARITA

TERCER SEMESTRE C

PRESENTADO POR:

Definicin:

Las Probabilidades pertenecen a la rama de la matemtica que estudia ciertos experimentos llamados aleatorios, o sea regidos por el azar, en que se conocen todos los resultados posibles, pero no es posible tener certeza de cul ser en particular el resultado del experimento. Por ejemplo, experimentos aleatorios cotidianos son el lanzamiento de una moneda, el lanzamiento de un dado, extraccin de una carta de un mazo de naipes.

La palabra probabilidad se utiliza para cuantificar nuestra creencia de que ocurra un acontecimiento determinado. Existen tres formas de estimar probabilidades: el enfoque clsico, el cual se aplica cuando todos los resultados posibles que se consideran igualmente probables; el de frecuencias relativas o probabilidad emprica, se refiere a la estimacin con base en un gran nmero de experimentos repetidos en las mismas condiciones. El enfoque subjetivo basado en situaciones especiales, en las cuales no es posible repetir el experimento y slo usa un grado de confianza personal.

La probabilidad mide la frecuencia con la que se obtiene un resultado y luego al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoria de probabilidad se usa extensamente en reas como la estadistica, la fisica, la matemtematica , las ciencias y la filosofa para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecnica subyacente discreta de sistemas complejos.

PODEMOS ENCONTRAR 2 TIPOS DE PROBABILIDADES:

a.- PROBABILIDAD FRECUENTISTA O DE VON MISES (frecuencias relativas 1957)

La probabilidad experimental de que ocurra un evento es la frecuencia relativa observada con que

ocurre ese evento. Si un experimento se realiza n veces, bajo las mismas condiciones y si ocurren

n(A) resultados favorables al evento A, el valor estimado de la probabilidad de que ocurra A como

resultado de la experimentacin, puede determinarse de la manera siguiente:

Donde n(A) es el nmero de veces que se observ realmente el evento A, y n es el nmero de veces que se efectu el experimento.

Ejemplo: De 70 alumnos que se inscribieron al curso de probabilidad y estadstica en el semestre anterior. 15

no lo terminaron, 20 obtuvieron una calificacin de NA y el resto lo aprobaron, Cul es la

probabilidad de que un alumno acredite la materia?

PROBABILIDAD SUBJETIVA (1969)

La probabilidad estimada mediante los enfoques clsicos y experimental, son completamente objetivos, ya que se determinan con base en hechos reales. En cambio, en algunos casos se presentan situaciones en las cuales no es posible realizar experimentos repetitivos y los resultados tampoco son igualmente probables. En estas condiciones, la probabilidad de ocurrencia de un evento debe evaluarse en forma subjetiva. Tales apreciaciones suelen ser de criterio personal, y por lo tanto, dos personas pueden cuantificar en forma diferente, la probabilidad subjetiva del mismo evento. Podemos entonces considerar la probabilidad subjetiva como la evaluacin personal de la ocurrencia de un evento incierto.

Axiomas de probabilidades

Los axiomas de la formulacin moderna de la teora de la probabilidad constituyen una base para deducir a partir de ellas un amplio nmero de resultados. La letra P se utiliza para designar la probabilidad de un evento, siendo P(A) la probabilidad de

ocurrencia de un evento A en un experimento.

AXIOMA 1

Si A es un evento de S, entonces la probabilidad del evento A es:

Como no podemos obtener menos de cero xitos ni ms de n xitos en n experimentos, la probabilidad de cualquier evento A, se representa mediante un valor que puede variar de 0 a 1.

AXIOMA 2

Si dos eventos son mutuamente excluyentes, la probabilidad de obtener A o B es igual a la probabilidad de obtener A ms la probabilidad de obtener B.

Excluirse mutuamente quiere decir que A y B no pueden ocurrir simultneamente en el mismo experimento. As, la probabilidad de obtener guila o sol en la misma tirada de una moneda ser

En general podemos decir que la suma de las probabilidades de todos los posibles eventos mutuamente excluyentes es igual a 1:

AXIOMA 3

Si A es un evento cualquiera de un experimento aleatorio y A es el complemento de A, entonces:

Es decir, la probabilidad de que el evento A no ocurra, es igual a 1 menos la probabilidad de que ocurra.

PROPIEDADES

Si w1, w2, . . ., wn son los n sucesos elementales de un suceso aleatorio cualquiera una funcin. p : S R de modo que cumple las propiedades:

1. 0 p(wi) 1 i {1, 2, . . . ,n}

2. p(w1) + p(w2) + . . .+ p(wn) = 1

Entonces p es una probabilidad.

Leyes de De Morgan: Si A y B son dos sucesos, se verifican:

(A B) = A B

(A B) = A B

Regla de Laplace:

Si realizamos un experimento aleatorio en el que hay n sucesos elementales, todos igualmente

probables, entonces si A es un suceso, la probabilidad de que ocurra el suceso A es:

TEORIA

DE

PROBABILIDADES

Regla de la adicin

Suponiendo que P(A) y P(B) representan las probabilidades para los dos eventos A y B, entonces

P(A B) significa la probabilidad de que ocurran A o B. Si representamos los eventos A y B en un

Diagrama de Venn con

Entonces A y B son conjuntos disjuntos o mutuamente excluyentes, o sea que no pueden ocurrir en forma simultnea

En cambio, si ambos eventos tienen puntos muestrales en comn

Regla de la multiplicacin

La regla de la multiplicacin establece que la probabilidad de ocurrencia de dos o ms eventos estadsticamente independientes es igual al producto de sus probabilidades individuales.

P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes

Aplicaciones teora de la probabilidad

Dos aplicaciones principales de la teora de la probabilidad en el da a da son en el anlisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican mtodos probabilsticos en regulacin ambiental donde se les llama "anlisis de vas de dispersin", y a menudo miden el bienestar usando mtodos que son estocsticos por naturaleza, y escogen qu proyectos emprender basndose en anlisis estadsticos de su probable efecto en la poblacin como un conjunto.

Investigacin biomdica

Muestreo en estadstica

La mayora de las investigaciones biomdicas utilizan muestras de probabilidad, es decir, aquellas que el investigador pueda especificar la probabilidad de cualquier elemento en la poblacin que investiga. Las muestras de probabilidad permiten usar estadsticas inferenciales, aquellas que permiten hacer inferencias a partir de datos. Por otra parte, las muestras no probabilsticas solo permiten usarse estadsticas descriptivas, aquellas que solo permiten describir, organizar y resumir datos. Se utilizan cuatro tipos de muestras probabilsticas: muestras aleatorias simples, muestras aleatorias estratificadas, muestra por conglomerados y muestras sistemticas.

Espacio muestral

espacio muestral consiste en el conjunto de todos los posibles resultados individuales de un experimento aleatorio.

Para algunos tipos de experimento puede haber dos o ms espacios de muestreo posibles. Por ejemplo, cuando se toma una carta de un mazo normal de 52 cartas, una posibilidad del espacio de muestreo podra ser el nmero, mientras que otra posibilidad sera el palo . Una descripcin completa de los resultados, sin embargo, especificara ambos valores, nmero y palo, y se podra construir un espacio de muestreo que describiese cada carta individual como el producto cartesiano de los dos espacios de muestreo descritos.

Los espacios de muestreo aparecen de forma natural en una aproximacin elemental a la probabilidad, pero son tambin importantes en espacios de probabilidad. Un espacio de probabilidad (, F, P) incorpora un espacio de muestreo de resultados, , pero define un conjunto de sucesos de inters, la -lgebra F, por la cul se define la medida de probabilidad P.

TIPOS DE ESPACIO MUESTRAL

Podemos diferenciar entre dos tipos de espacios muestrales: discretos y continuos.

Discretos: Son aquellos espacios donde el nmero de sucesos elementales es finito o infinito numerable.

Espacio Probabilstico discreto:

Es aquel cuyo espacio muestral es discreto.Podemos diferenciar varios tipos de espacio probabilstico discreto:

Espacio Probabilistico Discreto Equiprobable:

Su espacio muestral es finito de tamao n.

La probabilidad de cualquier suceso elemental E es

, de aqu se deduce que para todo suceso A la probabilidad es

Espacio Probabilistico Finito

Su espacio muestral es discreto finito.

Hay al menos 2 sucesos elementales que cumplen.

SUCESO

Un suceso de un experimento aleatorio es cualquier cosa que se nos ocurra afirmar sobre dicho experimento.

suceso imposible: No tiene ningun elemento y lo representaremos por .

suceso seguro: Formado por todos los posibles resultados (es decir, al espacio muestral).

espacio de sucesos: y lo representaremos por S, al conjunto de todos los sucesos aleatorios.

OPERACIONES CON SUCESOS

1. Igualdad de sucesos: Dos sucesos A y B son iguales si estn compuestos por los mismos elementos (A = B).

2. Interseccin de sucesos: Llamaremos suceso interseccin de los sucesos A y B, al suceso que ocurre en A y B a la vez (AB).

En ocasiones podremos encontrarnos con sucesos que NO tengan elementos en comn. En estos casos se dice que los sucesos A y B son incompatibles, y su interseccin se representa con el conjunto vaco:

A B =

Evidentemente, si los sucesos s tienen interseccin, diremos que son compatibles.

3. Unin de sucesos: (AB) Suceso que ocurre en A o en B, Es decir (AB) son los elementos que estn en ambos conjuntos (aunque no necesariamente en los dos a la vez).

4. Suceso contrario de otro: Dado un suceso A, denominaremos suceso contrario A al suceso que tiene por elementos a todos aquellos que no pertenecen a A.

6. Diferencia de sucesos: Si A y B son dos sucesos, llamaremos diferencia entre A y B al suceso BA, que consta de los elementos que estn en B pero no estn en A.

Propiedades de las operaciones con sucesos.

Las operaciones con sucesos tienen las siguientes propiedades

Procesos Estocasticos Finitos Y Diagramas de rbol

Un proceso estocstico es una sucesin finita de experimentos aleatorios, cada uno de ellos con un n finito de resultados posibles. Se representan con diagrama de rbol.

Por ejemplo, imaginemos que se lanza una moneda y un dado de seis caras. La probabilidad de obtener un resultado particular corresponde a la multiplicacin de sus probabilidades. Es decir, la probabilidad de obtener cara y un tres ser:

Ahora bien, la probabilidad de un suceso cualquiera es la suma de las probabilidades de los distintos resultados aislados posibles. As, la probabilidad de sacar siempre un resultado impar en los dados, independientemente del resultado de la moneda, ser:

Espacio Probabilistico Infinito Contable

Aquel cuyo espacio muestral es discreto infinito contable. Por ejemplo

La probabilidad de que salga cara en la primera tirada ---->

La probabilidad de que salga cara en la segunda tirada ---->

La probabilidad de que salga cara en la tercera tirada ---->

Espacio Probabilistico Infinito Contable

Aquel cuyo espacio muestral es discreto infinito contable. Por ejemplo

La probabilidad de que salga cara en la primera tirada ---->

La probabilidad de que salga cara en la segunda tirada ---->

La probabilidad de que salga cara en la tercera tirada ---->

Continuos

Son aquellos espacios donde el nmero de sucesos elementales es infinito incontable.

Espacio probabilstico continuo

Espacio muestral infinito no numerable. -No es posible observar puntos concretos del espacio.

Tiene sentido hablar de intervalos observados. - No es posible asignar probabilidad a un punto concreto, se asigna a intervalos.

Por tanto la funcin P est definida sobre intervalos ----->

- Habitualmente cuando trabajamos con magnitudes fsicas.

DISTRIBUCION DE PROBABILIDAD

En teora de la probabilidad y estadstica, la distribucin de probabilidad de una variable aleatoria es una funcin que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribucin de probabilidad est definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria.

La distribucin de probabilidad est completamente especificada por la funcin de distribucin, cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x.

La distribucion normal se conoce como la CAMPANA DE GAUSS

Distribucin binomial

La probabilidad de ocurrencia de una combinacin especfica de eventos independientes y mutuamente excluyentes se determina con la distribucin binomial, que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o si/no.

Para aplicar esta distribucin al calculo de la probabilidad de obtener un nmero dado de xitos en una serie de experimentos en un proceso de Bermnoulli, se requieren tres valores: el nmero designado de xitos (m), el nmero de ensayos y observaciones (n); y la probabilidad de xito en cada ensayo (p).Entonces la probabilidad de que ocurran m xitos en un experimento de n ensayos es:P (x = m) = (nCm)(Pm)(1P)nmSiendo: nCm el nmero total de combinaciones posibles de m elementos en un conjunto de n elementos.En otras palabras P(x = m) = [n!/(m!(nm)!)](pm)(1p)nm

DISTRIBUCIONES DISCRETAS

Las distribuciones discretas incluidas en el mdulo de Clculo de probabilidades son:

Uniforme discreta.

Binomial.

Hipergeomtrica.

Geomtrica.

Binomial Negativa.

Poisson.

Distribucin Uniforme discreta

Describe el comportamiento de una variable discreta que puede tomar n valores distintos con la misma probabilidad cada uno de ellos. Esta distribucin asigna igual probabilidad a todos los valores enteros entre el lmite inferior y el lmite superior que definen el recorrido de la variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b sea mayor que a, y la variable toma los valores enteros empezando por a, a+1, a+2, etc. hasta el valor mximo b.

Distribucin Hipergeomtrica (N,R,n)

La distribucin hipergeomtrica suele aparecer en procesos muestrales sin reemplazo, en los que se investiga la presencia o ausencia de cierta caracterstica. En esta situacin, la variable que cuenta el nmero de cpsulas que no cumplen los criterios de calidad establecidos sigue una distribucin hipergeomtrica. Por tanto, esta distribucin es la equivalente a la binomial, pero cuando el muestreo se hace sin reemplazo.

Esta distribucin se puede ilustrar del modo siguiente: se tiene una poblacin finita con N elementos, de los cuales R tienen una determinada caracterstica que se llama xito (diabetes, obesidad, hbito de fumar, etc.). El nmero de xitos en una muestra aleatoria

de tamao n, extrada sin reemplazo de la poblacin, es una variable aleatoria con distribucin hipergeomtrica de parmetros N, R y n. Cuando el tamao de la poblacin es grande, los muestreos con y sin reemplazo son equivalentes, por lo que la distribucin hipergeomtrica se aproxima en tal caso a la binomial.

Valores:

x: max{0,n-(N-R)}, ..., min{R,n}, donde max{0,n-(N-R)} indica el valor mximo entre 0 y n-(N-R) y min{R,n} indica el valor mnimo entre R y n.

Parmetros:

N: tamao de la poblacin, N>0 entero

R: nmero de xitos en la poblacin, R0 entero

n: nmero de pruebas, n>0 entero

DEFINICION DE FUNCION DE DISTRIBUCION

Dada una variable aleatoria , su funcin de distribucin,, es

Por simplicidad, cuando no hay lugar a confusin, suele omitirse el subndice y se escribe, simplemente, .

Propiedades

Como consecuencia casi inmediata de la definicin, la funcin de distribucin:

Es una funcin continua por la derecha.

Es una funcin montona no decreciente.

Adems, cumple

Para dos nmeros reales cualesquiera y tal que , los sucesos y son mutuamente excluyentes y su unin es el suceso , por lo que tenemos entonces que:

TECNICAS DE CONTEO

El principio fundamental en el proceso de contar ofrece un mtodo general para contar el numero de posibles arreglos de objetos dentro de un solo conjunto o entre carios conjuntos. Las tcnicas de conteo son aquellas que son usadas para enumerar eventos difciles de cuantificar.

Si un evento A puede ocurrir de n1 maneras y una vez que este ha ocurrido, otro evento B puede n2 maneras diferentes entonces, el nmero total de formas diferentes en que ambos eventos pueden ocurrir en el orden indicado, es igual a n1 x n2.

n un nmero entero positivo, el producto

n (n-1) (n-2)...3 x 2 x 1 se llama factorial de n.

El smbolo ! se lee factorial y es el producto resultante de todos los enteros positivos de 1 a n; es decir, sea

n

5! = 5 x 4 x 3 x 2 x 1 = 120

Por definicin 0! = 1

Si, sin embargo, hay un gran nmero de posibles resultados tales como el nmero de nios y nias por familias con cinco hijos, sera tedioso listar y contar todas las posibilidades. Las posibilidades seran, 5 nios, 4 nios y 1 nia, 3 nios y 2 nias, 2 nios y 3 nias, etc.

Para facilitar el conteo examinaremos tres tcnicas:

* La tcnica de la multiplicacin

* La tecnica aditiva* La tcnica de la permutacin

Ya explicadas anterior mente.

Distribucin Geomtrica (p)

Supngase, que se efecta repetidamente un experimento o rueba, que las repeticiones son independientes y que se est interesado en la ocurrencia o no de un suceso al que se refiere como xito, siendo la probabilidad de este suceso p. La distribucin geomtrica permite calcular la probabilidad de que tenga que realizarse un nmero k de repeticiones hasta obtener un xito por primera vez

Esta distribucin presenta la denominada propiedad de Harkov o de falta de memoria, que implica que la probabilidad de tener que esperar un tiempo t no depende del tiempo que ya haya transcurrido.

Distribucin Binomial negativa (r,p)

Una generalizacin obvia de la distribucin geomtrica aparece si se supone que un experimento se contina hasta que un determinado suceso, de probabilidad p, ocurre por rsima vez. La variable aleatoria que proporciona la probabilidad de que se produzcan k fracasos antes de obtener el r-simo xito sigue una distribucin binomial negativa de parmetros r y p, BN(r,p). La distribucin geomtrica corresponde al caso particular en que r=1.

Distribucin Poisson (lambda)

La distribucin de Poisson, que debe su nombre al matemtico francs Simen Denis Poisson (1781-1840), ya haba sido introducida en 1718 por Abraham De Moivre como una forma lmite de la distribucin binomial que surge cuando se observa un evento raro despus de un nmero grande de repeticiones10. En general, la distribucin de Poisson se puede utilizar como una aproximacin de la binomial, Bin(n, p), si el nmero de pruebas n es grande, pero la probabilidad de xito p es pequea; una regla es que la aproximacin Poisson-binomial es buena si n20 y p0,05 y muy buena si n100 y p0,01.

La distribucin de Poisson tambin surge cuando un evento o suceso raro ocurre aleatoriamente en el espacio o el tiempo. La variable asociada es el nmero de ocurrencias del evento en un intervalo o espacio continuo, por tanto, es una variable aleatoria discreta que toma valores enteros de 0 en adelante (0, 1, 2,...). As, el nmero de pacientes que llegan a un consultorio en un lapso dado, el nmero de llamadas que recibe un servicio de atencin a urgencias durante 1 hora, el nmero de clulas anormales en una superficie histolgica o el nmero de glbulos blancos en un milmetro cbico de sangre son ejemplos de variables que siguen una distribucin de Poisson

El concepto de evento raro o poco frecuente debe ser entendido en el sentido de que la probabilidad de observar k eventos decrece rpidamente a medida que k aumenta. Supngase, por ejemplo, que el nmero de reacciones adversas tras la administracin de un frmaco sigue una distribucin de Poisson de media lambda=2. Si se administra este frmaco a 1.000 individuos, la probabilidad de que se produzca una reaccin adversa (k=1) es 0,27; los valores de dicha probabilidad para k=2, 3, 4, 5, 6 reacciones, respectivamente, son: 0,27; 0,18; 0,09; 0,03 y 0,01. Para k=10 o mayor, la probabilidad es virtualmente 0

DISTRIBUCIONES CONTINUAS

Las distribuciones continuas incluidas en el mdulo de Clculo de probabilidades son:

Uniforme

Normal

Lognormal

Logstica

Beta

Gamma

Exponencial

Ji-cuadrado

t de Student

F de Snedecor

Distribucin Uniforme (a,b)

La distribucin uniforme es til para describir una variable aleatoria con probabilidad constante sobre el intervalo [a,b] en el que est definida. Esta istribucin presenta una peculiaridad importante: la probabilidad de un suceso depender exclusivamente de la amplitud del intervalo considerado y no de su posicin en el campo de variacin de la variable.

Distribucin Normal (Mu, Sigma)

La distribucin normal es, sin duda, la distribucin de probabilidad ms importante del Clculo de probabilidades y de la Estadstica. Fue descubierta por De Moivre (1773), como aproximacin de la distribucin binomial. De todas formas, la importancia de la distribucin normal queda totalmente consolidada por ser la distribucin lmite de numerosas variables aleatorias, discretas y continuas, como se demuestra a travs de los teoremas centrales del lmite.

Las consecuencias de estos teoremas implican la casi universal presencia de la distribucin normal en todos los campos de las ciencias empricas: biologa, medicina, psicologa, fsica, economa, etc. En particular, muchas medidas de datos continuos

Distribucin Lognormal (Mu, Sigma)

La variable resultante al aplicar la funcin exponencial a una variable que se distribuye normal con media Mu y desviacin estndar Sigma, sigue una distribucin lognormal con parmetros Mu (escala) y Sigma (forma). Dicho de otro modo, si una variable X se distribuy normalmente, la variable lnX, sigue una distribucin lognormal.

Distribucin Logstica (a, b)

La distribucin logstica se utiliza en el estudio del crecimiento temporal de variables, en particular, demogrficas. En biologa se ha aplicado, por ejemplo, para modelar el crecimiento de clulas de levadura, y para representar curvas de dosis-respuesta en bioensayos.

Distribucin Beta (p,q)

La distribucin beta es posible para una variable aleatoria continua que toma valores en el intervalo [0,1], lo que la hace muy apropiada para modelar proporciones. En la inferencia bayesiana, por ejemplo, es muy utilizada

Distribucin Gamma (a,p)

La distribucin gamma se puede caracterizar del modo siguiente: si se est interesado en la ocurrencia de un evento generado por un proceso de Poisson de media lambda, la variable que mide el tiempo transcurrido hasta obtener n ocurrencias del evento sigue una distribucin gamma con parmetros a= nlambda (escala) y p=n (forma). Se denota Gamma(a,p).

Por ejemplo, la distribucin gamma aparece cuando se realiza el estudio de la duracin de elementos fsicos (tiempo de vida).

Esta distribucin presenta como propiedad interesante la falta de memoria. Por esta razn, es muy utilizada en las teoras de la fiabilidad, mantenimiento y fenmenos de espera (por ejemplo en una consulta mdica tiempo que transcurre hasta la llegada del segundo paciente).

Distribucin Exponencial (lambda)

La distribucin exponencial es el equivalente continuo de la distribucin geomtrica discreta. Esta ley de distribucin describe procesos en los que interesa saber el tiempo hasta que ocurre determinado evento; en particular, se utiliza para modelar tiempos de supervivencia. Un ejemplo es el tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza, por ejemplo, para la datacin de fsiles o cualquier materia orgnica mediante la tcnica del carbono 14.

Una caracterstica importante de esta distribucin es la propiedad conocida como falta de memoria. Esto significa, por ejemplo, que la probabilidad de que un individuo de edad t sobreviva x aos ms, hasta la edad x+t, es la misma que tiene un recin nacido de sobrevivir hasta la edad x. Dicho de manera ms general, el tiempo transcurrido desde cualquier instante dado t0 hasta que ocurre el evento, no depende de lo que haya ocurrido antes del instante t0.

El uso de la distribucin exponencial ha sido limitado en bioestadstica, debido a la propiedad de falta de memoria que la hace demasiado restrictiva para la mayora de los 1problemas.

Distribucin Ji-cuadrado (n)

Un caso especial, muy importante, de la distribucin Gamma se obtiene cuando a=1/2 y p=n/2. La distribucin resultante se conoce con el nombre de Ji-cuadrado con n grados de libertad. Es la distribucin que sigue la suma de los cuadrados de n variables independientes N(0,1).

Distribucin t de Student (n)

La distribucin t de Student se construye como un cociente entre una normal y la raz de una Ji-cuadrado independientes. Esta distribucin desempea un papel importante en la inferencia estadstica asociada a la teora de muestras pequeas. Se usa habitualmente en el contraste de hiptesis para la media de una poblacin, o para comparar las medias de dos poblaciones, y viene definida por sus grados de libertad n.

A medida que aumentan los grados de libertad, la distribucin t de Student se aproxima a una normal de media 0 y varianza 1 (normal estndar).

Campo de variacin:

- < x <

Parmetros:

n: grados de libertad, n>0

Distribucin F de Snedecor (n,m)

Otra de las distribuciones importantes asociadas a la normal es la que se define como el cociente de dos variables con distribucin Ji-cuadrado divididas por sus respectivos grados de libertad, n y m.

En este caso la variable aleatoria sigue una distribucin F de Snedecor de parmetros n y m. Hay muchas aplicaciones de la F en estadstica y, en particular, tiene un papel importante en las tcnicas del anlisis de la varianza y del diseo de experimentos.