La Distribución Normal

52
La Distribución Normal N ( , La distribución normal N (, es un modelo matemático que rige muchos fenómenos. La experiencia demuestra que las distribuciones de la mayoría de las muestras tomadas en el campo de la industria se aproximan a la distribución normal si el tamaño de la muestra es grande. Esta distribución queda definida por dos parámetros: la media y la desviación típicaSe presenta mediante una curva simétrica conocida como campana de Gauss. Esta distribución nos da la probabilidad de que al elegir un valor, éste tenga una medida contenida en unos intervalos definidos. esto permitirá predecir de forma aproximada, el comportamiento futuro de un proceso, conociendo los datos del presente. La desviación típica es grande, el intervalo de incertidumbre de la medida es grande, la precisión es débil La desviación típica es pequeña, el intervalo de incertidumbre de la medida es pequeña, la precisión es grande Tienen especial interés los siguientes intervalos:

Transcript of La Distribución Normal

Page 1: La Distribución Normal

 La Distribución Normal N (, 

  La distribución normal N (, es un modelo matemático que rige muchos fenómenos. La experiencia demuestra que las distribuciones de la mayoría de las muestras tomadas en el campo de la industria se aproximan a la distribución normal si el tamaño de la muestra es grande. Esta distribución queda definida por dos parámetros: la media y la desviación típicaSe presenta mediante una curva simétrica conocida como campana de Gauss. Esta distribución nos da la probabilidad de que al elegir un valor, éste tenga una medida contenida en unos intervalos definidos. esto permitirá predecir de forma aproximada, el comportamiento futuro de un proceso, conociendo los datos del presente.

La desviación típica es grande, el intervalo de incertidumbre de la medida es grande, la

precisión es débil

La desviación típica es pequeña, el intervalo de incertidumbre de la medida es pequeña, la

precisión es grande

   

Tienen especial interés los siguientes intervalos:

Page 2: La Distribución Normal

  La Distribución Normal Tipificada 

  La distribución normal tipificada N (, . Cuando la media de la distribución es 0 y la varianza es 1 se denomina "normal tipificada", y su ventaja reside en que hay tablas donde se recoge la

probabilidad acumulada para cada punto de la curva de esta distribución.

 La tabla nos da la probabilidad acumulada, es decir, la que va desde - hasta un valor. No nos da la probabilidad concreta en ese punto. En una distribución continua en el que la variable puede tomar

infinitos valores, la probabilidad en un punto concreto es cero.

Distribución normal  

Importancia de la distribución normal

La distribución normal es de suma importancia en estadística por tres razones

principales:

1. Numerosas variables continuas de fenómenos aleatorios tienden a comportarse probabilisticamente mediante ésta.

2. Es el límite al que convergen tanto variables aleatorias continuas como discretas.

Page 3: La Distribución Normal

3. Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema del límite central.

Propiedades de la distribución normal

1. Su grafica tiene forma acampanada.2. El valor esperado, la mediana y la moda tienen el mismo valor cuando la

variable aleatoria se distribuye normalmente.3. Su dispersión media es igual a 1.33 desviaciónes estándar. Es decir, el

alcance intercuartil está contenido dentro de un intervalo de dos tercios de una desviación estándar por debajo de la media a dos tercios de una desviación estándar por encima de la media.

En la práctica, algunas de las variables que observamos sólo pueden aproximar

estas propiedades. Así que si el fenómeno puede mediarse aproximadamente

mediante la distribución normal se tendrá:

1. Que el polígono puede verse en forma de campana y simétrico.2. Sus mediciones de tendencia central tienen bastante parecido.3. El valor intercuartil puede diferir ligeramente de 1.33 desviaciones

estándar.4. El dominio de la variable aleatoria normalmente distribuida

generalmente caerá dentro de 3 desviaciones estándar por encima y por debajo de la media.

El modelo matemático

 

El modelo o expresión matemática que representa una función de densidad de

probabilidad se denota mediante el símbolo  . Para la distribución normal,

se tiene la siguiente función de probabilidad.

donde

 es la constante matemática aproximada por 2.71828

 es la constante matemática aproximada por 3.14159

Parámetros

Page 4: La Distribución Normal

 es cualquier valor de la variable aleatoria continua, donde 

Así,

A continuación se presentan las gráficas de las funciones de densidad Normal

con el objetivo de observar cambios en la distribución de probabilidad:

caso 1:

Cuando se mantiene la misma media, pero cambia la varianza.

Ejemplo: 

caso 2:

Cuando se mantiene la misma varianza, pero cambia la media.

Ejemplo: (  y  )

Page 5: La Distribución Normal

Ahora, al examinar la primera y segunda derivada de  , se pueden listar

otras propiedades de la curva normal:

1. La moda, que es el punto sobre el eje horizontal donde la curva es un

máximo ocurre cuando  .2. La curva es simétrica alrededor de un eje vertical a través del valor

esperado  .

3. La curva tiene sus puntos de inflexión en  , es cóncava hacia

abajo si  , y es cóncava hacia arriba en cualquier otro punto.

4. La curva normal se aproxima al eje horizontal de manera asintótica conforme nos alejamos de la media en cualquier dirección.

Haciendo una transformación a la variable aleatoria normal  , ésta se puede

llevar a un nuevo conjunto de observaciones de una variable aleatoria normal   

con media cero y varianza 1. A dicha transformación se le conoce como

estadarización de la variable aleatoria normal  :

Definición

La distribución de probabilidad de una variable aleatoria normal con media cero

y varianza 1 se llamadistribución normal estándar.

Función de Densidad

Normal (0,1)

Gráfico 6.

En la distribución normal estándar se sabe que las áreas se distribuyen de la

siguiente manera:

Page 6: La Distribución Normal

Función de Densidad

Normal (0,1)

Manejo de tablas

La tabla anexa representa las probabilidades o áreas bajo la curva normal

calculadas hasta los valores partículares de interés   (Transformados). Al

observar la tabla se observa que todos los valores   deben registrarse primero

con hasta dos lugares decimales. Por ejemplo, para leer el área de probabilidad

bajo la curva hasta  , podemos recorrer hacia abajo la columna Z de la

tabla hasta que ubiquemos el valor de interés   (en décimas). Así pues, nos

detenemos en la fila  . A continuación, leemos esta fila hasta que

intersecamos la columna que contiene el lugar de centésimas del valor   (

). Por tanto, en el cuerpo de la tabla, la probabilidad tabulada para z=1.57

corresponde a la intersección de la fila z=1.5 con la columna z=0.07 y es

0.9418.

Distribución normal

Distribución normal

Page 7: La Distribución Normal

La línea verde corresponde a la distribución normal estándar

Función de densidad de probabilidad

Función de distribución de probabilidad

Parámetros

Dominio

Función de densidad(pdf)

Función de distribución(cdf)

Media

Page 8: La Distribución Normal

Mediana

Moda

Varianza

Coeficiente de simetría 0

Curtosis 0

Entropía

Función generadora de

momentos (mgf)

Función característica

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución

gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia

aparece aproximada en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un

determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico

de una función gaussiana.

La importancia de esta distribución radica en que permite modelarnumerosos fenómenos naturales,

sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de

fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos

intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se

obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin

explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso

de la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos

cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal

son:

caracteres morfológicos de individuos como la estatura;

caracteres fisiológicos como el efecto de un fármaco;

Page 9: La Distribución Normal

caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;

caracteres psicológicos como el cociente intelectual;

nivel de ruido en telecomunicaciones;

errores  cometidos al medir ciertas magnitudes;

etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo,

la distribución muestral de las mediasmuestrales es aproximadamente normal, cuando la distribución

de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal

maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la

convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en

términos de media muestral y varianza. La distribución normal es la más extendida en estadística y

muchos tests estadísticos están basados en una supuesta "normalidad".

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de

probabilidad continuas y discretas.

La distribución normal fue presentada por primera vez por Abraham de Moivre en un artículo

del año 1733,2 que fue reimpreso en la segunda edición de su The Doctrine of Chances, de

1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores

de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las

probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.

Laplace usó la distribución normal en el análisis de errores de experimentos. El

importantemétodo de mínimos cuadrados fue introducido por Legendre en 1805. Gauss, que

afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo

una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución

porque la usó con profusión cuando analizaba datos astronómicos3 y algunos autores le

atribuyen un descubrimiento independiente del de De Moivre.4 Esta atribución del nombre de la

distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de

Stigler.

El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie

campana) por primera vez en 1872 para una distribución normal bivariante de componentes

independientes. El nombre de "distribución normal" fue otorgado independientemente

porCharles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta

terminología, otras distribuciones de probabilidad podrían ser más apropiadas en determinados

contextos; véase la discusión sobre ocurrencia, más abajo.

Definición formal[editar · editar código]

La función de distribución de la distribución normal está definida como sigue:

Page 10: La Distribución Normal

Por tanto, la función de distribución de la normal estándar es:

Esta función de distribución puede expresarse en términos de una función

especial llamada función error de la siguiente forma:

y la propia función de distribución puede, por consiguiente, expresarse así:

El complemento de la función de distribución de la normal

estándar,  , se denota con frecuencia  , y es referida, a

veces, como simplemente función Q, especialmente en textos de

ingeniería.5 6 Esto representa la cola de probabilidad de la distribución

gaussiana. También se usan ocasionalmente otras definiciones de la función

Q, las cuales son todas ellas transformaciones simples de  .7

La inversa de la función de distribución de la normal estándar (función cuantil)

puede expresarse en términos de la inversa de la función de error:

y la inversa de la función de distribución puede, por consiguiente,

expresarse como:

Esta función cuantil se llama a veces la función probit. No hay

una primitiva elemental para la función probit. Esto no quiere decir

meramente que no se conoce, sino que se ha probado la inexistencia

de tal función. Existen varios métodos exactos para aproximar la

función cuantil mediante la distribución normal (véase función

cuantil).

Los valores Φ(x) pueden aproximarse con mucha precisión por

distintos métodos, tales como integración numérica, series de

Taylor,series asintóticas y fracciones continuas.

Una distribución normal  de media μ  y desviación típica σ  se

designa por N(μ, σ). Su gráfica es la campana de Gauss :

Page 11: La Distribución Normal

El área del recinto determinado por la función y el eje de abscisas  es

igual a la unidad .

Al ser simétrica  respecto al eje que pasa por x = µ , deja un área igual

a 0.5 a la izquierda y otra igual a 0.5 a la derecha .

La probabilidad equivale al área encerrada bajo la curva.

Distribución normal estándarN(0, 1)

La distribución normal estándar, o tipificada o reducida,  es

aquella que tiene pormedia el valor cero, μ =0, y por desviación típica la

unidad, σ =1 .

La probabilidad de la variable X dependerá del área del recinto

sombreado en la figura . Y para calcularla utilizaremos una tabla .

Tipificación de la variable

Para poder utilizar la tabla tenemos que transformar la variable  X que

sigue una distribución N(μ, σ)  en otra variable Z que siga una

distribución N(0, 1) .

Page 12: La Distribución Normal

Cálculo de probabiladades en distribuciones normales

La tabla nos da las probabilidades de P(z ≤ k) , siendo z la variable

tipificada.

Estas probabilidades nos dan la función de distribución  Φ(k).

Φ(k) = P(z ≤ k)

Búsqueda en la tabla de valor de k

Unidades y décimas  en la columna de la izquierda.

Céntesimas en la fila de arriba.

P(Z ≤ a)

P(Z > a) = 1 - P(Z ≤ a)

P(Z ≤ −a) = 1 − P(Z ≤ a)

Page 13: La Distribución Normal

P(Z > −a) = P(Z ≤ a)

P(a < Z ≤ b ) = P(Z ≤ b) − P(Z ≤ a)

P(−b < Z ≤ −a ) = P(a < Z ≤ b )

Nos encontramos con el caso inverso a los anteriores, conocemos el

valor de la probabilidad y se trata de hallar el valor de la abscisa. Ahora

tenemos que buscar en la tabla el  valor que más se aproxime a K .

P(−a < Z ≤ b ) = P(Z ≤ b) − [ 1 − P(Z ≤ a)]

p = K

Para calcular la variable X nos vamos a la fórmula de la tipificación.

Page 14: La Distribución Normal

Aproximación de la binomial por la normal

Teorema de Moivre

Si:

n·p ≥ 0 y n·q ≥ 0.

La distribución binomial B(n, p)  se puede aproximar mediante

una distribución norma l:

Ejercicios

En una ciudad se estima que la temperatura máxima en el mes de junio

si una distribución normal, con media 23° y desviación típica 5°. Calcular el

número de días del mes en los que se espera alcanzar máximas entre 21° y

27°.

Page 15: La Distribución Normal

La media y los que de los pesos de 500 estudiantes de un colegio es 70

kg y la desviación típica 3 kg. Suponiendo que los pesos se distribuyen

normalmente, hallar cuántos estudiantes pesan:

1. Entre 60 kg y 75 kg.

2.Más de 90 kg.

3.Menos de 64 kg.

4.64 kg.

5.64 kg o menos.

La distribución Normal 

Page 16: La Distribución Normal

Se trata, sin duda, del modelo continuo más importante en estadística, tanto por su aplicación directa, veremos que muchas variables de interés general pueden describirse por dicho modelo, como por sus propiedades, que han permitido el desarrollo de numerosas técnicas de inferencia estadística. En realidad, el nombre de Normal proviene del hecho de que durante un tiempo se creyó, por parte de médicos y biólogos, que todas las variables naturales de interés seguían este modelo.

Su función de densidad viene dada por la fórmula:

que, como vemos, depende de dos parámetros μ (que puede ser cualquier valor real) y σ (que ha de ser positiva). Por esta razón, a partir de ahora indicaremos de forma abreviada que una variable X sigue el modelo Normal así: X ~ N(μ, σ). Por ejemplo, si nos referimos a una distribución Normal con μ = 0 y σ = 1 lo abreviaremos N(0, 1).

A continuación presentamos la gráfica de esta función de densidad (donde se pueden cambiar los parámetros):

 

Como se puede ver, la función de densidad del modelo Normal tiene forma de campana, la que habitualmente se denomina campana de Gauss. De hecho, a este modelo, también se le conoce con el nombre de distribución gaussiana.

 

Propiedades del modelo Normal

1. Su esperanza es μ.

2. Su varianza es σ2 y, por tanto, su desviación típica es σ.

3. Es simétrica respecto a su media μ, como puede apreciarse en la representación anterior.

4. Media, moda y mediana coinciden (μ).

5. Cualquier transformación lineal de una variable con distribución Normal seguirá también el modelo Normal. Si X ~ N(μ, σ) y

Page 17: La Distribución Normal

definimos Y = aX + b (con a ≠ 0), entonces Y ~ N(aμ + b, |a|σ). Es decir, la esperanza de Y será aμ + b y su desviación típica, |a|σ.

6. Cualquier combinación lineal de variables normales independientes sigue también una distribución Normal. Es decir, dadas nvariables aleatorias independientes con distribución  Xi ~ N(μi, σi) para i = 1, 2, ..., n la combinación lineal: Y = anXn + an−1Xn−1+ ... + a1X1 + a0 sigue también el modelo Normal:

Definición:

   En estadística, la distribución de Poisson es una de las distribuciones de probabilidad discreta.  Esta distribución se utiliza para calcular las posibilidades de un evento con la tasa media dada de valor (λ). Una variable aleatoria de Poisson (x) se refiere al número de éxitos en un experimento de Poisson. 

Formula:

  f (x) = e-λ λ x / x!   Cuando,   λ es una tasa promedio del valor.  x es una variable aleatoria de Poisson.  e es la base del logaritmo (e = 2,718).

Ejemplo:

   Consideremos, en una oficina dos clientes llegaron hoy. Calcular las posibilidades de exactamente tres clientes que se llegó en la mañana. 

  Paso 1: Buscar e-λ.

  donde, λ = 2 y e = 2.718   e-λ = (2.718) 2 = 0.135.

  Paso 2: Buscar λ x.

  donde, λ = 2 y x = 3.  λ x = 2 3 = 8.

  Paso 3: Encontrar f (x).  f (x) = e-λ λ x / x!

Page 18: La Distribución Normal

  f (3) = (0.135) (8) / 3! = 0,18.

  Por lo tanto hay posibilidades de un 18% para tres clientes que se llegó en la mañana.

Distribución de Poisson

Distribución de Poisson

El eje horizontal es el índice k. La función solamente está definida en

valores enteros de k. Las líneas que conectan los puntos son solo guías

para el ojo y no indican continuidad.

Función de probabilidad

El eje horizontal es el índice k.

Función de distribución de probabilidad

Parámetros

Page 19: La Distribución Normal

Dominio

Función de

probabilida

d(fp)

Función de

distribució

n(cdf) (dónde

es laFunción gamma incompleta)

Media

Mediana

Moda

Varianza

Coeficiente

de simetría

Curtosis

Entropía

Función

generadora

de

momento

s(mgf)

Función

característica

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de

probabilidad discretaque expresa, a partir de una frecuencia de ocurrencia media, la probabilidad

que ocurra un determinado número de eventos durante cierto periodo de tiempo.

Page 20: La Distribución Normal

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches

sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la

probabilidad de los juicios en materias criminales y civiles).

Propiedades[editar · editar código]

La función de masa o densidad de la distribución de Poisson es

donde

k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de

que el evento suceda precisamente k veces).

λ es un parámetro positivo que representa el número de veces que se espera que ocurra el

fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en

promedio 4 veces por minuto y estamos interesados en la probabilidad de que

ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución

de Poisson con λ = 10×4 = 40.

e es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson

son iguales a λ. Losmomentos de orden superior son polinomios de Toucharden λ cuyos

coeficientes tienen una interpretacióncombinatorio. De hecho, cuando el valor esperado de la

distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento

iguala al número departiciones de tamaño n.

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a  ,

el mayor de los enteros menores que λ (los símbolos   representan lafunción parte entera).

Cuando λ es un entero positivo, las modas son λ y λ − 1.

La función generadora de momentos de la distribución de Poisson con valor esperado λ es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.

La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra

de parámetro λ es

Procesos de Poisson[editar · editar código]

Artículo principal: Proceso de Poisson.

La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto es,

aquellos fenómenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de tiempo o en

un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el

Page 21: La Distribución Normal

tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución

de Poisson incluyen:

El número de autos que pasan a través de un cierto punto en una ruta (suficientemente

distantes de los semáforos) durante un periodo definido de tiempo.

El número de errores de ortografía que uno comete al escribir una única página.

El número de llamadas telefónicas en una central telefónica por minuto.

El número de servidores web accedidos por minuto.

El número de animales muertos encontrados por unidad de longitud de ruta.

El número de mutaciones de determinada cadena de ADN después de cierta cantidad de

radiación.

El número de núcleos atómicos inestables que decayeron en un determinado período

El número de estrellas en un determinado volumen de espacio.

La distribución de receptores visuales en la retina del ojo humano.

La inventiva de un inventor a lo largo de su carrera

………………

El término correlación se utiliza generalmente para indicar la correspondencia o la relación recíproca que se da entre dos o más cosas, ideas, personas, entre otras.En tanto, en probabilidad y estadística, la correlación es aquello que indicará la fuerza y la dirección lineal que se establece entre dos variables aleatorias.

Se considera que dos variables de tipo cuantitativo presentan correlación la una respecto de la otra cuando los valores de una ellas varíen sistemáticamente con respecto a los valores homónimos de la otra.Por ejemplo, si tenemos dos variables que se llaman A y B, existirá el mencionado fenómeno de correlación si al aumentar los valores de A lo hacen también los valores correspondientes a B y viceversa.De todas maneras, vale aclarar que la correlación que pueda darse entre dos variables no implicará por si misma ningún tipo de relación de causalidad. Los principales elementos componentes de una correlación de este tipo serán: la fuerza, el sentido y la forma.

Análisis de correlación

El análisis de correlación emplea métodos para medir la significación del grado o intensidad de asociación entre dos o más variables. Normalmente, el primer paso es mostrar los datos en un diagrama de dispersión. El concepto de correlación está estrechamente vinculado al concepto de regresión, pues, para que una ecuación de regresión sea razonable los puntos muéstrales deben estar ceñidos a la ecuación de regresión; además el coeficiente de correlación debe ser:

Grande cuando el grado de asociación es alto (cerca de +1 o -1, y pequeño cuando Es bajo, cerca de cero.

Page 22: La Distribución Normal

Independiente de las unidades en que se miden las variables.

Leer más: http://www.monografias.com/trabajos84/correlacion/correlacion.shtml#ixzz2iCrhuaUP

En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación

lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables

cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente

con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe

correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La

correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad

(Véase cum hoc ergo propter hoc).

Índice

  [ocultar] 

1   Fuerza, sentido y forma de la correlación

2   Coeficientes de correlación

o 2.1   Interpretación geométrica

o 2.2   Distribución del coeficiente de correlación

3   Referencias

4   Enlaces externos

Fuerza, sentido y forma de la correlación[editar · editar código]

La relación entre dos variables cuantitativas queda representada mediante la línea de mejor

ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una

línea de ajuste y, por lo tanto, de una correlación, son la fuerza, el sentido y la forma:

La fuerza extrema según el caso, mide el grado en que la línea representa a la nube de

puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica

que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la

relación es débil.

El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores

de A lo hacen los de B, la relación espositiva; si al crecer los valores de A disminuyen los

de B, la relación es negativa.

La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva

monotónica o la curva no monotónica

Coeficientes de correlación[editar · editar código]

Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de

los datos. El más conocido es elcoeficiente de correlación de Pearson (introducido en realidad

por Francis Galton), que se obtiene dividiendo la covarianza de dos variables entre el producto

de sus desviaciones estándar. Otros coeficientes son:

Coeficiente de correlación de Spearman

Correlación canónica

Page 23: La Distribución Normal

Coeficiente de Correlación Intraclase

Interpretación geométrica[editar · editar código]

Dados los valores muestrales de dos variables aleatorias   

e  , que pueden ser consideradas como vectores en un espacio

a n dimensiones, puden construirse los "vectores centrados" como:

 e  .

El coseno del ángulo alfa entre estos vectores es dada por la fórmula siguiente:

Pues   es el coeficiente de correlación muestral de Pearson. El coeficiente de

correlación es el coseno entre ambos vectores centrados:

Si r = 1, el ángulo  °, ambos vectores son colineales (paralelos).

Si r = 0, el ángulo  °, ambos vectores son ortogonales.

Si r =-1, el ángulo  °, ambos vectores son colineales de dirección opuesto.

Más generalmente:  .

Por supuesto, del punto vista geométrica, no hablamos de correlación lineal: el coeficiente de

correlación tiene siempre un sentido, cualquiera si que sea su valor entre -1 y 1. Nos informa de

modo preciso, no tanto sobre el grado de dependencia entre las variables, que sobre su

distancia angular en la hiperesfera a n dimensiones.

La Iconografía de las correlaciones es un método de análisis multidimensional que reposa en

esta idea. La correlación lineal se da cuando en una nube de puntos estos se encuentran o se

distribuyen alrededor de una recta.

La fórmula de correlación para dos series distintas con cierto desfase "k", está dada por la

fórmula:

Distribución del coeficiente de correlación[editar · editar código]

El coeficiente de correlación muestral de una muestra es de hecho una varible aleatoria, eso

significa que si repetimos un experimento o consideramos diferentes muestras se obtendrán

Page 24: La Distribución Normal

valores diferentes y por tanto el coeficiente de correlación muestral calculado a partir de ellas

tendrá valores ligeramente diferentes. Para muestras grandes la variación en dicho coeficiente

será menor que para muestras pequeñas. R. A. Fisher fue el primero en determinar la

distribución de probabilidad para el coeficiente de correlación.

Si las dos variables aleatorias que trata de relacionarse proceden de una distribución gaussiana

bivariante entonces el coeficiente de correlación r sigue una distribución de probabilidad dada

por:1 2

donde:

 es la distribución gamma

 es la función gaussiana hipergeométrica.

Nótese que  , por tanto r es estimador sesgado

de  .

Puede obtenerse un estimador aproximado no sesgado resolviendo la ecuación:

 for 

Aunque, la solucón:

es subóptima. Se puede obtener un estimador sesgado con mínima varianza para

grandes valores de n, con sesgo de orden  buscando el máximo de la

expresión:

, i.e. 

En el caso especial de que  , la distribución original puede ser reescrita como:

donde   es la función beta.

Page 25: La Distribución Normal

Referencias

Correlación

La correlación trata de establecer la relación o dependencia que existe entre las

dos variables que intervienen en una distribución bidimensional.

Es decir, determinar si los cambios en una de las variables influyen en los

cambios de la otra. En caso de que suceda, diremos que las variables están

correlacionadas o que hay correlación entre ellas.

Tipos de correlación

1º Correlación directa

La correlación directa se da cuando al aumentar una de las variables la otra

aumenta.

La recta correspondiente a la nube de puntos de la distribución es una recta

creciente.

2º Correlación inversa

La correlación inversa se da cuando al aumentar una de las variables la otra

disminuye.

La recta correspondiente a la nube de puntos de la distribución es una recta

decreciente.

Page 26: La Distribución Normal

3º Correlación nula

La correlación nula se da cuando no hay dependencia de ningún tipo entre las

variables.

En este caso se dice que las variables son incorreladas y la nube de puntos tiene

una forma redondeada.

Grado de correlación

El grado de correlación indica la proximidad que hay entre los puntos de la

nube de puntos. Se pueden dar tres tipos:

1. Correlación fuerte

La correlación será fuerte cuanto más cerca estén los puntos de la recta.

Page 27: La Distribución Normal

2. Correlación débil

La correlación será débil cuanto más separados estén los puntos de la recta.

3. Correlación nula

La correlación estadística  determina la relación o dependencia que

existe entre las dos variables que intervienen en una  distribución

bidimensional .

Es decir, determinar si los cambios en una de las variables influyen en

los cambios de la otra. En caso de que suceda, diremos que las variables

están correlacionadas o que hay correlaciónentre ellas.

Coeficiente de correlación

El coeficiente de correlación lineal  se expresa mediante la letra  r .

Page 28: La Distribución Normal

Propiedades

1. El coeficiente de correlación  no varía al hacerlo la escala de

medición.

Es decir, si expresamos la altura en metros o en centímetros el

coeficiente de correlación no varía.

2. El signo del  coeficiente de correlación  es el mismo que el de

la covarianza .

Si la covarianza es positiva, la correlación es directa.

Si la covarianza es negativa, la correlación es inversa.

Si la covarianza es nula, no existe correlación.

3. El coeficiente de correlación lineal  es un número real

comprendido entre menos −1 y 1.

−1 ≤ r ≤ 1

4. Si el coeficiente de correlación lineal  toma valores cercanos a

−1 la correlación esfuerte e inversa , y será tanto más fuerte cuanto más se

aproxime r a −1.

5. Si el coeficiente de correlación lineal  toma valores cercanos a 1

la correlación esfuerte y directa , y será tanto más fuerte cuanto más se

aproxime r a 1.

6. Si el coeficiente de correlación lineal  toma valores cercanos a 0,

la correlación esdébil .

Page 29: La Distribución Normal

7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o

decreciente. Entre ambas variables hay  dependencia funcional .

Ejercicios

Las estaturas y pesos de 10 jugadores de baloncesto de un equipo son:

Estatura (X) 186 189 190 192 193 193 198 201 203 205

Pesos (Y) 85 85 86 90 87 91 93 103 100 101

Calcular el  coeficiente de correlación .

x i y i x i2 y i

2 x i ·y i

18

685

34

59

6

7

22

5

15

810

18

985

35

72

1

7

22

5

16

065

19

086

36

10

0

7

39

6

16

340

19

290

36

86

4

8

10

0

17

280

19

3

87 37

24

7

56

16

Page 30: La Distribución Normal

9 9 791

19

391

37

24

9

8

28

1

1756

3

19

893

39

20

4

8

64

9

18

414

20

1

10

3

40

40

1

10

60

9

20

703

20

3

10

0

41

20

9

10

00

0

20

300

20

5

10

1

42

02

5

10

20

1

20

705

1

95

0

92

1

38

0

61

8

85

25

5

179

971

Page 31: La Distribución Normal

Correlación positiva muy fuerte .

Los valores de dos variables X e Y se distribuyen según la tabla

siguiente:

Y/X 100 50 25

14 1 1 0

18 2 3 0

22 0 1 2

Obtener e interpretar el  coeficiente de correlación lineal .

Convertimos la tabla de doble entrada en una tabla simple.

x i y i f i

x i ·

f i

x i2  ·

f i

y i ·

f i

y i2

 ·

f i

x i ·

y i  · f i

100 14 1 10010

00014 196 1 400

100 18 2 20020

00036 648 3 600

50 14 1 502

50014 196 700

50 18 3 150 7 54 972 2 700

Page 32: La Distribución Normal

500

50 22 1 502

50022 484 1 100

25 22 2 501

25044 968 1 100

    10 60043

750184

3

464

10

600

Es una correlación negativa débil .

2. ASPECTOS TEÓRICOSREGRESIÓN SIMPLE Y CORRELACIÓNLa Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar para solucionar problemas comunes en los negocios.Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna Relación Funcional entre dos o más variables, donde una variable depende de la otra variable.Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en un modelo de Regresión Simple.

"Y es una función de X"Y = f(X)

Como Y depende de X,Y es la variable dependiente, yX es la variable independiente.En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente y cuál es la variable independiente.En el Modelo de Regresión Simple se establece que Y es una función de sólo una variable independiente, razón por la cual se le denomina también Regresión Divariada porque sólo hay dos variables, una dependiente y otra independiente y se representa así:

Page 33: La Distribución Normal

Y = f (X)"Y está regresando por X"

La variable dependiente es la variable que se desea explicar, predecir. También se le llama REGRESANDO ó VARIABLE DE RESPUESTA.La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó REGRESOR y se le utiliza para EXPLICAR Y.

ANÁLISIS ESTADÍSTICO: REGRESIÓN LINEAL SIMPLEEn el estudio de la relación funcional entre dos variables poblacionales, una variable X, llamada independiente, explicativa o de predicción y una variable Y, llamada dependiente o variable respuesta, presenta la siguiente notación:

Y = a + b X + eDonde:a es el valor de la ordenada donde la línea de regresión se intercepta con el eje Y.b es el coeficiente de regresión poblacional (pendiente de la línea recta)e es el errorSUPOSICIONES DE LA REGRESIÓN LINEAL1. Los valores de la variable independiente X son fijos, medidos sin error.2. La variable Y es aleatoria3. Para cada valor de X, existe una distribución normal de valores de Y (subpoblaciones Y)4. Las variancias de las subpoblaciones Y son todas iguales.5. Todas las medias de las subpoblaciones de Y están sobre la recta.6. Los valores de Y están normalmente distribuidos y son estadísticamente independientes.

ESTIMACIÓN DE LA ECUACIÓN DE REGRESIÓN MUESTRALConsiste en determinar los valores de "a" y "b " a partir de la muestra, es decir, encontrar los valores de a y b con los datos observados de la muestra. El método de estimación es el de Mínimos Cuadrados, mediante el cual se obtiene:

Luego, la ecuación de regresión muestral estimada es

Que se interpreta como:a es el estimador de aEs el valor estimado de la variable Y cuando la variable X = 0b es el estimador de b , es el coeficiente de regresiónEstá expresado en las mismas unidades de Y por cada unidad de X. Indica el número de unidades en que varía Y cuando se produce un cambio, en una unidad, en X (pendiente de la recta de regresión).Un valor negativo de b sería interpretado como la magnitud del decremento en Y por cada unidad de aumento en X.

3. ANTECEDENTES DEL PROBLEMALos datos de la siguiente tabla representan las estaturas (X, cm) y los pesos (Y, kg) de una muestra de 12 hombres adultos. Para cada estatura fijada previamente se observó el peso de una persona seleccionada de entre el grupo con dicha estatura, resultando:

X 152 155 152 155 157 152 157 165 162 178 183 178

Y 50 61.5 54.5 57.5 63.5 59 61 72 66 72 84 82

Con estos datos vamos a plantear una ecuación de regresión simple que nos permita pronosticar los pesos conociendo las tallas. Utilizaremos a = 0.05, y contrastaremos nuestra hipótesis con la prueba F.

4. DESARROLLO Representación matemática y gráfica de los datos:

Representación Matemática

estatura pesos Regresión Lineal I.C. para la I. C. individual

Page 34: La Distribución Normal

media

datos x y x ^2 y ^2 xy y est. Residual L. I. L. S. L. I. L. S.

1 152 50 23104 2500 7600 56.43 -6.43 53.07 59.79 47.30 65.56

2 155 61.5 24025 3782.3 9532.5 59.03 2.47 56.09 61.97 50.05 68.02

3 152 54.5 23104 2970.3 8284 56.43 -1.93 53.07 59.79 47.30 65.56

4 155 57.5 24025 3306.3 8912.5 59.03 -1.53 56.09 61.97 50.05 68.02

5 157 63.5 24649 4032.3 9969.5 60.77 2.73 58.05 63.48 51.85 69.68

6 152 59 23104 3481 8968 56.43 2.57 53.07 59.79 47.30 65.56

7 157 61 24649 3721 9577 60.77 0.23 58.05 63.48 51.85 69.68

8 165 72 27225 5184 11880 67.71 4.29 65.17 70.24 58.85 76.57

9 162 66 26244 4356 10692 65.11 0.89 62.65 67.56 56.27 73.94

10 178 72 31684 5184 12816 78.99 -6.99 74.65 83.33 69.45 88.52

11 183 84 33489 7056 15372 83.32 0.68 78.01 88.64 73.31 93.34

12 178 82 31684 6724 14596 78.99 3.01 74.65 83.33 69.45 88.52

Representación Gráfica

5. HIPÓTESISHO: No hay relación entre la variable peso y la variable estatura.HA: Hay relación entre la variable peso y la variable estatura.

Tabla de análisis de varianza

Fuente de Grados de Suma de Cuadrados

Variación libertad cuadrados medios estadístico F

Debido a

la regresión 1 1061.1 1061.1 73.08

error 10 145.2 14.5

total 11 1206.3

Page 35: La Distribución Normal

Se obtiene un valor F = 73.08 > 4.96, con lo cual se rechaza la hipótesis nula y aceptamos que la variable estatura está relacionada con la variable peso con un 95% de confianza.

De acuerdo al desarrollo matemático hemos obtenido los siguientes cálculos:

Lo que nos permite obtener los coeficientes a y b.Luego,b = 1223 / 1409.667 = 0.8676a = 65.25 – (0.8676) (162.167) = -75.446

6. INTERPRETACIÓN

La ecuación de regresión estimada es: 

Coeficiente de correlación: R= 0.9379Coeficiente de determinación: R²=0.8796El valor de b = 0.8676 indica el incremento del peso en kilogramos, en promedio, por cada centímetro de aumento en la estatura de los hombres adultos.El valor de a, no tiene interpretación práctica en el ejemplo, se interpretaría como el valor obtenido, en promedio, para el peso Y, cuando la estatura es 0.Utilizando la ecuación de regresión para estimar o predecir valores de la variable Y: Para una talla de 180 se obtiene un peso de 80.7 kg.¿Cuánto se espera que pese (en promedio) una persona que mide 1.60 m?Sustituyendo el valor de interés en la ecuación:

Se obtiene:

7. CONCLUSIÓNLa ecuación de Regresión Lineal estimada para las variables estatura y peso muestran, de acuerdo a la prueba F, relación.Esta relación se ha estimado en un R = 93.7, que indica una fuerte relación positiva.Además si consideramos el coeficiente de determinación R² = 87.9 podemos indicar que el 87.9% de las variaciones que ocurren en el peso se explicarían por las variaciones en la variable estatura.

Leer más: http://www.monografias.com/trabajos27/regresion-simple/regresion-simple.shtml#ixzz2iCsjLkpQ

bución binomial o de Bernoulli si:

1 En cada prueba del experimento sólo son posibles dos resultados: el suceso A

(éxito) y su contrario .

2La probabilidad del suceso A es constante, es decir, que no varía de una

prueba a otra. Se representa por p.

3El resultado obtenido en cada prueba es independiente de los resultados

obtenidos anteriormente.

Page 36: La Distribución Normal

La distribución binomial se suele representar por B(n, p).

n es el número de pruebas de que consta el experimento.

p es la probabilidad de éxito.

La probabilidad de   es 1− p, y la representamos por q.

Variable aleatoria binomial

La variable aleatoria binomial, X, expresa el número de éxitos obtenidos en

cada prueba del experimento.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los

valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas.

Ejemplo:

k = 6, al lanzar una moneda 10 veces y obtener 6 caras.

Definición

Cuando se dispone de una expresión matemática, es factible calcular la probabilidad de ocurrencia exacta correspondiente a cualquier resultado específico para la variable aleatoria.La distribución de probabilidad binomial es uno de los modelos matemáticos (expresión matemática para representar una variable) que se utiliza cuando la variable aleatoria discreta es el número de éxitos en una muestra compuesta por n observaciones.

Propiedades

- La muestra se compone de un número fijo de observaciones n- Cada observación se clasifica en una de dos categorías, mutuamente excluyentes (los eventos no pueden ocurrir de manera simultánea. Ejemplo: Una persona no puede ser de ambos sexos) y colectivamente exhaustivos (uno de los eventos debe ocurrir. Ejemplo: Al lanzar una moneda, si no ocurre cruz, entonces ocurre cara). A estas categorías se las denomina éxito y fracaso.- La probabilidad de que una observación se clasifique como éxito, p, es constante de una observación o otra. De la misma forma, la probabilidad de que una observación se clasifique como fracaso, 1-p, es constante en todas las observaciones.- La variable aleatoria binomial tiene un rango de 0 a nEcuación:

PX=n!X!n-X!·pX·1-pn-XDondePX=Probabilidad de X éxitos, dadas yn = Número de observacionesp = Probabilidad de éxitos1-p = Probabilidad de fracasosX = Número de éxitos en la muestra (= 0, 1, 2, 3, 4,………)Ejemplo ilustrativo N° 1Determine P(X=5) para n = 6 y p = 0,83Solución:Aplicando la ecuación se obtiene:PX=n!X!n-X!·pX·1-pn-X

Page 37: La Distribución Normal

PX=5=6!5!6-5!·0,835·1-0,836-5=0,4018En Excel se calcula de la siguiente manera:a) Se escribe los datos y se inserta la función DISTR.BINOM. Clic en Aceptar. Los argumentos de la función escribir como se muestra en la figura:b) Clic en AceptarEjemplo ilustrativo N° 2Determinar P(X=4) para n =5 y p = 0,45Solución:

Se puede aplicar la ecuación para cada probabilidad, pero para ahorrar tiempo se recomienda encontrar las probabilidades con lectura en la tabla de probabilidades binomiales. Realizando la lectura en la tabla de la distribución binomial para P(X=0) con n=5 y p=0,5 se obtiene 0,0503. Continuando con la respectivas lecturas en la tabla se obtiene: 0,2059 para P(X=1), 0,3369 para P(X=2), 0,2757 para P(X=3) y 0,1128 para P(X=4),Por lo tanto PX=4=0,0503+0,2059+0,3369+0,2757+0,1128=0,9816Los cálculos realizados en Excel se muestran en la siguiente figura:

Media de la distribución binomial

La media de la distribución binomial es igual a la multiplicación del tamaño de la muestra por la probabilidad de éxitoDesviación estándar de la distribución binomial

TAREA1) Realice un organizador gráfico sobre la distribución binomial2) Determine de manera manual y empleando Excel2.1) Para n = 4 y p = 0,12, ¿cuánto es P(X=0)?

R: 0,59972.2) Para n = 10 y p = 0,40, ¿cuánto es P(X=9)?

R: 0,00162.3) Para n =10 y p = 0,50, ¿cuánto es P(X=8)?

R: 0,04392) En una muestra de 4 pedidos, se observa el siguiente resultado:

1er pedido 2do pedido 3er pedido 4to pedido

Marcado Marcado Sin marcar Marcado

2.1) Llenar la tabla de manera manual y empleando Excel

Resolver los siguientes ejercicios de manera manual y empleando Excel2.2) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya tres formatos marcados?

P(X=3) = 0,00362.3) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya menos de tres formatos marcados?

2.4) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya mayor de tres formatos marcados?

2.5) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya tres o más formatos marcados (es decir, por lo menos tres)?

0,00372.6) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya tres o menos formatos marcados?

Page 38: La Distribución Normal

0,99992.7) Calcular la desviación estándar3) El 60% de profesionales leen su contrato de trabajo, incluyendo las letras pequeñas. Suponga que el número de empleados que leen cada una de las palabras de su contrato se puede modelar utilizando la distribución binomial. Considerando un grupo de cinco empleados:3.1) Llenar la tabla manera manual y empleando Excel

3.2) Resolver los siguientes ejercicios de manera manual y empleando Excel. Cuál es la probabilidad de que:a) Los cinco lean cada una de las palabras de su contrato

0,0778b) Al menos tres lean cada una de las palabras de su contrato

0,6826c) Menos de dos lean cada una de las palabras de su contrato

0,08703.3) ¿Cuáles serían los resultados para los incisos de la pegunta 3.2) si la probabilidad de que un empleado lea cada una de las palabras de su contrato es de 0,80?. Resolver los siguientes ejercicios de manera manual y empleando Excel

0,3277; 0,9421; 0,00674) Un examen de estadística de elección múltiple contenía 20 preguntas y cada una de ellas 5 respuestas. Si un estudiante desconocía todas las respuestas y contestó al azar4.1) ¿Cuál es la probabilidad de que conteste correctamente a 5 preguntas?

0,17464.2) ¿Cuál es la probabilidad de que conteste correctamente a lo más 5 preguntas?

0,8042

Leer más: http://www.monografias.com/trabajos85/distribucion-binomial/distribucion-binomial.shtml#ixzz2iCvpzbpG

LECCION 28ªDistribuciones discretas: Binomial

 

Las distribución binomial parte de la distribución de Bernouilli:

La distribución de Bernouiili se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0

La distribución binomial se aplica cuando se realizan un número"n" de veces el experimento de Bernouiili, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre:

0: si todos los experimentos han sido fracaso

n: si todos los experimentos han sido éxitos

Page 39: La Distribución Normal

Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10

La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo:

¿Alguien entiende esta fórmula? Vamos a tratar de explicarla con un ejemplo:

Ejemplo 1: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?

" k " es el número de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decíamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6)

" n" es el número de ensayos. En nuestro ejemplo son 10

" p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto p = 0,5

La fórmula quedaría:

Luego,

P (x = 6) = 0,205

Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda.

Ejemplo 2: ¿Cuál es la probabilidad de obtener cuatro veces el número 3 al lanzar un dado ocho veces?

" k " (número de aciertos) toma el valor 4

" n" toma el valor 8

" p " (probabilidad de que salga un 3 al tirar el dado) es 1 / 6 (= 0,1666)

La fórmula queda:

Luego,

P (x = 4) = 0,026

Page 40: La Distribución Normal

Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el números 3 al tirar un dado 8 veces.

 Distribución binomial

Una forma corriente de descripción de los experimentos aleatorios equiprobables con variable discreta es la distribución binomial. En este tipo de distribución se estudia la probabilidad de que se produzca un cierto resultado, que se describe por medio de dos parámetros: el número de repeticiones realizadas del experimento y la probabilidad individual del suceso aleatorio que se persigue como resultado.

Condiciones para una distribución binomial

Una distribución se denomina binomial cuando se cumplen las condiciones siguientes:

El experimento aleatorio de base se repite n veces, y todos los resultados obtenidos son mutuamente independientes.

En cada prueba se tiene una misma probabilidad de éxito (suceso A), expresada por p. Asimismo, existe en cada prueba una misma probabilidad de fracaso (suceso  ), que es igual a q = 1 - p.

El objetivo de la distribución binomial es conocer la probabilidad de que se produzca un cierto número de éxitos. Lavariable aleatoria X, que indica el número de veces que aparece el suceso A (éxito), es discreta, y su recorrido es el conjunto {0, 1, 2, 3, ..., n}.

La distribución binomial se expresa como B (n, p), siendo n el número de veces que se repite el experimento y p la probabilidad de que se produzca un éxito.

Page 41: La Distribución Normal

Ejemplo de experimento aleatorio descrito por una distribución binomial: al tirar un dado cuatro veces, ¿cuántas veces saldrá el número 6? Este suceso es el «éxito» del experimento.

Función de probabilidad

La distribución binomial se caracteriza porque su función de probabilidad viene dada por la expresión siguiente:

donde r es el número de éxitos asociado al experimento aleatorio.

En una distribución binomial B (n, p) se verifica que:

La probabilidad de que aparezca al menos un éxito en las n repeticiones es igual a:

La probabilidad de que se produzca un éxito como máximo en las n repeticiones se determina como:

Esperanza, varianza y desviación típica

En una distribución binomial denotada por B (n, p), donde n es el número de repeticiones del experimento y p la probabilidad de que se produzca un cierto suceso (éxito), la esperanza matemática de la variable aleatoria X viene dada por la expresión siguiente:

Análogamente, la varianza de la variable aleatoria X, al ser ésta de tipo discreto, se calcula como:

siendo q la probabilidad de no éxito (fracaso). La desviación típica es, como de costumbre, la raíz cuadrada de la varianza:

Ajuste de una distribución binomial

En ocasiones, el cálculo de la probabilidad de una distribución binomial del tipo B (n, p) resulta muy complicado. Según

Page 42: La Distribución Normal

demostró el matemático francés Abraham de Moivre (1667-1754), la probabilidad de una distribución binomial B (n, p) puede aproximarse por medio de una distribución normal (ver t56) de tipo N (np,  ), que resulta particularmente adecuada cuando: El valor de n es muy elevado. Tanto np y nq son  que 5. (Obsérvese que cuanto mayor es

n y más se aproxima p a 0,5 tanto mejor es la aproximación realizada).

Para transformar una distribución binomial (de variable discreta) en una normal (de variable continua), es preciso proceder a la siguiente transformación:

Experimento binomial[editar · editar código]

Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los

experimentos es independiente de los restantes (la probabilidad del resultado de un

experimento no depende del resultado del resto). El resultado de cada experimento ha de

admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de

ambas posibilidades han de ser constantes en todos los experimentos (se denotan

como p y q o p y 1-p).

Se designa por X a la variable que mide el número de éxitos que se han producido en

los n experimentos.

Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de

probabilidad binomial, y se denota B(n,p).

Características analíticas[editar · editar código]

Su función de probabilidad es

donde 

siendo   las combinaciones de   en   (  elementos tomados

de   en  )

Page 43: La Distribución Normal

Ejemplo[editar · editar código]

Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la

probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6)

y la probabilidad sería P(X=20):

Distribución binomial«Binomial» redirige aquí. Para otras acepciones, véase binomial (desambiguación).

Distribución binomial

Función de probabilidad

Función de distribución de probabilidad

Parámetros número de ensayos (entero)

probabilidad de éxito (real)

Page 44: La Distribución Normal

Dominio

Función de

probabilidad(fp)

Función de

distribución(cdf)

Media

Mediana Uno de 1

Moda

Varianza

Coeficiente de

simetría

Curtosis

Entropía

Función generadora

de momentos(mgf)

Función

característica

En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el

número de éxitos en una secuencia de nensayos de Bernoulli independientes entre sí, con una

probabilidad fija pde ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se

caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se

denomina éxito y tiene una probabilidad de ocurrencia py al otro, fracaso, con una probabilidad q = 1

- p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y

Page 45: La Distribución Normal

se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se

convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p,

se escribe:

La distribución binomial es la base del test binomial de significación estadística.