1Probabilidad_resumenlibro

85
Probabilidad y Estadísticas Página 1 de 85 1. ESTADÍSTICA DESCRIPTIVA ¿Qué es la estadística? Como recolección de datos numéricos: datos ordenados según algún criterio. Como ciencia: Estudia fenómenos en masa, buscando sus características generales. A partir de un hecho particular se analizan una cantidad de casos particulares, donde se aprecia una regularidad o estabilidad en el comportamiento. El propósito de la estadística es precisamente hallar las regularidades de los fenómenos en masa, regularidades que además de servir para describir un fenómeno pueden utilizarse con fines de predicción. Significado Fin Como recolección de datos numéricos Descripción Como ciencia Búsqueda de regularidades La estadística elabora técnicas y métodos que nos ayuden a tomar decisiones. MATERIA PRIMA (datos numéricos o categorías)PRODUCTO (información útil o conclusiones). INDEC (Instituto Nacional de Estadísticas y Censos) Hasta 1968 no había nada unificado respecto a la estadística oficial, eran todas leyes de organismos nacionales, provinciales y municipales. Resolviendo este problema se promulga una ley. Estadística Descriptiva e Inferencial Estadística descriptiva: ciencia que se dedica a descubrir las regularidades dentro de un conjunto de datos. Obtiene, resume y transforma datos para interpretar la información. Proceso de inducción: con la información de la muestras se conocen las características de la población. Es la mas conocida de las ciencias estadísticas. Estadística Inferencial: es la parte de la Estadística que nos permite extraer conclusiones de una población a partir del análisis de una "parte" de ella (a la cual denominamos muestra aleatoria). El conjunto de estos puede analizarse de la misma forma que la muestra. Describir el propio conjunto de observaciones ↔ predecir que pasa en la población. Resumen

description

Probabilidad y estadistica

Transcript of 1Probabilidad_resumenlibro

Qu es la estadistica

Probabilidad y Estadsticas

Pgina 22 de 64

1. ESTADSTICA DESCRIPTIVA

Qu es la estadstica?

Como recoleccin de datos numricos: datos ordenados segn algn criterio.

Como ciencia: Estudia fenmenos en masa, buscando sus caractersticas generales. A partir de un hecho particular se analizan una cantidad de casos particulares, donde se aprecia una regularidad o estabilidad en el comportamiento.

El propsito de la estadstica es precisamente hallar las regularidades de los fenmenos en masa, regularidades que adems de servir para describir un fenmeno pueden utilizarse con fines de prediccin.

SignificadoFin

Como recoleccin de datos numricosDescripcin

Como cienciaBsqueda de regularidades

La estadstica elabora tcnicas y mtodos que nos ayuden a tomar decisiones.

MATERIA PRIMA (datos numricos o categoras)(PRODUCTO (informacin til o conclusiones).

INDEC (Instituto Nacional de Estadsticas y Censos)

Hasta 1968 no haba nada unificado respecto a la estadstica oficial, eran todas leyes de organismos nacionales, provinciales y municipales. Resolviendo este problema se promulga una ley.

Estadstica Descriptiva e Inferencial

Estadstica descriptiva: ciencia que se dedica a descubrir las regularidades dentro de un conjunto de datos. Obtiene, resume y transforma datos para interpretar la informacin. Proceso de induccin: con la informacin de la muestras se conocen las caractersticas de la poblacin. Es la mas conocida de las ciencias estadsticas.

Estadstica Inferencial: es la parte de la Estadstica que nos permite extraer conclusiones de una poblacin a partir del anlisis de una "parte" de ella (a la cual denominamos muestra aleatoria). El conjunto de estos puede analizarse de la misma forma que la muestra. Describir el propio conjunto de observaciones predecir que pasa en la poblacin.Conceptos bsicos de la estadsticaUnida de anlisis: es el objeto al cual se le desea obtener la informacin. Pueden ser naturales (personas, maestros) o artificiales como el tiempo (da, semana, ao).

Poblacin o universo [P]: conjunto de unidades de anlisis que satisfacen a una definicin comn y en los que interesa analizar una o varias caractersticas. Debe estar perfectamente definida en tiempo y espacio (responder a QUIEN, CUANDO y DONDE). A la cantidad de elementos que conforma la poblacin la llamaremos [N].

Muestra aleatoria [M]: es una parte o subconjunto de la poblacin, para obtener informacin sobre esta. Se saca un grupo dentro de toda la poblacin. Al tamao de la muestra la simbolizaremos con [n].Variable: es la cualidad o cantidad medible que se estudia de las unidades de anlisis y que varan de una unidad a otra.

Niveles de medicin

Normal: en este nivel se tienen dos o ms categoras del tem o variable. Las categoras NO tienen orden o jerarqua. Lo que se mide es colocado en una u otra categora, lo que indica que solamente diferenciamos respecto de una o ms caractersticas. Los nmeros aqu no se manipulan automticamente.

Ordinal: en este nivel se tienen varias categoras, pero estas adems mantienen un orden de mayor a menor. Las etiquetas o smbolos de las categoras SI indican jerarqua. No se aplican las operaciones aritmticas simples.Por intervalo: adems de haber orden y jerarqua entre categoras, se establecen los intervalos iguales en la medicin. Las distancias entre categoras son todas las mismas a lo largo de toda la escala. Hay intervalos constantes, una unidad de medida. Ej.: Temperatura.El cero de la medicin, es un cero arbitrario, no es real (se asigna arbitrariamente a una categora el valor de cero y a partir de esta se construye la escala).

De razn: aparte de las caractersticas del nivel por intervalos, el cero es real, es absoluto. Cero absoluto implica que hay un punto en la escala de intervalo, agrega la existencia de un origen real que indica la ausencia de la propiedad medida por la variable.SE DEBE INDICAR EL NIVEL DE MEDICIN E ITEMS.

Relacin de variables

1. Indicar la manera de codificar los datos en cada tem y variable.2. Codificar los datos (colocar un valor numrico que los identifique).La codificacin se puede hacer antes (precodificado) o despus (a posteriori).

La codificacin es necesaria para poder cuantitativamente analizar los datos (anlisis estadstico)

Tipo de variables

Cualitativas: son las medidas en escala nominal u ordinal (mide una cualidad).

Cuantitativas: las medidas en escala de intervalos o razn.

Discretas: cuando solo pueden asumir valores sobre nmeros enteros.

Ej.: alumnos.

Continuas: cuando puede asumir cualquier valor sobre los nmeros reales.

Ej.: peso.Dato u observacin: es el valor que toma la variable para cada unidad de anlisis y se obtiene mediante algn mtodo de captacin.

Etapas de una investigacin estadstica

a) Planeamiento: se analiza el problema definiendo conceptos y variables, se hace operable a los conceptos, se elige el procedimiento de recoleccin, se prepara el plan de tabulacin y codificacin, pruebas experimentales.

b) Ejecucin: se recolectan los datos a travs del organismo que realiza la investigacin u otro organismo (primario o secundario), luego estos datos son procesados: se comprueba su calidad, se codifican (smbolo a cada categora), se tabulan y se analizan (utilizando estadstica descriptiva), se miden los cambios de las variables y sus relaciones.

Mtodos de relevamiento

Muestra: permite estudiar el universo de intereses, con una parte de los elementos que componen a dicho universo. Debe ser representativa de la poblacin. Su uso va en aumento porque con personal entrenado se reducen los errores ajenos al muestreo. Caractersticas: cumple con la condicin de universabilidad y puede no ser simultnea.Censo: la informacin se obtiene de la totalidad de la poblacin (diferencia con la muestra) cumple con la universabilidad (censa a todos los elementos) y simultaneidad (en un tiempo determinado). La informacin se obtiene tal como se necesita, para fines estadsticos (diferencia con el registro administrativo).

Registro administrativo: es un proceso de recoleccin por el cual un servicio administrativo obtiene informacin para sus propios fines. Esta informacin puede ser usada con fines estadsticos y se obtiene tal como esta disponible para los fines administrativos, que no siempre coinciden con fines estadsticos, para eso se deberan hacer las modificaciones necesarias.

Presentacin de datos

Texto: para pocos datos y cuando se necesita resaltar cosas importantes.Cuadros: permite gran cantidad de informacin pero de fcil lectura. Los cuadros complejos estn formados por ttulos, encabezados, su cuerpo, notas al pie, fuente. NO deben ser largos y las variables deben estar ordenadas.

Grficos: permiten tener una visin de conjunto ms rpida que la de los nmeros y se recuerdan ms fcilmente. La representacin grfica puede ser geomtrica (de gran exactitud) o de smbolos alusivos para impresionar. Las partes del grafico son: titulo, diagrama, variable, escala, fuente. Existen distintos tipos, entre ellos tenemos:

Grafico de lnea: para la variacin de la variable a travs del tiempo.

De barras: cada barra representa un valor, para pocos datos. De sectores: un crculo representa a la poblacin y se divide en sectores que representan la participacin. Mapas estadsticos: es un artificio grafico para mostrar datos o informacin cuantitativa sobre una base geogrfica. Permite representar simultneamente variables cuantitativas con su correspondiente distribucin geogrfica.

Tratamiento de variables cualitativas

La primer operacin a realizar con variables cualitativas es contabilizar el nmero de casos que pertenecen a cada una de las categoras de la variable.Estas medidas permiten comparaciones entre diversos grupos, basndose esencialmente en el tamao de los mismos. De fundamental utilidad cuando las medidas son medidas nominal u ordinal.

Proporciones: nmero de casos en una categora dividido por el nmero total de casos.

Porcentajes: se obtienen multiplicando a las proporciones por 100.

Razones: la razon de un numero A con respecto a un numero B se define como A dividido B. La cantidad que presede se pone en el numerador y la que sigue en el denominador. Ej.: No repetidores/repetidores(cada tantos no repetidores hay tantos repetidores.

Observe que, a diferencia de la proporcin, la razn es un nmero que puede ser mayor que 1.

Las proporciones representan un caso particular de las razones, en las que el denominador es el nmero total de los casos y el numerador es una fraccin del total. En las proporciones el numerador siempre es una cantidad que est contenida en el denominador.

Tratamiento de variables cuantitativasNos ocuparemos de mtodos para el resumen de datos medidos en escalas de intervalo o razon.

S los datos medidos en escala de intervalo o de razn (variables cuantitativas) han de resumirse de igual modo, hay que tener en cuenta si la variable es discreta o continua. Dicho resumen, consiste en organizar tablas que resuman los datos originales o valores observados.

Tablas para datos agrupados en serie de frecuencias

Una tabla de distribucin de frecuencias es una tabla que presenta en forma ordenada a los distintos valores de una variable y sus correspondientes frecuencias. Definimos como frecuencia al nmero de veces que se presenta cada valor de la variable.

Ejemplo: En una planta procesadora de alimentos se observ, durante 30 das laborables, el nmero de interrupciones (por da de trabajo) debidas a fallas mecnicas. Los resultados que se obtuvieron son los siguientes:

Las frecuencias relativas no son mas que proporciones, ya que representan la importancia relativa de cada valor de la variable en el total de casos.

En la columna (4) sumarnos los das acumulados hasta cada uno dejos valores de la variable

Finalmente, en la columna (5) efectuarnos el cociente entre los valores de la columna (4) dividido por el total de das, lo que nos indica el peso relativo de los casos acumulados hasta cada uno de los valores de la variable, y llamamos a esta columna frecuencia relativa acumulada.

Nota: las frecuencias relativas fri y relativas acumuladas Fri suelen expresarse en porcentajes.

Representacin grafica

Para representar grficamente se utiliza un par de ejes coordenados. En el eje de abscisas se representara la variable estudiada y en el eje de ordenadas a las correspondientes frecuencias (absolutas o relativas).

El grafico de bastones es la representacin grafica de las frecuencias de una variable discreta, cuyas abscisas son los valores de la variable y cuyas ordenadas son las frecuencias relativas o absolutas.

A estos grficos se los denomina grficos escalonados

Tablas para datos agrupados en intervalos de clase

Intervalos de clase: subdivisiones o intervalos en que se ha dividido el dominio o campo de variabilidad de la variable, de modo tal que cada intervalo estar compuesto tramos del recorrido de la variable.

Limites de clases: valores que definen los extremos de un intervalo. Por lo tanto, tendremos, para cada intervalo, un lmite inferior que lo simbolizaremos Li y un lmite superior que lo simbolizaremos Ls. La amplitud del intervalo vendr dada por la diferencia entre el lmite superior y el lmite inferior.

Amplitud: la llamamos h, siendo: Amplitud de intervalos: h = Ls Li.

Adems, al punto medio de cada intervalo lo llamaremos marca de clase y lo simbolizaremos con mi.

Cuando los datos se agrupan en intervalos, el problema fundamental es pensar en una amplitud adecuada para los mismos. Generalmente, se aconseja entre 10 y 15 la cantidad razonable de intervalos, de modo que no haya tantos como para que no sea manejable la tabla, ni tan pocos como para que la amplitud sea tan grande que nos haga perder mucha precisin en nuestro trabajo.

Para calcular la amplitud del intervalo se busca primero la amplitud o rango de la variable, es decir, la diferencia entre el mayor y el menor de los valores que toma la variable y, luego, el resultado se divide por la cantidad de intervalos que se quieren formar.

Rango de la variable: R = mx(xi) - mn(xi)

Amplitud del intervalo: h = R / cantidad de intervalos

Cantidad de intervalos:

Cantidad de intervalos: R/ k-->amplitud/cantidad de intervalos.

Nota: Cuando escribimos un intervalo (Li - Ls], el smbolo "]" indica que el valor que le precede est contenido en dicho intervalo; el smbolo "(" indica que el valor que le sucede no est contenido en el intervalo.

Representacin Grfica

Para representar grficamente una distribucin de frecuencias para datos agrupados usamos el histograma y el polgono de frecuencias.

Histograma: es la representacin, en un sistema de coordenadas cartesianas ortogonales, de la distribucin de frecuencias (absolutas o relativas) de una variable agrupada en intervalos, mediante un grfico de superficies. Sobre el eje de las abscisas se presentan los intervalos y se levanta, sobre cada uno de ellos, un rectngulo cuya rea es igual a la respectiva frecuencia.

Polgono de frecuencias: es una lnea poligonal obtenida en un histograma uniendo los puntos medios de los lados superiores de los rectngulos. Los lados extremos crean dos intervalos hipotticos con frecuencia cero, colocando cada uno de ellos en ambos extremos del histograma, y con amplitud igual a la del intervalo posterior y anterior, respectivamente.

Ojiva: es la representacin grfica de las frecuencias acumuladas (relativas o absolutas) de una variable agrupada en intervalos, mediante una lnea poligonal obtenida uniendo los puntos que tienen, por abscisas, los limites superiores del intervalo y, por ordenadas, las respectivas frecuencias acumuladas. A este grfico tambin s lo conoce como polgono de frecuencias acumuladas.

2. MEDIDAS CARACTERSTICAS

Medidas de tendencia central

Son promedios. Cuando nos referimos a ellos como medidas de tendencia central; stas son medidas que nos dan idea de cual es el centro de distribucin de datos.

Media aritmetica

Es el numero que se obtiene al dividir la suma de todas las observaciones por la cantidad de observaciones sumadas. La simbolizamos con

Clculo de la media aritmtica para datos agrupados en series de frecuencia:

Donde el subndice i se usa para indicar los distintos valores que toma la variable y j es la cantidad de valores distintos q toma la variable

Cuando calculamos la media aritmetica, multiplicamos a cada valor de la variable por su correspondiete frecuencia, decimos que la media est ponderada.

En este caso, el ponderador nos est indicando la importancia relativa de cada valor de la variable sobre el total de las observaciones.

Clculo de la media aritmtica para datos agrupados en intervalos de clase:

En este caso, emplearemos la frmula anterior pero, en lugar de multiplicar tos valores de la variable por la frecuencia absoluta (en el numerador), multiplicaremos las marcas de clase por la frecuencia absoluta. Estamos suponiendo, entonces, que la frecuencia del intervalo corresponde en su totalidad a la marca de clase. Obviamente, en realidad esto no es asi, por lo tanto, en este caso, estamos obteniendo una media aritmtica aproximada.Si tuviramos los datos sin agrupar, obtendramos una media aritmtica exacta

, mi es la marca de clases.Propiedades de la media aritmtica

La media aritmtica es un valor mnimo valor observado de la misma.

La unidad de medida de la media aritmtica es igual a la unidad de medida de la variable.

Si la variable toma siempre el mismo valor, la media aritmtica es igual a dicho valor.

La suma de los desvos de cada valor de la variable a la media aritmtica es igual a 0. Esta propiedad demuestra el efecto compensador que tiene este promedio respecto a la distribucin de los datos,

Para datos no agrupados

Para series de frecuencias y

Para datos agrupados.

Si a los valores de una variable se les suma o se les resta una constante, la media aritmtica de la nueva variable es igual a la media aritmtica de la variable anterior ms o menos dicha constante.

Si a los valores de una variable se los multiplica por una constante, la media aritmtica de la nueva variable es igual a la media aritmtica de la variable anterior multiplicada por dicha constante.

Mediana

Si todos los valores observados de la variable se ordenan en sentido creciente (o decreciente), la mediana es el valor de la variable que ocupa el lugar central, es decir, el que deja a un lado y a otro el mismo nmero de observaciones. Para su obtencin se considerar la forma en que estn disponibles los datos.

Para simbolizar la mediana utilizaremos .

Clculo de la mediana para datos no agrupados:

Si el nmero de observaciones es par, se toma como mediana a la media aritmetica de los dos valores centrales. Para los franceses no existe la mediana cuando la cantidad es par.

Para par Para impar

EI subndice de x indica la posicin que ocupa ese valor de la variable; una vez ordenados los datos.

Clculo de la mediana para datos agrupados como serie de frecuencias:

Determinacin Analtica

El problema consiste en hallar el valor de la variable que corresponde a la observacin central.

Veamos el clculo de la mediana para el nmero de interrupciones en la planta procesadora de alimentos. La primera operacin que hay que realizar es obtener las Fai. La segunda operacin es calcular n/2, El tercer paso es localizar la primera frecuencia acumulada mayor que la de n/2.

Determinacin GrficaUtilizando el grfico de distribucin de frecuencias absolutas acumuladas, calculamos la mediana de la siguiente forma:

a) Ubicamos el resultado de hacer n/2 sobre el eje de ordenadas (Fai).

b) Trazamos una lnea horizontal, a la altura de dicho valor, hasta tocar el grfico.

c) Luego, bajamos hasta el eje de abscisas. El punto que encontrarnos, es el valor correspondiente a la mediana.

Calculo de la mediana para datos agrupados en intervalos de clase

Determinacin Analtica:

No puede obtenerse exactamente el valor de la mediana porque se desconocen las observaciones individuales de la variable.

Siendo:

Li: el lmite Inferior del intervalo correspondiente a la frecuencia absoluta acumulada que contiene a la cantidad n/2.

Fa(i+1): la frecuencia absoluta acumulada hasta el intervalo anterior al que contiene a la mediana.

fai: la frecuencia absoluta del intervalo en el que ubicamos a la mediana.

hi: la amplitud del intervalo en el que se encuentra la mediana.

Observacin

Si definimos como fractiles a aquellos valores de la variable que fraccionan a la distribucin en partes iguales, es decir, en partes que contienen la misma cantidad de datos, la mediana resulta ser un fractil. Diramos entonces: la mediana es el fractil que divide a la distribucin en dos partes iguales, siendo la mitad de los datos menor o igual que ella y la otra mitad mayor o igual que ella.

Existen otros fractiles que dividen a la distribucin en 4, 10 y 100 partes iguales. Se conocen con el nombre de cuartiles, deciles y percentiles.

Cuartiles: Son 3 y dividen a los datos en 4 partes iguales. Se simbolizan Q1, Q2 y Q3. Por ejemplo, el cuartil 1 deja por debajo el 25% de las observaciones y el 75% restante por encima, mientras que el cuartil 2 coincide con la mediana, ya que deja a cada lado el 50% de las observaciones.

Deciles: Son 9 y dividen a los datos en 10 partes iguales. Se simbolizan D1, D2, .., D9. Por ejemplo, el decil 1 deja por debajo el 10% de las observaciones y el 90% restante por encima.

Percentiles: Son 99 y dividen a los datos en 100 partes iguales. Se simbolizan P1, P2,, P99. Por ejemplo, el percentil 1 deja por debajo el 1% de las observaciones y el 99% restante por encima,

Para calcular cualquiera de los fractiles, se emplea la misma metodologa que para el clculo de la mediana: siempre se debe determinar, en primer lugar, el intervalo al cual pertenece la medida, ya que los distintos parmetros que aparecen en la frmula se refieren a este intervalo.

j=1,2,3

* si Es CUARTIL vale 4, si es DECIL vale 10 si es PERCENTIL vale 100.

Determinacin Grfica:

Este procedimiento grfico puede utilizarse para cualquiera de los fractiles.

Representamos la ojiva y luego determinamos, sobre el eje de ordenadas, el valor que nos interesa; por ejemplo, para el caso de la mediana, determinamos n/2. La abscisa de este punto en la grfica de la ojiva es la mediana.

Modo

El modo es el valor de la variable que ms veces se repite, o _sea,_el valor que presenta mayor frecuencia. En el caso del modo no existe una frmula general para expresarlo. Lo simbolizaremos con .

Veamos cmo se encuentra el modo para los distintos tipos de disposicin de los datos. Si los mismos estn en forma de serie simple, la determinacin del modo es prcticamente inmediata. Por ejemplo, si x = 1,2, 2, 2, 4, 5, entonces x = 2.

Clculo del modo para datos agrupados como serie de frecuencias:

En este caso, el modo se obtiene con extrema rapidez: en la distribucin de frecuencias se observa cul es la frecuencia absoluta mayor y el modo ser el valor de la variable correspondiente a dicha frecuencia.

El modo tambin puede obtenerse grficamente, observando el grfico de frecuencias absolutas para datos sin agrupar:

Clculo del modo para datos agrupados en intervalos de clase:

Una aproximacin del mismo se obtiene mediante la siguiente expresin:

Siendo:

Li: lmite inferior del intervalo de clase al que corresponde l absoluta, que llamaremos el intervalo modal,

d1: diferencia absoluta entre la frecuencia absoluta del intervalo de mayor frecuencia o intervalo modal y la frecuencia absoluta del intervalo anterior.

d2: diferencia absoluta entre la frecuencia absoluta del intervalo de mayor frecuencia o intervalo modal y la frecuencia absoluta del intervalo posterior.

hi: amplitud del intervalo modal.

Nota: Esta frmula es aplicable solamente en caso de que todos los intervalos tengan la misma amplitud.

Comparacin entre Las distintas medidas de tendencia central de uso ms frecuente

Al exponer los principales promedios -media aritmtica, mediana y modo- hemos aplicado los mismos ejemplos para el clculo de cada uno de ellos. Si tomamos el ejemplo de los montos de ventas del establecimiento comercial, podemos apreciar ias diferencias entre los distintos promedios calculados. Recordemos cules fueron dichos valores: = $6070, = $6400 y =$6880.

Puede observarse que, para una misma distribucin, rara vez coinciden tos valores obtenidos mediante los tres promedios. Si la distribucin es unimodal y simtrica, estas tres medidas coinciden. Para una distribucin asimtrica, la media se aleja de la moda hacia el lado de la cola ms larga, con la mediana entre ellas.

Lo vemos grficamente;

En nuestro caso por tratarse de una distribucin asimtrica a izquierda.

Nos preguntamos entonces: cundo conviene usar una u otra de las medidas de tendencia central estudiadas? A continuacin vamos a resumir las caractersticas de cada uno de los tres promedios considerados, as como sus ventajas e inconvenientes.

Media Aritmtica: La meda aritmtica es el centro de gravedad de la distribucin. El punto es el punto de equilibrio de la figura que representa la distribucin.

La media aritmtica es un valor de la variable que depende de todas las observaciones, porque en su clculo intervienen todas ellas. Por lo tanto, la presencia de un valor observado anormalmente grande o anormalmente chico influye sensiblemente en el valor del promedio, lo cual, evidentemente, es un inconveniente de la media aritmtica. Frente a esto, tiene la ventaja de utilizar toda la informacion. recogida.

En Estadstica se trabaja frecuentemente con muestras. Con una muestra no puede obtenerse el valor exacto de un promedio de la poblacin, slo se obtiene una estimacin de l. Una condicin esencial de cualquier promedio es que su valor en la muestra no vare mucho al pasar de una muestra a otra, es decir, que el promedio calculado sea lo ms estable posible. Esta condicin de la mxima estabilidad la posee la media aritmtica.

Finalmente, la media aritmtica por venir definida mediante una expresin algebraica, puede someterse a clculos matemticos necesarios para deducir cuestiones importantes.

Mediana: Por definicin, sabemos que la mediana es el valor de la variable que deja a un lado y a otro el mismo nmero de observaciones, bajo el supuesto de que los datos estn ordenados en sentido creciente o decreciente. En la grfica, la ordenada correspondiente a la mediana divide el rea total en dos partes iguales.

Para determinar el valor de la mediana, no es necesario conocer el valor de todas las observaciones, slo es preciso saber el valor de la observacin central y que las restantes son mayores o menores que sta. No se utiliza, pues, toda la informacin recogida para su clculo, lo cual es un inconveniente. En cambio, tiene la ventaja de que los valores observados anormalmente grandes o anormalmente pequeos no influyen en ei promedio.

Otra ventaja es que puede obtenerse con datos incompletos, por ejemplo, en las distribuciones de frecuencias con intervalos de clase que comienzan con un intervalo "menos de ..." o finalizan con intervalos "ms de ...".

Un serio inconveniente es que la mediana no viene definida mediante una expresin matemtica. La frmula de aproximacin es, simplemente, un aditicio que se utiliza en el caso de las distribuciones para datos agrupadas en intervalos de clase. En consecuencia, no puede someterse al clculo algebraico para deducir cuestiones importantes de comportamiento.

Modo: Como ya vimos, es el valor ms frecuente, es decir, el punto donde se concentra el mayor nmero de observaciones. En la grfica, el modo es el punto de la variable al cual le corresponde la altura mxima de la curva.

Este promedio tampoco utiliza toda la informacin, pues basta con saber tan solo cul valor de la variable es el ms frecuente. Esto hace, al Igual que en el caso de la mediana, que este promedio no se vea afectado por los valores anormalmente grandes o anormalmente pequeos, Tampoco el modo se define algebraicamente y, por ello, no puede utilizarse para obtener deducciones matemticas.

El modo es un promedio muy interesante cuando existe, en la distribucin, una clara y decidida tendencia a que los valores se concentren alrededor de un solo valor.

Una vez vistas las propiedades de cada promedio separadamente, conviene repasar algunas cuestiones que afectan a todos ellos. Recordemos, primeramente, que un promedio tiene por objeto obtener un valor de la variable alrededor del cual se distribuyen las observaciones. Esta condicin se cumple muy bien en las distribuciones simtricas o moderadamente asimtricas. Si la distribucin de la variable es de este tipo, los tres promedios (media aritmtica, mediana y modo) son perfectamente representativos del conjunto de observaciones. En este caso, es difcil sealar una preferencia de uno sobre otro desde el punto de vista de su representatividad. Si tomamos en cuenta las restantes propiedades, el mejor promedio es la media aritmtica por sus propiedades matemticas y de estabilidad en el muestreo.

Si la distribucin es fuertemente asimtrica, es decir, tiene forma de J o de L, entonces la mediana es el promedio ms apto.

Si la distribucin tiene forma de "U", los tres promedios tienen poca fuerza representativa. Generalmente, las distribuciones de esta forma suelen ser difciles de tratar desde el punto de vista de los promedios.

Nota: recuerde siempre que el tipo de distribucin que presentan los datos es importante para la seleccin del promedio mas adecuado. En caso de duda, seguir siempre la misma regla: emplear la media aritmetica.

Media geometricaLa simbolizamos con y se calcula como:

Si los datos estn agrupados, la expresin de clculo es la siguiente:

donde m es la cantidad de valores mustrales distintos, o reemplazando los xi, por las marcas de clase mi, si los datos estn agrupados en intervalos.

Este tipo de promedio se utiliza, generalmente, cuando los valores de la variable crecen de acuerdo a una progresin geomtrica.

Media Armnica

La simbolizaremos con , de n observaciones de una variable se calcula como:

Si los datos estn agrupados, la calculamos as

O reemplazamos los xi por mi si tenemos intervalos de clases.

Se utiliza generalmente, para promediar valores que provienen de resultados de un cociente entero entre variables.

Medidas de dispersin

Medidas de dispersin absoluta

Rango "R"

Se define como la diferencia entre el valor mximo y el valor mnimo que toma la variable. Descuidando por completo los valores intermedios.

Podra suceder que un valor observado estuviese accidentalmente desplazado. En este caso, el rango sera exagerado y la dispersin aparecera distorsionada.

Rango entre Fractiles

Es una medida que se define como la diferencia entre un par de fractiles. De alguna manera, evita el inconveniente de los valores extremos que presenta el rango. Por ejemplo: si consideramos el 1 y el 3 cuartil, se define el rango intercuartlico R1 = Q3- Q1.

Desviacin media

Se define como el promedio de los valores absolutos de los desvos:

Para serie simple Para serie agrupada

Si los datos estn agrupados en intervalos, debemos cambiar xi por mi en la frmula anterior.

A se le llama desvos de la variable respecto de la media aritmtica.

Debemos trabajar con valor absoluto pues, de lo contrario, la desviacin media resultara igual a cero para cualquier variable xi.

Comparada con el rango, esta medida utiliza una cantidad mayor de informacin, pero su clculo resulta engorroso.

Observacin: La desviacin media es mnima si se calcula respecto de la mediana.

Variancia

La simbolizaremos con S2( variancia muestral.

La calculamos as:

Para datos no agrupados:

Para series de frecuencia

Para intervalos de clase

Esta medida toma en cuenta, para su calculo, todos los valores de la variable, pero tiene como inconveniente que no esta expresada en la misma unidad de medida que la variable sino en el cuadrado de la misma.

En este caso, la variancia muestral, tal como la hemos definido es un buen estimador de la variancia poblacional cuando el tamao de la muestra n es mayor o igual que 30 (aproximadamente). Si n < 30, resulta mejor estimador la llamada variancia muestral corregida que, para el caso de datos no agrupados, se define as:

Desviacin Tpica (S)

Raiz cuadrada de la variancia para obtener la misma unidad de estudio. Se calcula con:

para datos no agrupadosfrmula de trabajo de S:

Desarrollamos el cuadrado del binomio

Aplicamos propiedad distributiva

Propiedades de la desviacin tpica Si a los valores de una variable se les suma o resta una constante, la desviacin tpica no se ve afectada por dicha transformacin. Grficamente, al sumar (o restar) una constante a la variable, la curva se traslada con todo hacia la derecha (o hacia la izquierda) sobre el eje x, sin alterar su forma.

Si a los valores de una variable se los multiplica por una constante, la desviacin tpica se ve afectada por dicha transformacin. Grficamente, al multiplicar por una constante, la curva que representa el polgono de frecuencias suavizado altera su forma.

Observaciones:

Supongamos que, de una poblacin, se sacan muestras de tamao cada vez ms grande, por lo tanto, el nmero de intervalos aumenta y, cuando ese nmero se hace infinitamente grande, ocurre que:

- La poligonal que limita superiormente al histograma tiende a ser una curva, o sea, el polgono de frecuencias se va suavizando, pues los segmentos que lo determinan son cada vez ms cortos, tiende a ser una curva que denominaremos curva de frecuencias y representa una funcin que llamaremos funcin de densidad de probabilidad. El rea encerrada entre la curva y el eje x tiende a valer uno.

- La poligonal que limita superiormente al diagrama de frecuencias acumuladas, es decir, la ojiva, tiende a una curva y se llama curva de distribucin

La meda muestral () permite estimar a la media poblacional que simbolizaremos y la variancia muestral(S2) permite estimar a la variancia poblacional. Si el tamao n es menor que 30, preferimos la variancia muestral corregida (S2i) para estimar la variancia poblacional.

Cuando la funcin de densidad de probabilidad (curva continua que aproxima a los histogramas de reas) de una variable (que, en este caso, llamaremos variable aleatoria) tiene forma de campana simtrica se llama curva normal o de Gauss. En esta distribucin se cumple:

- x = es el eje de simetra de la curva.

- El rea entre la curva y el eje, desde - hasta + es 0.68 (contiene el 68% de las observaciones, aproximadamente).

- El rea entre la curva y el eje, desde -2 c hasta +2 es 0.95 (contiene el 95% de las observaciones, aproximadamente).

Diagrama de tallo y hojas

En general, en un experimento que involucra una variable aleatoria continua, la funcin de densidad f(x) se desconoce y slo se asume su forma. Para aproximar la forma de la distribucin, se usa actualmente el grfico denominado diagrama de tallo y hojas. ste es realizado automticamente cuando se ejecuta el procedimiento estadstico Explorar Datos de la mayora de los paquetes estadsticos.

Para ejemplificar la elaboracin de un diagrama de tallo y hojas, considrense los datos de la tabla siguiente que representan las duraciones de 40 bateras de automvil similares. Las mismas estaban garantizadas para durar 3 aos:

Primero, se divide cada observacin en dos partes que consisten en un tallo y una hoja, de tal forma que el primero represente el dgito que es el entero y la hoja corresponda a la parte decimal del nmero. En otras palabras, para el nmero 3.7 el dgito 3 se designa como el tallo y el dgito 7 como la hoja. Los cuatro tallos: 1, 2, 3 y 4 quedan listados consecutivamente en el lado izquierdo de la lnea vertical de la tabla que se muestra a continuacin. Las hojas se escriben en el lado derecho de la lnea, en contraposicin al valor de tallo apropiado.

Entonces, la hoja 6 del nmero 1.6 se escribe a la altura del tallo 1, la hoja 5 del nmero 2.5 se escribe a la altura del tallo 2, y asi sucesivamente. La cantidad de hojas registradas para cada tallo se resume en la columna de frecuencia.

Medidas de dispersin relativasToda medida de variacin absoluta tiene significacin solamente con relacin al promedio respecto del cual se midieron las desviaciones.

La medida de variacin relativa ms usada es el llamado coeficiente de variacin (que a veces, se expresa como porcentaje):

para porcentajeEl coeficiente de variacin es un nmero abstracto, una medida de variacin relativa de los datos que se estudian que puede compararse con valores similares procedentes de otras distribuciones.

Medidas de asimetra y de curtosis

Medidas de asimetra

La asimetra o sesgo de una distribucin se refiere a la falta de simetra. Si la curva

de frecuencias (el polgono de frecuencias suavizado) de una distribucin tiene una

cola ms larga a la derecha del mximo central que a la izquierda, se dice que la distribucin est sesgada a la derecha o que tiene sesgo positivo. Si es lo contrario, se dice que est sesgada a la izquierda o que tiene sesgo negativo.

Si la distribucin es unimodal y simtrica, estas tres medidas coinciden. Para una distribucin asimtrica, la media se aleja de la moda hacia el lado de la cola ms larga, con la mediana entre ellas. Estas relaciones las vimos grficamente en el punto 2.1.4.

Luego, podramos medir la asimetra haciendo: Cuanto mayor sea la diferencia, negativa o positiva, tanto ms asimtrica ser la distribucin (a la derecha o a la izquierda).

Esta medida presenta dos inconvenientes:

Es una medida absoluta, o sea, que el resultado se expresa en las unidades originales de la variable en estudio.

La misma cantidad absoluta de asimetra tiene un significado diferente para distintas series con distintos grados de variabilidad. Luego, esta medida puede adimensionarse dividindola por una medida de dispersin, como la desviacin tpica. As definimos:

1 coeficiente de sesgo de PearsonUtilizando la relacin para distribuciones moderadamente asimtricas resulta:

2 coeficiente de sesgo de Pearson

Esta medida vale 0 para una distribucin simtrica, es negativa para una distribucin asimtrica a la izquierda y positiva para una distribucin asimtrica a la derecha.

Aplicaciones:

Se cree que la asimetra positiva es producida por fuerzas multiplicadores. Las distribuciones asimtricas negativas son muy raras y a menudo es difcil ofrecer una explicacin racional de su existencia.

Medidas de curtosis

Es el grado de agudeza o apuntamiento de una distribucin. Al coeficiente de curtosis lo simbolizamos con CC y lo definimos de la manera siguiente:

Los tres tipos de curtosis son:

Distribucin leptocrtica: presenta un elevado grado de concentracin alrededor de los valores centrales de la variable. Distribucin platicrtca: presenta un reducido grado de concentracin alrededor de los valores centrales de la variable. Distribucin mesocrtica: presenta un grado de concentracin medio alrededor de los valores centrales de la variable (el mismo que presenta una distribucin normal).

Cuando la amplitud de una variable se aproxima al infinito, y para una curva completamente plana, CC se aproxima a 0. Para mesocrtica( CC = 0,263, platicrtca ( CC = menor a 0,623; leptocrtica ( CC = mayor a 0,263.Coeficiente de Curtosis percentlico

3. PROBABILIDAD

Importancia del tema y breve resea histrica

Los jugadores siempre han recurrido a las probabilidades para realizar sus apuestas a lo largo de la historia escrita. Pero fue recin en el siglo XVII cuando un noble francs, puso en tela de juicio el fundamento matemtico del xito y del fracaso en las mesas de juego.

La teora de la probabilidad fue aplicada con buenos resultados a las mesas de, juego y, lo que es an ms importante para nuestro estudio, con el tiempo tambin se aplic a otros problemas socioeconmicos.

En la actualidad, la teora matemtica de la probabilidad constituye el fundamento de las aplicaciones estadsticas, tanto en la investigacin social como en la toma de decisiones.

La probabilidad forma parte de nuestra vida diaria. En las decisiones de carcter personal y gerencial, enfrentamos la incertidumbre y nos valemos de la teora de la probabilidad, sin importar si admitimos o no el empleo de una cosa tan refinada.

Triangulo de pascal

El tringulo de Pascal es un tringulo de nmeros enteros, infinito y simtrico Se empieza con un 1 en la primera fila, y en las filas siguientes se van colocando nmeros de forma que cada uno de ellos sea la suma de los dos nmeros que tiene encima. Se supone que los lugares fuera del tringulo contienen ceros, de forma que los bordes del tringulo estn formados por unos. Aqu slo se ve una parte; el tringulo contina por debajo y es infinito.Nos permite obtener los resultados de los nmeros combinatorios sin necesidad de realizar operaciones muy complicadas:

Los nmeros del tringulo de Pascal coinciden con los nmeros combinatorios.El nmero combinatorio (n sobre m) se encuentra en el tringulo en la fila n+1, en el lugar m+1.

El nmero combinatorio (n sobre m) que representa el nmero de grupos de m elementos que pueden hacerse de entre un conjunto de n (por ejemplo, (4 sobre 2) nos da el nmero de parejas distintas que podran hacerse en un grupo de cuatro personas), se encuentra en el tringulo en la fila n+1, en el lugar m+1.

1 1 1 1 2 1 1 3 3 1 1 4 6 4 11 5 10 10 5 1 ...

Podemos saber que el nmero de parejas posibles que decamos antes es 6 si miramos el tercer nmero de la quinta fila. Esto hace que el tringulo sea til como representacin de estos nmeros, y proporciona una buena forma de intuir sus propiedades.

Por el contrario, a la frmula de los nmeros combinatorios se le puede dar el carcter de frmula general del tringulo para saber, sin necesidad de construir todas las filas anteriores, cul es el nmero que ocupa un lugar determinado:

Relacin de la Probabilidad con las partes de la Estadstica

El estudio de las probabilidades es una herramienta fundamental, sin la cual no podemos introducirnos en el estudio de la Estadstica Inferencial.

La Probabilidad y la Estadstica son dos campos ajenos entre s pero relacionados de las Matemticas. Se dice que la Probabilidad es el vehculo de la Estadstica, es decir, si no fuera por las leyes de la probabilidad, la teora de la estadstica no sera posible.

Observe la diferencia: la Probabilidad pregunta sobre la posibilidad de que ocurra algo especfico (una muestra) cuando se conocen las posibilidades (es decir, se conoce la poblacin). Por otra parte, la Estadstica pide extraer una muestra, describirla (Estadstica Descriptiva) y luego hacer inferencias sobre la poblacin, con base en la informacin que se obtuvo de la muestra (Estadstica Inferencial).

LAS PROBABILIDADES SE EXPRESAN COMO FRACCIONES O COMO DECIMALES ENTRE O Y 1 O COMO PORCENTAJES.

Asignar una probabilidad de O significa que algo nunca ocurrir, mientras que una probabilidad de 1 indica que algo suceder siempre.

Conceptos bsicos de probabilidad

Evento o Suceso

En la teora de la probabilidad, un evento o suceso es uno o varios de los resultados posibles que se pueden obtener al hacer una experiencia. Simbologa: S

Experimento Aleatorio

En la teora de la probabilidad, se le llama experimento a la actividad que produce un evento. Simbologa: E

Luego, podemos decir que un experimento aleatorio es un proceso que presenta las siguientes caractersticas:

Es posible repetir cada experimento indefinidamente, sin cambiar esencialmente las condiciones.

Aunque, en general, no podemos indicar cul ser un resultado particular, podemos describir el conjunto de todos los resultados posibles del experimento.

A medida que el experimento se repite, los resultados individuales parecen ocurrir en forma caprichosa, Sin embargo, cuando el experimento se repite un gran nmero de veces, aparece un modelo definido de regularidad. Esta regularidad hace posible la construccin de un modelo matemtico preciso, con el cual podemos analizar el experimento.

Caractersticas esenciales de un experimento aleatorio:

Constancia de las condiciones en que se realiza.

Conocimiento de todos los resultados posibles.

Regularidad de resultados cuando el nmero de observaciones tiende a infinito.

Sus resultados estn influidos por el azar.

Espacio Muestral

El conjunto de todos los resultados posibles de un experimento recibe el nombre de espacio muestral. Luego, estamos en condiciones de decir que todo subconjunto del espacio muestral es un suceso.

Simbologa: A, B, C, ..., o bien, A1,A3, A4,

Sucesos compatibles e incompatibles o sucesos mutuamente excluyentes

Se dice que dos eventos son mutuamente excluyentes o incompatibles si uno y slo uno de ellos puede tener lugar a la vez. Como ejemplo tomamos el lanzamiento de una moneda, puede salir cara o seca, pero NUNCA LOS DOS. Por ello, los eventos "lado cara" y "lado seca" en un lanzamiento individual de la moneda son mutuamente excluyentes. He aqu la pregunta decisiva que es preciso formular al decidir si los eventos son mutuamente excluyentes: "Pueden presentarse al mismo tiempo?". Si la respuesta es afirmativa, los eventos no son mutuamente excluyentes; en este caso, decimos que son compatibles. Si la respuesta es negativa, concluimos que los sucesos son incompatibles o mutuamente excluyentes.

Cuando una lista de los eventos que pueden resultar de un experimento incluye todos los resultados posibles, se dice que es colectivamente exhaustiva.

Distintos enfoques en la definicin de probabilidad

Enfoque clsico o "a prior"

La probabilidad clsica define la probabilidad de que un evento

o suceso ocurra como:

N de resultados favorables al evento

Probabilidad de un suceso =

N total de resultados posibles igualmente probables

sta tambin se conoce como la definicin de Laplace.

Debemos recalcar que, a fin de que sea vlida la frmula anterior, cada uno de los resultados posibles debe tener la misma probabilidad y ser sucesos mutuamente excluyentes.

Decimos que es a priori porque no es necesario que realicemos experimentos para hacer nuestras afirmaciones de probabilidad sino que, por el contrario, hallamos las probabilidades basndonos en el razonamiento lgico, antes de efectuar el experimento.

El enfoque clsico supone un mundo que no existe en la realidad; descarta situaciones que son muy poco probables pero que podran presentarse.

Enfoque de frecuencia relativa o "a posterior"

Define la probabilidad como la proporcin de las veces que un evento sucede a la larga, cuando las condiciones son estables.

Este mtodo utiliza, como probabilidades, las frecuencias relativas de ocurrencias pasadas: determinamos la frecuencia con que algo ha sucedido en el pasado y, mediante esa cifra, predecimos la probabilidad de que vuelva a suceder en el futuro. Vemos que el nombre de probabilidad a posteriori, que tambin se le da, tiene su explicacin porque en este enfoque necesitamos la experimentacin previa para poder determinar el valor de la probabilidad de un evento.

As pues, cuando usamos la frecuencia relativa para establecer las probabilidades, la cifra de stas ser ms exacta a medida que aumentemos el nmero de observaciones.

Podemos decir: para un suceso cualquiera A, si llamamos con f (A) a la cantidad de veces que ocurre A en n pruebas repetidas de un experimento E, la probabilidad de A ser:

Este lmite es "lmite en probabilidad" y significa que debemos hallar el resultado del cociente f(A) / n cuando el nmero de pruebas u observaciones es lo ms grande posible.

Enfoque subjetivo

Las probabilidades subjetivas se basan en las creencias e ideas del que realiza la evaluacin de las mismas. En efecto, podemos definir la probabilidad subjetiva como aquella que un individuo asigna a un evento, basndose en la evidencia disponible.

Las asignaciones de probabilidad subjetiva se dan frecuentemente cuando los eventos ocurren una sola vez y, a lo mximo, unas cuantas veces.

Las decisiones sociales y administrativas de nivel superior se ocupan de situaciones especficas y singulares, y no de una larga serie de situaciones idnticas, por lo cual, en este nivel, los ejecutivos se apoyan constantemente en las probabilidades subjetivas.

Enfoque axiomtico

Sea un experimento aleatorio E, S el espacio muestral asociado con l y A un suceso cualquiera de S, la probabilidad de A, que simbolizamos P(A), es un nmero real que cumple con los siguientes axiomas:

Axioma de probabilidad 1: O =P(A) = 1

Axioma de probabilidad 2: P(S) = 1

Axioma de probabilidad 3: Si A y B son dos sucesos mutuamente excluyentes, entonces P(A u fi) = P(A) + P(B).

Axioma de probabilidad 4: Si A1, A2, ..., Ai, ..., son sucesos mutuamente excluyentes, entonces P(ui=1A) = P(A + P(AZ) + ... + P(A) + ...

Algunas probabilidades especiales

La mayor parte de los gerentes que utilizan las probabilidades se interesan en dos situaciones:

a) caso en que ocurra uno u otro evento.

b) La situacin donde ocurran dos o ms eventos.

Algunos smbolos, definiciones y reglas de uso comn

Diagramas de Venn

En estos diagramas, el espacio muestral se representa ntegramente por medio de un rectngulo y los eventos o sucesos se representan con las partes del mismo. Si dos eventos son mutuamente excluyentes, sus partes del rectngulo no se superpondrn, segn se aprecia en la figura (a). Si dos eventos son no mutuamente excluyentes, sus partes del rectngulo se superpondrn, como se observa en la figura (b).

Probabilidad del suceso contrario

Con simbolizaremos al suceso contrario de A, es decir, aquel que consiste en que no ocurra el suceso A. Luego:

Probabilidad del suceso imposible

La probabilidad del suceso imposible es igual a O, es decir:

, o bien: si " P(A) = O (la recproca es falsa).

Probabilidad de un suceso contenido en otro

(En B todos los de A mas otros)

Si un suceso A est contenido en otro suceso B, luego la probabilidad de A es menor o igual que la probabilidad de B. Es decir: Si A B, luego P(A) P(B)

Tengamos presente que, al contener el suceso B al suceso A, el suceso B est constituido por todos los puntos muestrales de A y otros que le son propios.

Regla de adicin para eventos no mutuamente excluyentes o compatibles

Si dos eventos son no mutuamente excluyentes, es posible que ambos ocurran juntos.

Probabilidad de que ocurran juntos:

Probabilidad condicional e independencia

Probabilidad condicional

P(A/B) se lee A dado B o A condicional B

Deberamos saber si el suceso A ocurri o no. Este ejemplo indica la necesidad de presentar el siguiente concepto importante:

Sean A y B dos sucesos asociados con un experimento E, indiquemos con P(B/A) a la probabilidad condicional del suceso B dado que A ha ocurrido.

Cada vez que calculamos P(B/A), estamos esencialmente calculando P(B) con respecto al espacio muestral reducido de A, en vez del espacio muestral original S.

Consideremos el diagrama de Venn de la figura anterior. Cuando calculamos P(B), nos preguntamos qu tan probable es que estemos en B, sabiendo que debemos estar en S y, cuando evaluamos P(B/A), nos preguntamos qu tan probable es que estemos en 6, sabiendo que debemos estar en A. Esto es, el espacio muestral se ha reducido de S a A.

Para calcularlo

Y . Se diferencia que P(A/B) es distinto a P(B/A).

Si A y B son sucesos aleatorios, deseamos definir un cierto valor que permita determinar la probabilidad condicional del evento A dada previamente la ocurrencia del suceso B: P(A/B). Dado el conocimiento de que B ocurri, A slo puede ocurrir juntamente con B. Parece razonable definir la probabilidad condicional proporcional a P(AB) y, teniendo en cuenta que P(B/B) = 1 , podemos establecer la siguiente definicin:

Dados dos sucesos, siendo ninguno de ellos el suceso imposible, se define la probabilidad de ocurrencia del suceso A sujeta a la previa aparicin del suceso B como:

con

La frmula de probabilidad condicional admite ser generalizada a n sucesos, aleatorios. Por ejemplo, para n = 3 resulta:

Para n sucesos se deduce que:

Esta frmula se la conoce bajo el nombre de ley del producto o ley multiplicativa.

Sucesos independientes

Dados los sucesos aleatorios referidos al mismo espacio muestral, ninguno de los cuales es el evento imposible diremos que son independientes si se verifica alguna de estas condiciones:

P(A/B) = P(A)o P(B/A) = P(B)

En consecuencia, la aparicin de uno de ellos es independiente de la presencia o ausencia del otro.

Cuando los sucesos son independientes, la ley del producto toma la forma: P(AB) = P(A) * P(B)

Resumen:

Luego, si dos sucesos son mutuamente excluyentes, la probabilidad de la alternativa es la suma de las probabilidades. Si dos sucesos son independientes, la probabilidad de la aparicin simultanea es el producto de las probabilidades: P(AB)=P(A) * P(B)

Teorema

Dados dos sucesos aleatorios A y B referidos a un mismo experimento, si ambos son independientes, entonces no son mutuamente excluyentes.

Demostracin:

Para que A y B sean mutuamente excluyentes, se debera verificar que P(AB) = 0.Pero P(AB) = P(A) * P(B), pues ambos son independientes. Dicho producto valdr cero si alguno (o ambos sucesos) es el suceso imposible, en cuyo caso carece de sentido hablar de independencia. Luego P(AB) 0, lo que implica que ambos sucesos no son mutuamente excluyentes.

Particin del espacio muestral

Decimos que los sucesos A1,A2, ..., Ak representan una particin del espacio muestral S si:

a)

b)

c)

En otras palabras, cuando se efecta el experimento E, ocurre uno y slo uno de los sucesos Ai. Tambin se suele decir que los sucesos Ai completan el espacio muestral S.

Teorema de Bayes

Planteemos la siguiente situacin en un proceso de produccin. Tres mquinas, A1 , A2 y A3, producen un mismo tipo de pieza mecnica. El ingeniero de Control de Calidad sabe, por experiencia, cul es la proporcin de piezas que pueden resultar defectuosas por da. Las piezas que producen las tres mquinas se depositan en un lugar comn y ah se mezclan. Al final de cada jornada laboral, se prueba una muestra de piezas para verificar si la proporcin de defectuosas est dentro de la tolerancia. (Los ensayos son de tipo destructivo.) Cierto da, se observa un porcentaje de defectuosas superior a la tolerancia; se sospecha que alguna de las mquinas est fallando. Revisar una mquina implica pararla y desarmarla, lo cual lleva consigo un costo para la fbrica, tanto porque se para la produccin de esa mquina como porque, adems, revisarla tiene un costo. Luego, sera importante conocer cul de las tres mquinas es ms probable que est fallando.

Describamos cules son los sucesos:

A1 "la pieza es producida por la mquina 1"

A2 "la pieza es producida por la mquina 2"

A3 "la pieza es producida por la mquina 3"

B: "la pieza producida es defectuosa"

Luego, habindose observado pieza defectuosa, nos preguntamos: "cul es la probabilidad de que la haya producido la mquina 1 , la 2 o la 3?. En smbolos, queremos hallar: PAJB), P(AJB) y P(A3/B).

La idea de obtener tas posibilidades posteriores (a posteriori), con limitada informacin disponible, se atribuye al reverendo Thomas Bayes, y a la frmula bsica de la probabilidad condicional bajo dependencia se le llama teorema de Bayes.

El teorema de Bayes ofrece un poderoso mtodo estadstico para evaluar nueva informacin y revisar nuestras estimaciones precedentes (basadas en escasa informacin solamente) sobre la probabilidad de que las cosas se hallen en uno u otro estado. Si se usa correctamente, el teorema hace innecesario reunir grandes cantidades de datos durante largos perodos a fin de tomar decisiones basadas en las probabilidades.

Sean los sucesos A1, ...A2, An una particin del espacio muestral S (o sea, dos de ellos no pueden ocurrir simultneamente, pero uno de ellos debe ocurrir) y sea B un suceso aleatorio en S.

Luego, P(B) = P(B/A1) * P(A1) + ... + P(B/An) * P(An) por la frmula de probabilidad total.

Este teorema es conocido bajo el nombre de frmula de Bayes. Las probabilidades P(B/Ai) y P(Ai) reciben el nombre de probabilidades a priori o previas ya que, generalmente, se pueden conocer antes de que obtengamos informacin alguna del experimento mismo. A menudo, dichas probabilidades son arbitrarias y/o subjetivas. Las probabilidades P(A/B) se llaman probabilidades a posteriori porque se determinan despus de que se conocen los resultados del experimento.

Retomamos nuestro ejemplo introductorio. Se conocen las proporciones de piezas que produce cada mquina, es decir, sabemos que: P(A1) = 0,30, P(A2) = 0,45 y P(A3) = 0,25

Adems, el ingeniero sabe, por experiencia y por conocimiento de las caractersticas de cada mquina, la probabilidad de pieza defectuosa de cada una. Es decir: P(B/A1) = 0,02, P(B/A2) = 0,04 y P(B/A3) = 0,03

Luego, aplicando la formula de Bayes obtenemos:

Anlogamente: y . Luego concluimos que es ms probable que la mquina 2 haya producido pieza defectuosa, por lo que comenzaremos revisando esta mquina. Observemos que:

4. VARIABLES ALEATORIAS UNIDIMENSIONALESVariables aleatorias y distribuciones de probabilidad

Concepto de variable aleatoria

Una variable aleatoria es una funcin que asocia a cada elemento del espacio muestral un nmero real.

Una variable aleatoria se llama variable aleatoria discreta si se puede contar o enumerar su conjunto de resultados posibles. Cuando una variable aleatoria puede tomar valores en una escala continua, se le llama variable aleatoria continua.

Experimento aleatorio

Trmino que se utiliza para describir cualquier proceso mediante el cual se generan varias observaciones al azar.

Espacio muestral

En el que se consideran cada uno de los posibles resultados, por ejemplo cuando se verifican tres componentes electrnicos, puede escribirse: S = {NNN.NND,NDN,DNN,NDD,DND,DDN,DDD} donde N significa "no defectuoso" y D "defectuoso".

Si un espacio muestral contiene un nmero finito de posibilidades, o una infinita numerable, se le llama espacio muestral discreto.

Si un espacio muestral contiene un nmero infinito de posibilidades igual al nmero de puntos en un segmento de recta, se le llama espacio muestral continuo.

Ejemplo:

Sea el experimento aleatorio E = arrojar dos monedas al aire. El espacio muestral asociado es:

S = {(C,C), (C,S), (S,C), (S,S)}

Definimos la variable aleatoria X como el nmero de caras que se obtienen. Luego, los posibles valores de X son; O, 1 y 2. A stos los llamaremos el rango de /a va-riable aleatoria X: R,= {0,1,2}

Distribuciones discretas de probabilidadUna variable aleatoria discreta asume cada uno de sus valores con una cierta probabilidad. Al conjunto de los posibles valores y las respectivas probabilidades de una variable aleatoria discreta se te llama distribucin de probabilidad, es decir la distribucin de probabilidad de la v.a. X es el conjunto de pares ordenados (x,f(x)). A la funcin f(x) se le llama funcin de probabilidad o funcin de cuanta.

DefinicinEl conjunto de pares ordenados (x,f(x)) es una distribucin de probabilidad de la variable aleatoria discreta X si se cumple:

a) (Condicin de no negatividad.)

b) (Condicin de cierre.)

No cualquier funcin que se d ser una funcin de probabilidad. Para que io sea, debe cumplir con las condiciones a) y b), es decir, debe cumplir la condicin de no negatividad y la condicin de cierre.

Funcin de distribucin o de probabilidades acumuladas

Hay muchos problemas en los cuales se desea calcular la probabilidad de que el valor observado de una variable aleatoria X sea menor que o igual a algn nmero real x. Si se escribe para cada nmero real x, se define que F(x) es la funcin de distribucin o de probabilidades acumuladas de la variable aleatoria X.

DefinicinLa funcin de distribucin o de probabilidades acumuladas F(x) de una variable aleatoria discreta X, cuya distribucin de probabilidad es f(x), es:

Debe notarse, en forma muy particular, el hecho de que la distribucin acumulada se define no slo para los valores que asume la variable aleatoria dada, sino para todos los nmeros reales.Distribuciones continuas de probabilidad

Cualquier valor del intervalo.

Una variable aleatoria continua tiene una probabilidad cero de asumir cualquiera de sus valores exactamente. Consecuentemente, su distribucin de probabilidad no puede darse en forma tabular. Por ejemplo, en las alturas de las personas, de 1,69 m a 1,71 m hay infinitos valores. No se representa como tabla pero s puede tener una frmula. La misma, necesariamente, debe ser una funcin de los valores numricos de la variable continua X y, como tal ser expresada por la notacin funcional f(x). Al tratar con variables continuas, f(x) por lo general se llama funcin de densidad de probabilidad (f.d.p.) o, simplemente, funcin de densidad de X.

Una funcin de densidad de probabilidad se construye de tal manera que el rea comprendida bajo su curva es igual a 1.

La probabilidad de que X asuma un valor entre a y b es igual al rea sombreada bajo la funcin de densidad, entre las ordenadas x = a y x = b y, utilizando el clculo integral, esta rea est dada por:

Funcin de densidad de probabilidad

La funcin f(x) es una funcin de densidad de probabilidad para la variable aleatoria continua X, definida en el conjunto de los nmeros reales, si:

a)

b)

c) f(x)dx , si x es V.A.C.

Vernos que, para un valor particular de la variable x0, P(X = x0) = 0. pues no existe intervalo de integracin.

Funcin de distribucin o de probabilidades acumuladas

La funcin de distribucin o de probabilidades acumuladas F(x) de una variable aleatoria continua X, con una funcin de densidad f(x), es:

Como una consecuencia inmediata de la definicin, se pueden escribir los dos resultados siguientes:

a)

b); si la derivada existe

Principales valores caractersticos de una variable aleatoria

Suponemos que conocemos a toda la poblacin.

Valor esperado o esperanza matemtica de una variable aleatoria Para obtener el valor esperado de una variable aleatoria discreta, multiplicamos cada valor que sta puede asumir por la probabilidad de ocurrencia de ese valor, y luego sumarnos los productos.

Definicin:

Sea X una variable aleatoria cualquiera, simbolizaremos con al valor esperado o esperanza matemtica de X:

Observacin: Para una V.A. X usaremos p(x) o f(x) para designar a la funcin de probabilidad o funcin de cuanta de X.

Podemos decir, entonces, que la media aritmtica tiende a la esperanza matemtica cuando aumentamos el tamao de la muestra, es decir, cuando nos vamos aproximando al conocimiento de la poblacin completa.

Variancia y desviacin tpica de una variable aleatoria

Variancia

Sea X una variable aleatoria, definamos la variancia de X, que se denota con V(X) o , como sigue:

La raz cuadrada positiva de V(X) se llama desviacin estndar de X y se designa con

Observaciones:

El nmero V(X) est expresado en unidades cuadradas de X, Esto es, si X se mide en hs, entonces V(X) est expresada en hs2. sta es una razn para considerar la desviacin estndar, ya que sta se expresa en las mismas unidades que X.

Otra medida posible podra haber sido E|X - F(X)|. Por diferentes razones, una de las cuales es que X2 es una funcin "con mejor comportamiento" que |X|, se prefiere la variancia.

S interpretamos a E(X) como el centro de una masa unitaria distribuida sobre una recta, podemos interpretar a V(X) como el momento de inercia de esa masa respecto a un eje perpendicular a travs del centro de la misma.

V(X), como se defini en la ecuacin anterior, es un caso especial del concepto ms general siguiente: "el k-simo momento de la variable aleatoria X respecto a su esperanza se define como . Evidentemente, para k = 2 obtenemos la variancia.

Propiedades del valor esperado de una variable aleatoria

Propiedad 1:

Si X = C, donde C es una constante, entonces E(X)=C

Demostracin:

. Algunas veces esta variable aleatoria se llama degenerada.

Propiedad 2:

Si Y = a + X, donde a es una constante, entonces E(Y) = a + E(X). Parecido a la media aritmtica.

Propiedad 3:

Supongamos que C es una constante y X es una variable aleatoria. Entonces,

E(C*X) = C*E(X). Parecido a la media aritmtica.

Demostracin:

Propiedad 4:

Sean X e Y dos variables aleatorias cualesquiera, entonces E(X+Y) = E(X) + E(Y).

Observaciones:

Combinando las propiedades 2, 3 y 4 observarnos el siguiente hecho importante: si Y = a * X +b, donde a y b son constantes, entonces E(Y) = a * E(X) + b. En palabras, la esperanza de una funcin lineal es esa misma funcin lineal de las esperanzas. Esto no es cierto, a menos que est implicada una funcin lineal, y es un error comn creer que sea de otro modo.

En general, es difcil obtener expresiones para E(1/X) o E(X1/2), por ejemplo, en trminos de 1/E(X) o [E(X)]1/2. Sin embargo, hay algunas desigualdades que son muy fciles de derivar.

Propiedad 5:

Sean X1,, Xn variables aleatorias, entonces E(X1 + ... + Xn) = E(X1) + ... + E(Xn).

Definicin previa 1: Dadas dos variables aleatorias discretas X e Y se define su distribucin conjunta por una tabla de contingencia (o tabla de probabilidades a doble entrada) de la siguiente forma:

Donde representa la probabilidad conjunta de los sucesos (X = xi) y (Y = yi).

Definicin previa 2: Dada la distribucin conjunta de dos variables aleatorias discretas X e Y, se dice que X e Y son variables aleatorias independientes si slo si , Para todo i, para todo j.

Propiedad 6:

Sean X e Y dos variables aleatorias independientes, entonces E(X*Y)=E(X)-E(Y).

Teorema

El clculo de V(X) se simplifica usando:

Propiedades de la variancia de una variable aleatoria

Hay varias propiedades importantes, en parte anlogas a las expuestas para la esperanza de una variable aleatoria, que se mantienen para la variancia.

Propiedad 1:

Si X = C, donde C es una constante, luego V(X) = V(C) = 0.

Es bastante obvio que, si tenemos una constante, su variabilidad es nula.

Propiedad 2:

Si C es una constante, V(X+C) = V(X).

Demostracin:

V(X+C) = E(X+C) [E(X+C)]2 = E[(X+C)-E(X)-C]2 = E[X-E(X)]2 = V(X)

Propiedad 3:

Si C es una constante, V(C*X) = C * V(X).

Propiedad 4:

SI X e Y son dos variables aleatorias independientes, entonces V(X+Y) = =V(X} + V(Y).

Observacin: es importante establecer que, en general, la variancia no es aditiva como lo es el valor esperado. Con la suposicin adicional de independencia, la aditividad de variancias es vlida. Adems, la variancia no posee la propiedad de linealidad que dimos para la esperanza, es decir: V(a*X+b) a * V(X)+ b. En su lugar, tenemos V(a*X+b) = a2* V(X).

Propiedad 5:

Sean X1, , Xn n variables aleatorias independientes de dos a dos, entonces

V(X1++Xn) =V(X1)++V(Xn)

Desigualdad de Chebyshev

Si conocemos la distribucin de probabilidades de una variable aleatoria (la f.d.p. en el caso continuo o la probabilidad puntual en el caso discreto), podemos calcular E(X) y V(X), si existen. Sin embargo, lo recproco no es verdadero. Nunca la probabilidad va a ser exacta, pero si en una cota inferior y en otra superior.

Sin embargo, resulta que, aunque no podemos evaluar tales probabilidades (a partir de un conocimiento de E(X) y lV(X)), es posible dar una cota superior (o inferior} muy til para las mismas. Este resultado est contenido en lo que se conoce como la desigualdad de Chebyshev.

Desigualdad de Chebyshev

Sea X una variable aleatoria con y sea k un nmero real cualquiera mayor o igual que 1, entonces: en forma equivalente:

Esta ultima forma indica, especialmente, cmo la variancia mide el "grado de concentracin" de probabilidad prxima a . Podemos expresarla en palabras diciendo: dado un nmero k mayor o igual que 1 y un conjunto de n observaciones, al menos (1 - 1/k2) .100 % de las observaciones caen dentro de k desviaciones estndares de la media.

Esta desigualdad es vlida tanto para una muestra como para una poblacin. Cuando se trabaja con una muestra aleatoria, se utiliza S en lugar de y x en lugar de . Si n < 30, conviene utilizar S' en lugar de S.

5. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS

Distribucin discreta uniforme

Es aquella en la cual la variable aleatoria asume cada uno de sus valores con idntica probabilidad. Es la ms simple de todas las distribuciones discretas de probabilidad.

Teorema

La media y la variancia de la distribucin uniforme discreta f(x) estn dadas por:

y

EI proceso aleatorio de Bernoulli

Por ejemplo, una lnea de produccin se prueban cada uno de los artculos para ver si son defectuosos o no. Los intentos o ensayos repetidos son Independientes y la probabilidad de xito permanece constante. Este proceso se conoce como proceso de Bernoulli. Cada intento se llama experimento de Bernoulll.

Propiedades

Estrictamente hablando, el proceso de Bernoulli debe tener las siguientes propiedades:

El experimento consiste en un solo intento,

Los resultados del intento pueden clasificarse como xito o fracaso. Luego, la distribucin de probabilidad de la v.a. y (variable aleatoria de Bernoulli) se puede presentar en forma tabular de la manera siguiente: Distribucin de probabilidades de y:

yp(y)

0q

1p

Esperanza y variancia de la variable aleatoria de Bemoulli

Esperanza matemtica de y

Variancia de y

Desviacin tpica de y

Distribucin binomial

El nmero X de xitos en n experimentos de Bernoulli recibe el nombre de variable aleatoria binomial, La distribucin de probabilidad de esta variable aleatoria discreta se llama distribucin binomial y sus valores se representan por B(x;n,p), dado que estos ltimos dependen del nmero de intentos y de la probabilidad de xito en un intento determinado.

La funcin de probabilidad de la variable aleatoria binomial X, el nmero de xitos en n experimentos independientes, es:

x=0,1,2,,n.

Donde n es el nmero de observaciones, p es la probabilidad de xito, q es la probabilidad de fracaso y p + q = 1.

Las caractersticas del modelo binomial son:

El experimento consiste en n intentos repetidos.

Los resultados de cada uno de los intentos pueden clasificarse como xito o como fracaso,

La probabilidad de xito, representada por p, permanece constante para todos los intentos.

Los intentos repetidos son independientes.

Por ejemplo, si n = 4 y p = 1/4, la distribucin de probabilidad de X, es decir, el nmero de artculos defectuosos que pueden obtenerse en una muestra de cuatro artculos, puede escribirse corno:

x = 0,1,2,3,4

Funcin de distribucin o de probabilidades acumuladas

sta se aplica en cualquier situacin de tipo industrial donde se presentan las caractersticas siguientes:

El resultado de un proceso es dicotmico,

Los resultados posibles son independientes, y

La probabilidad de xito es constante de una observacin a otra.

Esperanza y variancia de la variable aleatoria binomial

Teorema

La esperanza matematica y la variancia de la distribucin nominal estan dadas por:

y

Asimetra de la distribucin binomial

Es posible predecir la asimetra de toda distribucin binomial en funcin del valor de sus parmetros, especialmente, de la probabilidad de xito p. Resulta:

a) Si p30 entonces la distribucin binomial ser asimtrica a derecha.

b) Si p>1/2, n > 30 entonces tal distribucin resultar asimtrica a izquierda.

c) Si p = 1/2, entonces esta distribucin resulta simtrica, sin importar el tamao de muestra n.

Experimentos multinomiales

Si cada prueba u observacin tiene ms de 2 resultados posibles, entonces el experimento binomial se convierte en un experimento multinomial.

Para derivar la frmula general se procede como en el caso binomial. Dado que los intentos son independientes, cualquier orden especificado que produzca x1 resultados para E1, x2 para E2, , xk para Ek ocurrir con una probabilidad . El nmero total de rdenes que producen resultados similares para los n intentos es igual al nmero de particiones de n intentos en k grupos con x1 en el primer grupo, x2 en el segundo, ..., y xk en el grupo k. Esto puede realizarse en:

maneras, Dado que todas las particiones son mutuamente excluyentes y ocurren con igual probabilidad, se obtiene la distribucin multinomial al multiplicar la probabilidad para un orden especifico por el nmero total de particiones.

Distribucin multinomial

Si en un experimento aleatorio determinado cada observacin puede resultar en k resultados distintos, con probabilidades p1, p2,..., pk respectivamente, entonces la distribucin de probabilidades de las v.a. x1, x2, ..., xk, que representan el nmero de ocurrencias para los resultados en n observaciones independientes, viene dada por:

Distribucin hipergeomtrica

El esquema del tipo de experimentos aleatorios donde se puede aplicar una distribucin hipergeomtrica es similar al de la binomial. La diferencia radica en que en la binomial las distintas observaciones eran independientes, mientras que en la hipergeomtrica son dependientes.

Las caractersticas de un experimento aleatorio donde se puede aplicar el modelo hipergeomtrico son las siguientes:

La poblacin posee N elementos, de los cuales N1 son de una clase determinada y N2 son de otra clase, tal que N1 + N2 = N. Ambas clases son mutuamente excluyentes y exhaustivas.

Se extrae una muestra de n elementos sin reemplazo.

Luego, la funcin de probabilidad de la distribucin hipergeomtrica viene dada

donde x = 0,1,2,...,ny N1 + N2 = N

Esperanza y variancia de la variable aleatoria hipergeomtrica

Teorema

La esperanza matemtica y la variancia de la distribucin hipergeomtrica estn dadas por:

y

Distribucin de Poisson

Se denominan experimentos de Poisson a aquellos que describen el comportamiento de una variable aleatoria que representa el nmero de resultados observados, con una determinada caracterstica, durante un intervalo de tiempo dado o en una unidad de espacio especfica.

Un experimento de Poisson surge del proceso de Poisson y tiene las siguientes caractersticas:

El nmero de resultados que ocurren en un intervalo de tiempo o regin especficos es independiente del nmero que ocurre en cualquier otro intervalo disjunto de tiempo o espacio. De esta manera, se dice que el proceso de Poisson no tiene memoria.

La probabilidad de que un resultado sencillo ocurra en un intervalo de tiempo muy corto o en una regin pequea es proporcional a la longitud del intervalo de tiempo o al tamao de la regin, y no depende del nmero de resultados que ocurren fuera de este intervalo o regin.

La probabilidad de que ms de un resultado ocurra en ese intervalo de tiempo tan corto o en esa regin tan pequea es despreciable.

El nmero X de resultados que ocurren en un experimento de Poisson se llama variable aleatoria de Poisson y su distribucin de probabilidad recibe el nombre de distribucin de Poisson.

Distribucin de Poisson

La funcin de probabilidad de la variable aleatoria de Poisson X, que representa el nmero de resultados que ocurren en un intervalo de tiempo dado o de espacio, es:

x=0,1,2

Dondees el nmero promedio de resultados por unidad de tiempo o espacio y e = 2.71828...

Esperanza y variancia de la variable aleatoria de Poisson

Teorema

La media y la variancia de la distribucin de Poisson tienen, ambas, el valor

La distribucin de Poisson como lmite de la binomial

Cuando , y n.p permanece constante la distribucin Binomial se aproxima a la de Poisson. De aqu que, si n es grande y p es cercana a O, la distribucin de Poisson puede utilizarse con para aproximar distribuciones binomiales. Si p es cercana a 1, se puede utilizar la distribucin de Poisson para aproximar a la distribucin binomial, intercambiando lo que se defini como un xito por un fracaso, cambiando de esta manera p por un valor cercano a 0.

Teorema

Sea X una variable aleatoria bnomial con distribucin de probabilidad B(n,p). Cuando , y permanece constante: se aproxima a la de Poisson.

Aplicacin de las distribuciones de probabilidad al muestreo de aceptacin

En los problemas que vimos, donde se usaba la distribucin binomial, la probabilidad' de xito p se supona conocida. Imaginemos ahora que no se conoce p y, en base a resultados mustrales, se quieren hacer inferencias con respecto a p.

Supongamos que se reciben grandes lotes de artculos manufacturados, digamos lotes de 500 artculos, y se desea rechazar y devolver al fabricante aquellos lotes que contengan una proporcin alta de artculos defectuosos. Digamos que el comprador slo aceptar lotes que no contengan una proporcin mayor de p =

0.05 artculos defectuosos. Luego, siendo p la proporcin de artculos defectuosos en el lote:

Si ( El lote es aceptado.

Si ( El lote es rechazado.

Luego, se determina un plan de muestreo que consiste en establecer un tamao de muestra n que ser la cantidad de artculos que se inspeccionarn del lote. Tambin se selecciona de antemano un nmero a que representa el nmero de defectuosos que se est dispuesto a aceptar. Siendo X el nmero de artculos defectuosos en la Mn:

Si ( Se acepta el lote.

Si( Se rechaza el lote y se devuelve al fabricante.

Los ingenieros de control de calidad caracterizan la bondad de un plan de muestreo mediante el clculo de la probabilidad de aceptar un lote para distintos valores de la proporcin de defectuosos. La representacin grfica del resultado se denomina curva caracterstica de operacin del plan de muestreo.

Un buen plan de muestreo debe dar probabilidades altas de aceptar lotes con una baja proporcin de defectuosos y probabilidades bajas de aceptar lotes con una alta proporcin de defectuosos.6. DISTRIBUCIONES DE PROBABILIDAD CONTINUASDistribucin uniforme o rectangularDefinicinSupongamos que X es una v.a. continua que toma todos los valores en el intervalo [a, b], donde a y b son finitos. Si la funcin de densidad de probabilidad est dada por:

Diremos que x est distribuida uniformemente en el [a, b].

Funcin de Densidad de Probabilidadf(x) debe cumplir las siguientes condiciones para ser una funcin de densidad de probabilidad:a) f(x)0

b)

Si queremos calcular, por ejemplo, hacemos:

a y b son los extremos de los intervalos.

Funcin de Distribucin

(despus de integrar)

Esperanza y Varancia

Distribucin normal o de GaussEs la distribucin ms importante en la Estadstica. Esto se debe, principalmente, a las siguientes razones:a) La distribucin normal constituye una muy buena aproximacin de otras distribuciones de probabilidad discretas y continuas. b) Muchas variables que se observan en la vida diaria siguen una distribucin normal, Podemos citar: el peso, la estatura, el cociente intelectual de las personas. c) Independientemente de la distribucin de probabilidades que tenga una poblacin, si extraemos muestras aleatorias y hallamos luego la distribucin muestral de los estadsticos, muchos de ellos sern normales. Funcin de Densidad de ProbabilidadSi y tiene una distribucin normal, su f.d.p. es la siguiente:

La notacin x ~ N (,) se lee: "x es una v.a. normal con esperanza y desviacin tpica ". y

Recordemos tambin que, para una v.a. continua, las probabilidades se calculaban integrando la funcin de densidad de probabilidad en el intervalo de inters, es decir:

En el caso de la distribucin normal:

Estos valores se encuentran en la tabla de probabilidades normales del apndice

Algunas caractersticas de la distribucin normal:Toda el rea bajo la curva es igual a 1. Esto es obvio si pensamos que, por seruna f.d.p., la ley normal o de Gauss verifica las condiciones de la misma, que segnya vimos eran:a) Condicin de no negatividad: f(x)0 b) Condicin de cierre:

Esta ltima condicin es la que nos permite afirmar que el rea bajo la curva es igual a 1. La distribucin tiene forma de campana simtrica, por eso vulgarmente se habla de "campana de Gauss". El punto mximo es la ordenada de , que adems coincide con la mediana y con el modo, por tratarse de una distribucin simtrica,

El eje x es asntota de la curva, es decir, a partir de la curva se extiende indefinidamente hacia la izquierda y hacia la derecha, tendiendo al eje x pero sin tocarlo nunca. En la prctica, a una distancia 3 de (hacia la derecha y hacia la izquierda), el valor de f (x) es muy prximo a 0.

El eje de simetra de la curva es x = (es decir, la vertical que pasa por ).

Los valores de y determinan, respectivamente, la ubicacin de la curva sobre el eje x y la forma de la misma.

La curva tiene sus puntos de inflexin en x = ; es cncava hacia abajo si - 0 si su f.d.p. est dada por:

Representacin GrficaSe puede probar que:

La distribucin exponencial desempea un papel importante en la descripcin de una gran clase de fenmenos, especialmente en el rea de la teora de la confiabilidad de equipos electromecnicos.Funcin de Distribucin

Esperanza y variancia

La distribucin exponencial tiene una propiedad importante. Considerando cualesquiera u, v > 0, tenemos:

Por lo tanto:

Generalmente, a las distribuciones que cumplen con esta propiedad se les dice que "no tienen memoria".En otras palabras, la informacin de ningn xito es "olvidada" en lo que se refierea clculos subsecuentes

Distribucin chi-cuadradoDefinicinUna variable aleatoria continua X tiene una distribucin chi-cuadrado, con v grados de libertad, si su funcin de densidad es la siguiente:

Donde v es un entero positivo y dnde es el valor de la funcin gamma para v/2, estando la funcin gamma definida por:

Con v>o

Esta distribucin juega un papel vital en la Inferencia estadstica

La media

La variancia

Distribucin t de Student

La mayora de las veces no se tiene la suerte suficiente como para conocer la variancia de la poblacin de la cual se seleccionan las muestras aleatorias. Para muestras de tamao n > 30, se proporciona una buena estimacin de a2 al calcularun valor de S2. Qu le ocurre entonces al estadstico del Teorema Central del Lmite si se reemplaza 2 por S2? Si el tamao muestral es pequeo, los valores de S2 fluctan considerablemente de muestra en muestra y la distribucin de la variable aleatoria se desva en forma apreciable de una distribucin normal estndar. Ahora se est tratando con la distribucin de un estadstico que recibe el nombre de T, donde: para n1

V(tn-1) = n/(n-2), para n>2.Obsrvese que si n < 1 la distribucin T-Student carece de esperanza matemtica, y si n < 2, carece de varianza.

TeoremaSea Z una variable aleatoria normal estndar y V una variable aleatoria chi-cuadrado con v grados de libertad. Si Z y V son independientes, entonces la distribucin de la variable aleatoria T, donde:

est dada por;

y se conoce como distribucin t con v grados de libertad.

Los grados de libertad como una medicin de la informacin muestralSe sabe que, cuando una muestra aleatoria se toma de una distribucin normal, la variable aleatoria:

Tiene una distribucin x2 con n grados de libertad. Es muy simple observar que, en las mismas condiciones, la variable aleatoria:

Tiene una distribucin c2 con n -1 grados de libertad. Se puede indicar que, cuando m no se conoce y se considera la distribucin de:

Existe un grado de libertad menos, o se pierde un grado de libertad en la estimacin de (es decir, cuando es reemplazada por ). Cuando los datos (los valores en la muestra) se utilizan para calcular la media, hay 1 grado de libertad menos en la informacin utilizada para estimar 2.Aproximaciones entre distribuciones continuas1 Aproximacin de la distribucin T-Student por la distribucin Normal: si n>30 se cumple que tn-1 se distribuye aproximadamente como una normal tpica Z

2 Aproximacin de la distribucin Chi-cuadrado por la distribucin Normal:

a) Para clculos de probabilidades: si n>30 se cumple que la distribucin Chi-cuadrado con n-1 grados de libertad se distribuye aproximadamente como una normal con esperanza matemtica n-1 y desvo standard [2.(n-1)]1/2b) Para clculos de percentiles: si n>30 el percentil p de la distribucin Chi-cuadrado con n-1 grados de libertad se puede aproximar por la expresin 1/2.[zp + (2.n-3)1/2]2.7. DISTRIBUCIONES EN EL MUESTREOEl muestreo estadsticoEl muestreo estadstico es un enfoque sistemtico para seleccionar unos cuantos elementos (una muestra) de un grupo de datos (una poblacin), a fin de hacer algunas inferencias sobre el total. Razones del muestreoProbar el producto ntegramente lo destruye a menudo, adems de ser innecesario. Para averiguar las caractersticas de un todo, basta muestrear una parte de l.Podemos mencionar entre las principales razones para realizar el muestreo a las siguientes:a) Ensayos de tipo destructivo.b) Imposibilidad de conocer todas las unidades elementales que componen la poblacin.c) Tiempo que insume analizar la poblacin completa cuando su tamao es muy grande.d) Alto costo que a veces implica relevar los datos.Censo y muestraEn ocasiones, es posible y prctico examinar a todas las personas o miembros de la poblacin que deseamos describir. A esto lo llamamos enumeracin comple-ta o censo. Recurrimos al muestreo cuando no es posible contar o medir cada elemento de la poblacin. Los estadsticos usan la palabra "poblacin" para designar no slo a las personas, sino a todos los elementos, que han sido escogidos para ser estudiados.

Estadsticos y parmetrosDesde el punto de vista matemtico, podemos describir las muestras y poblaciones mediante medidas como la media, la mediana, el modo y la desviacin estndar. Cuando estos trminos describen las caractersticas de una muestra, se les llama estadsticos. Cuando describen las caractersticas de una poblacin, reciben el nombre de parmetros. El estadstico es una caracterstica de la muestra; el parmetro es una caracterstica de la poblacin.

Para ser congruentes, los expertos en estadstica utilizan letras redondas minsculas cuando quieren denotar los estadsticos mustrales y letras griegas o maysculas para indicar los parmetros de la poblacin. La tabla siguiente contiene estos smbolos y resume las definiciones que hemos estudiado hasta aqu.Poblacin: PMuestra: M

DefinicinGrupo de elementos que van a ser considerados.Parte o porcin de la poblacin seleccionada para el estudio.

Medidas caractersticas"Parmetros""Estadsticos"

SmbolosTamao de la poblacin: N Media poblacional: Desviacin estndar de la poblacin: Tamao de la muestra: nMedia muestral:

Desviacin estndar de la muestra: S

Muestreo de juicio y muestreo probabilsticoSe dispone de dos mtodos para seleccionar las muestras de poblaciones: muestreo no aleatorio o de juicio y muestreo aleatorio o probabilstico. En el muestreo probabilstico, todos los elementos de la poblacin tienen posibilidad de figurar en la muestra. En el muestreo de juicio, se usan el conocimiento y la opinin personal para identificar los elementos de la poblacin que van a incluirse en la muestra.Una muestra seleccionada por muestreo de juicio se basa en el conocimiento de la poblacin por parte de alguien. Por ejemplo, un analista econmico sabr, por experiencia, qu acciones deben tenerse en cuenta para conocer el movimiento de las tasas de inversin en el mundo. En ocasiones, el muestreo de juicio sirve de muestra piloto para decidir cmo seleccionar despus una muestra aleatoria. Nos ahorra, adems, el anlisis estadstico que es indispensable efectuar para tomar muestras probabilsticas. El muestreo de juicio es ms adecuado y da buenos resultados, aun cuando no sea posible medir su validez. Pero, si en un estudio se aplica este mtodo y se pierde un grado significativo de "representatividad", habr que pagar un alto precio por la comodidad. Puede decirse que una gran ventaja del muestreo aleatorio es que permite aplicar mtodos de Inferencia estadstica a los datos, mientras que el muestreo de juicio no lo permiten.Generalmente, una muestra pequea no arroja buenos resultadosNo podemos estar seguros sin ms informacin completa o sin una investigacin realizada basndonos en encuestas estadsticamente bien realizadas. Sin embargo, s podemos estar alertas ante el riesgo que corremos cuando no pedimos informacin complementaria. La persona que conoce el problema del muestreo estadstico puede estar alerta para no dejarse convencer rpidamente y solicitar ms informacin.Distintos tipos de muestreo aleatorioMuestreo aleatorio simple

En el muestreo aleatorio simple, se seleccionan las muestras mediante mtodos que permiten a

cada muestra posible tener igual probabilidad de ser seleccionada y a cada elemento de la poblacin entera tener igual probabilidad de quedar incluido en la muestra.

Por finita entendemos la poblacin que posee un tamao formulado o limitado, es decir, hay un nmero entero (N) que nos indica cuntos elementos existen en la poblacin. La poblacin infinita es aquella en que, tericamente, es imposible observar todos los elementos. As pues, en la prctica emplearemos la expresin "poblacin infinita" cuando hablemos de una poblacin que no puede ser enumerada en un perodo razonable. De este modo, usaremos el concepto terico de "poblacin infinita" como una aproximacin de una gran poblacin finita.Cmo hacer el muestreo aleatorio La forma ms fcil de seleccionar una muestra al azar consiste en usar nmeros aleatorios, los cuales pueden generarse con una computadora programada para mezclar nmeros o con una tabla de nmeros aleatorios.Empleo de una tabla de nmeros aleatoriosa) Pasamos de la part