Capitulo I

84
3 V Bolshakov P.Gaidáyev Teoría de la Elaboración matemática de Mediciones geodésicas Editorial Mir Moscú

Transcript of Capitulo I

3

V Bolshakov P.Gaidáyev

Teoría de la Elaboración matemática de

Mediciones geodésicas

Editorial Mir Moscú

4

INDICE

PRIMERA PARTE TEORIA DE LOS ERRORES DE MEDICIÓN Capitulo I. Elementos de la teoría de las probabilidades 1. Objeto de la teoría de las probabilidades 14 2. Sucesos 14 3. Frecuencia relativa y probabilidad de un suceso 15 4. Suma de probabilidades 18 5. Sucesos de probabilidades 22 6. Producto de probabilidades 24 7. Distribución de las probabilidades en ensayos múltiples 25

(Distribución binomial). 8. El número más probable de apariciones de un suceso en ensayos 33

Múltiples. 9. Ley del límite de Moivre – Laplace (Ley normal de 35

distribución de las probabilidades en ensayos múltiples). 10. Integral de probabilidades 45 11. Variables aleatorias. 52 12. Leyes de distribución de variables aleatorias 54 13. Características principales (parámetros de distribución 57 de una variable aleatorias. 14. Ley normal de distribución de variables aleatorias 67 15. Sobre algunas distribuciones que difieren de la normal 72 16. Noción sobre las distribuciones multidimensionales de sistemas De variables aleatorias independientes. 77 17. Leyes del límite 78 Capitulo II. Elementos de estadística matemática 18. Método maestral 83 19. Características complementarias de los muestreos 85 20. Estimación del valor aproximado de los muestreos 89 21. Estimación del valor empírico de la varianza 94 22. Comparación de la distribución empírica con la teórica 96 23. Concepto de enlace estadístico 98 24. Coeficiente de correlación 99 25. Propiedades del coeficiente de correlación. Ecuación de regresión 100 Capitulo Ill Fundamentos de la teoría de errores de medición 26. Tareas de la teoría de errores de medición 105 27. Nociones generales sobre las mediciones 106 28. Errores de medición 108 29. Clasificación de los errores de medición 110

5

30. Criterios para estimar la precisión de las mediciones 113 31. Errores absolutos y relativos 117 32. Estimación de la precisión del valor aproximado del error estándar m∆ . 118 33. Studio de series de mediciones 120 34. Parámetros de la ley de distribución de los errores de medición 126 35. Errores estándares de las funciones de magnitudes medidas 127 36. Errores de redondeo 138 37. Influencia de los errores de redondeo de los argumentos sobre la precisión de las funciones. 139 38. Errores sistemáticos de medición 141 39. Algunas recomendaciones para aminorar la influencia de los errores sistemáticos de medición. 146 Capitulo IV Elaboración matemática de mediciones de una misma magnitud 40. El valor más fiable de una magnitud medida reiteradamente y con igual precisión y estimación de su precisión 149 41. Secuencia de elaboración de las mediciones de igual precisión de una misma magnitud. 154 42. Valor más fiable de una magnitud medida reiteradamente y Con diferente precisión 159 43. Nociones generales acerca de los pesos. Error de la unidad de peso 163 44. Cálculo de los pesos de funciones 164 45. Análisis de una serie de mediciones de diferente precisión 168 46. Cálculo del error de la unidad de peso 168 47. Establecimiento de los límites de confianza (cotas confidenciales) en el caso de mediciones de diferente precisión 174 48. Secuencia de elaboración de mediciones de diferente precisión de una misma magnitud 174 49. Estimación de la precisión por diferencias de mediciones dobles de igual precisión 177 50. Estimación de precisión por diferencias de mediciones dobles de diferente precisión 180 51. Ejemplos de estimación de la precisión según las diferencias de mediciones dobles 182 52. Tolerancias para los resultados de las mediciones y de sus funciones 188 SEGUNDA PARTE MÉTODO DE LOS MINIMOS CUADRADOS Capitulo V. Fundamentos del método de los mínimos cuadrados 53. Esencia del problema de compensación conjunta de varias magnitudes 193

6

54. Principio de los mínimos cuadrados 196 55. Procedimientos básicos de solución de la tarea de compensación 199 56. Método paramétrico de compensación 202 57. Ejemplos de compensación por método paramétrico 209 58. Método correlativo de compensación 219 59. Ejemplos de compensación por el método correlativo 224 60. Acerca de la estimación de la precisión a base de materiales de la compensación 229 Capitulo VI. Formación y solución de las ecuaciones normales 61. Cálculo de los coeficientes de las ecuaciones normales 237 62. Resolución de las ecuaciones normales 244 63. Esquemas completo y abreviado para solucionar las ecuaciones normales por el algoritmo de Gauss 256 64. Método de los cracovianos 261 65. Solución de las ecuaciones por el método de iteración simple 266 Capitulo VII. Métodos para el cálculo de pesos de funciones. Ejemplos de compensación con estimación de precisión 66. Cálculo de pesos de funciones en la compensación por el método Paramétrico 269 67. Ejemplos de compensación por el método paramétrico con estimación de precisión 281 68. Cálculo de pesos de funciones en la compensación por el método correlativo. 296 69. Ejemplos de compensación por el método correlativo con estimación de precisión. 302 Capitulo VIII. Modificaciones a los métodos fundamentales de compensación. 70. Métodos de grupo para resolver la ecuaciones condicionales 310 71. Métodos combinados de compensación 330 Capitulo IX. Interpolación (aproximación) según los valores medidos de la función. 72. Interpolación de funciones dadas con parámetros desconocidos 344 73. Método de Chébyshey 351 Capitulo X. Cálculos compensatorios para un número grande de incógnitas 74. Planteo y solución de sistemas grandes de ecuaciones normales 359 75. Método de aproximaciones 371 76. algunas cuestiones acerca de la estimación de precisión 375

7

77. compensación de funciones de resultados de mediciones 385 Apéndices 390 Bibliografía 396

8

INTRODUCCION

Las mediciones desempeñan un papel muy importante en todas las áreas de la técnica proporcionando la información de partida a las ciencias exactas. Las mediciones son base del estudio cartográfico y geodésico de la superficie terrestre y de otros planetas y los métodos y medios de medición desarrollan por la geodesia, astronomía práctica, gravimetría, fotogrametría, geodesia espacial y otras ciencias. La medición de cualquier magnitud se analiza desde dos puntos de vista: cuantitativo que refleja el valor numérico de la magnitud medida y cualitativo que caracteriza la precisión de la medición. Con el desarrollo de la ciencia y de la técnica, en particular de la geodesia, se eleva la precisión de las mediciones y se perfeccionan los métodos de su elaboración matemática. En las mediciones no deben haber equivocaciones ni descuidos, o, como suele decirse, errores graves. Para evitar estos últimos, en la práctica geodésica siempre se efectúan no menos de dos mediciones de cada magnitud y, además, se recurre a las dependencias matemáticas entre las magnitudes medidas (Por ejemplo, la igualdad a 180º de la suma de los ángulos en un triángulo plano, la igualdad a cero de la suma de los desniveles en un polígono de nivelación cerrada, etc.). Se sabe, por experiencia, que aun en el trabajo más cuidadoso y esmerado las mediciones múltiples (repetidas) de cualquier magnitud constante presentan siempre resultados diversos, y los resultados de la medición de magnitudes enlazadas entre sí matemáticamente presentan ciertos errores de cierre ∗. El orden de la magnitud de los errores de cierre y de las divergencias entre los resultados de las mediciones repetidas debe corresponder a la precisión de las mediciones, lo cual s indicio de la ausencia de errores graves en las mediciones. La circunstancia de que, a un al no haber errores graves, los resultados de las mediciones repetidas siempre divergen entre sí dentro de ciertos límites, se debe a que cualesquiera mediciones siempre acarrean consigo pequeños errres inevitables, es decir, ciertas desviaciones de los resultados de las mediciones con respecto a los valores exactos de las magnitudes medidas (errores de observación, los relacionados con imperfecciones en la fabricación y ajuste de los instrumentos, insuficiencias en la consideración de las condiciones de medición incesantemente variables, etc. ∗ Si la dependencia entre las magnitudes medidas se expresa por medio de la igualdad ϕ( X1,….Xn) = 0, entonces el error de cierre W quedará definido por la igualdad W = ϕ( X1,….Xn) donde Xn son los resultados de las mediciones.

9

“Es por ello que éstos (es decir, los errores inevitables, N. de los A.) siempre están presentes en las mediciones, pero, dentro de los posible, habrá que debilitar su influencia sobre los resultados obtenidos gracias a una ingeniosa combinación….”∗ ). En lo que se refiere a la precisión de las mediciones y de su elaboración matemática, hay que prestar atención a una importante circunstancia. Sin entrar, por ahora, a tratar los procedimientos de estimación numérica de la calidad de los resultados de mediciones, a priori puede afirmarse que los resultados que contienen errores menores infunden más respecto a quienes aprovechan estos resultados. Partiendo de esto, en ocasiones se imponen exigencias exageradas a la precisión de las mediciones, lo que no corresponde ∗ K. Gauss. Obras escogidas, tomo I. Moscú, “Geodezizdat”, 1957, pág. 18 (en ruso)

10

a la necesidad ni a las posibilidades reales. Sin embargo, una precisión excesiva en las mediciones es indeseable al igual que una precisión insuficiente, ya que conduce a un aumento en el volumen y en los plazos de realización de los trabajos y de su costo. Por esta razón es preciso determinar la precisión conveniente, es decir, la necesaria y suficiente, en las mediciones y en la elaboración de sus resultados. El estudio de la calidad de las mediciones geodésicas, de las leyes de aparición e influencia de los errores pequeños inevitables, la elaboración de reglas y métodos para estimar y realizar cómputos con la precisión necesaria de los métodos que permitan obtener, con gastos mínimos en el cálculo, los mejores resultados finales, todo esto, pues constituye la tarea la plantea la teoría de la elaboración matemática de las mediciones geodésicas. La estructura lógica del libro se muestra en la fig 1. . Consta de dos partes: teoría de los errores de medición y método de los mínimos cuadrados. Ambas partes se basan en elementos de la “ Teoría de las probabilidaes” como asignatura independiente, no se estudia en los centros de enseñanza de educación superior geodésicos y es sólo un pequeña parte del curso de matemática superior en los centros de enseñanza superior técnicos. Los autores han tendido a tomar en consideración los logros de la escuela geodésica soviética en lo que atañe a los métodos y la metodología de exponer el método de los mínimos cuadrados, apoyándose en las obras de K. Gauss.. Puede preguntarse por qué el nombre tradicionesl de la disciplina “Método de los mínimos cuadrados” se ha sustituido por el de “Teoría de la elaboración matemática de las mediciones geodésicas “. Para responder a tal pregunta, hay que remitirse a la estructura lógica del libro, de donde se deriva la necesidad de dicho cambio. El método de los mínimos cuadrados, propuesto por Legendre y Gauss, durante más de 160 años de su aplicación ha sido probado en la práctica en todos sus aspectos y ha recibido y recibe aún, nuevo desarrollo. A pesar de ello, para formar especialistas altamente calificados en la rama de la elaboración matemática de mediciones geodésicas, no basta sólo con el método de los mínimos cuadrados. A esta conclusión llegan numerosos geodesias. Los fundamentos del método de los mínimos cuadrados y de la teoría de los errores de medición fueron elaborados a fines del siglo XVIII y comienzo del XIX. En aquel tiempo , en la astronomía y en la geodesia mejoró sensiblemente la precisión de las mediciones en la geodesia mejoró sensiblemente la precisión de las mediciones y se acumuló un amplio material de observaciones que requerían ser elaborados con ayuda de métodos que diesen lo mejores resultados. Las tareas de la astronomía teórica y práctica y de la geodesia exigían la creación de un método científicamente fundamentado de la elaboración matemática de los resultados de las mediciones. Respondiendo a los requerimientos de la ciencia y de la práctica, los científicos promovieron una serie de proposiciones. En el siglo XVIII, destacados astrónomos y matemáticos de la época, entre ellos el miembro de la Academia

11

rusa de Ciencias Leonardo Euler ( 107 – 1783). L Lamberá (1728-1777), P. Laplace (1749-1833) y otros, ofrecieron diversos métodos, pero ninguno de ellos encontrón aplicación debido a su complejidad. En 1806, el matemático francés A. Legendre ( 1752 – 1833) publicó su obra “ Nuevos métodos para determinar las órbitas de los cometas”, en la cual proponía ( para la elaboración matemática de los resultados de las observaciones) el método de los mínimos cuadrados, ilustrándolo con un ejemplo de geodesia ( Cálculo de las dimensiones de la Tierra a base de las mediciones de los grados (ángulos barridos N. de la R. )). En 1809, K. Gauss ( 1777-1855) publico su obra “ Teoría del movimiento de los cuerpos celestes que giran alrededor del sol en secciones cónicas”, en la cual proponía, para la elaboración matemática de las observaciones, el método de los mínimos cuadrados. En esta obra Gauss desarrollan brillantemente el aspecto algebraico del método de los mínimos cuadrados. Basta con decir que las designaciones y la simbólica introducidas por él tienen vigencia aun en nuestros días. Esta circunstancia permite considerar a Gauss, junto con Legendre, el fundador del método de los mínimos cuadrados. En 1810 el matemático y astrónomo francés Laplace, empleando los resultados obtenidos por Moivre (1667-1754), dedujo la fórmula que permite calcular las probabilidad de apariciones de sucesos aleatorios en pruebas repetidas. Esta fórmula amplió considerablemente las posibilidades de aplicación de la teoría de la probabilidad en la práctica y , en particular, en la elaboración de resultados de las mediciones. La teoría de las probabilidades tuvo un avance vertiginoso gracias a las obras de matemáticos rusos tales como los académicos P. Chébyshev (1821 – 1894), A. Márkov (1856 – 1922) y A. Liapunov (1857 – 1918). Las obras de chébyshev, Márkov y Liapunor fueron continuadas y desarrolladas por los científicos soviéticos S. Bernetéin. A. kolmogorov, A. Jinchin, N. smirnov, V Romanvsky, Yu. Linnik, B. Gnedenko y otros, creadores de la escuela vanguardista soviética de la teoría de las probabilidades y estadística matemática. En la geodesia el método de los mínimos cuadrados encontró un empleo especial sólo a partir de mediados del siglo WLW tras la aparición de una seri de guías para su empleo práctico. La primera guía práctica de este género ha sido publicada primeramente en Rusia en los años 183-1837 por el geodesta militar A. Bólotov. En Alemania, una guía similar fue publicada, por vez primera, sólo en 1843. Han sido principalmente los astrónomos y geodestas los que se han encargado de elaborar el método de los mínimos cuadrados con arreglo a la geodesia., De entre los científicos extranjeros cabe destacar en primer término a los sabios alemanes F. Bessel ( 1784 – 18469, F. Helmert ( 1843 – 1917), O. Schreiber, L. Krüger. En Rusia el método de los mínimos cuadrados aplicado a la geodesia tuvo amplia divulgación. El académico A. Sávich ( 1811-1883) editó en 1857 su obra

12

“ Aplicación de la teoría de probabilidades al cálculo de las observaciones y mediciones geodésicas”. Inmediatamente después de su aparición, la obra fue traudicida al alemán y editada en Alemania. En Rusia trabajaron también en la elaboración de los métodos y procedimientos de compensación geodestas militares, entre ellos el profesor I. Pomerántsev ( 1847 – 1922), el profesor V. Vitkovsky ( 1856 – 1924) y otros. La compensación de extensas redes geodésicas exigía la elaboración teórica y práctica de nuevos procedimientos de compensación que simplificaran muchos los cálculos sin menoscabo del rigor en la solución del problema . Deben mencionarse los trabajos de los geodestas soviéticos , en primer lugar del profesor F. Krasovsky ( 1878 – 1948), miembro correspondiente de la Academia de Ciencias de la URSS, y del profesor N. Urmáyev ( 1895 – 1959), creadores de los métodos de elaboración de la red astrónomo – geodésica de la URSS. Los métodos propuestos por Krasovsky y Urmáyev, simples y a la vez suficientemente rigurosos, permitieron resolver la tarea de formar una base geodésica entera de alta calidad. En esta tarea, cuenta tambíen con grandes méritos el docente D. Larin, quién dirigió los trabajos del cálculo en la elaboración de las redes básicas de la URSS a lo largo de muchos años. En la solución de la tarea de elaborar las redes geodésicas que rellenan los plígonos de primer orden, es importante el mérito del geodesta militar I. Guerásimoy e del ingeniero I. Pranis – Paraniévich, quienes en colaboración con colectivos de calculistas crearon prodemientos efectivos de compensación de las extensas redes de relleno y crearon guías fundamentales para el cálculo de triangulaciones, en las cuales resumieron la experiencia del cálculo de muchos años de los geodestas rusos y soviéticos. Mucho se debe en la rama de la elaboración matemática de los resultados de las mediciones a la Personalidad Emérita de Ciencia y la Técnica, profesor A. Checotariov, que ha escrito las quías más populares del método de los mínimos cuadrados entre los geodestas soviéticos. Pueden mencionarse asimismo sus obras en la rama de compensación de polígonos. Grandes méritos en la creación de diversos métodos de elaboración matemática de los resultados de las mediciones los tienen los profesores N. Idelsón, N Kell y V. Popov y otros. La amplia introducción de modernos ordenadores en todas las ramas de la ciencia abre nuevas posibilidades de desarrollo de los métodos de cálculo de compensación y, en particular, de la elaboración de extensas redes geodésicas. El manual “Teoría de la elaboración matemática de las mediciones geodésicas” que se propone al lector no pretende agotar ni exponer todas las cuestiones por él abordadas. Además, en la exposición de los fundamentos de la teoría de la probabilidad y de la estadística matemática, los autores se han limitado tan sólo a las nociones más elementales, las que, sin embargo, en su aplicación a la geodesia, permiten, en opinión de los autores, crear con suficiente rigor una teoría de la elaboración matemática de las mediciones geodésicas que asegure

13

una precisión dada de los cálculos. Así, por ejemplo, en los cálculos probabilísticos de geodesia, en la gran mayoría de los casos basta con asegurar dos o como máximo tres cifras significativas, ya que tales cómputos, por lo general, se refieren no a los resultados de las mediciones, sino a sus errores. Por consideraciones comprensibles, los autores no han hallado posible ni necesario detenerse en el análisis de las diferentes interpretaciones de las nociones y definiciones de la teoría de las probabilidades, por lo que han citado sólo aquellas que en una exposición elemental resulten más comprensibles y claras y permitan resolver la tarea propuesta.

PRIMERA PARTE TEORIA DE LOS ERRORES DE MEDICION

Capitulo I ELEMENTOS DE LA TEORIA DE LAS PROBABILIDADES 1. Objeto de la teoría de las probabilidades La teoría de las probabilidades es la disciplina matemática que estudia las regularidades cuantitativas de los fenómenos aleatorios masivos, o sea de aquellos fenómenos que al reproducir reiteradamente un mismo ensayo, prueba o experimento ocurren cada vez de modo diferente. Todo en el mundo está sujeto a leyes, según enseña el materialismo dialéctico. Según F. Engels, allí donde en la superficie ocurre el juego de la casualidad, allí mismo esa casualidad resulta siempre sometida a leyes ocultas internas. La cosa está sólo en descubrir esas leyes. La teoría de la probabilidad elabora métodos para establecer dichas leyes, ocultas a la observación de sucesos aleatorios particulares, mediante un estudio de los fenómenos aleatorios basados en un gran número de observaciones. Para estudiar los fenómenos tan variados del mundo real se efectúan observaciones, pruebas y mediciones. La observación es la base de todas las investigaciones científicas; el carácter que revela el objeto estudiado es de índole tanto cualitativo como cuantitativo. El carácter cuantitativo se determina ya sea por medio de recuento exacto discreto, ya sea por mediciones aproximadas. Así, por ejemplo, el número de aciertos al blando se determina exactamente, en cambio la desviación de las perforaciones practicadas en el tablero por los proyectiles respecto al centro puede obtenerse sólo aproximadamente. De tal modo, la teoría de las probabilidades estudia no sólo los sucesos aleatorios, sino también las magnitudes o cantidades aleatorias. Llámase magnitud o cantidad aleatoria a aquella que en una prueba toma cierto valor desconocido de antemano y dependiente de razones fortuitas, las cuales es imposible considerar con antelación.

14

Aparte de los fenómenos y magnitudes aleatorios, la teoría de las probabilidades estudia las funciones aleatorias. Llámese medición la comparación cuantitativa de cierta magnitud física a determinar con otra magnitud de la misma clase (homogénea) cuyo valor se conoce. Como resultado de la medición se obtiene un número que muestra cuántas veces la magnitud física a determinar es mayor o menor que la magnitud con que se compara y , finalmente, revela cuántas veces es mayor o menor que la unidad de medida. En adelante, centramos nuestra atención en las regularidades de aquellos fenómenos aleatorios que presentan una relativa estabilidad en algunas de sus propiedades (se tiene en cuenta ni sucesos aleatorios únicos, sino su aparición masiva). En la vida real casi todos los fenómenos aleatorios son precisamente de este género. Así, por ejemplo, el porcentaje de nacimientos de niños varones del numero total de nacimientos en las grandes ciudades, es en diferentes años, se mantienen bastante estable (cerca del 51.5 %); para citar otros ejemplos puede aludirse al volumen de la correspondencia durante ciertos periodos y también a fenómenos aleatorio tales como los accidentes en las calles de una gran ciudad: el numero de tales casos es relativamente estable en determinados días de la semana, de un mismo mes en diferentes años. Hagamos notar, por cierto, que en el estudio de las regularidades de fenómenos tales como los incendios, granizadas y otras catástrofes naturales se basa la gestión de las compañías aseguradoras. Es también muy estable el valor medio de magnitudes aleatorias tales como la estatura de la gente, la temperatura mensual en determinadas regiones geográficas, etc. 2. Sucesos La realización de cada observación, prueba o medición se llama ensayo. El resultado de un ensayo se llama suceso. Ejemplos.

1. Al arrojar una moneda al aire pueden ocurrir dos sucesos: caer “cara” o caer “cruz”.

2. Al medir los ángulos internos de un triángulo plano, la suma de éstos dependiendo de la agudeza visual del observador, de la existencia de errores instrumentales, así como de la influencia de las condiciones naturales, etc., diferirá de 180º , sea en mas o en menos, o bien coincidirá casualmente con su suma teórica. Correspondientemente, tendremos tres sucesos: “aparición del errar de cierre positivo” , “aparición del error de cierre negativo”, y “ausencia de error de cierre”.

El conjunto de condiciones bajo las cuales se efectúa un ensayo se llama complejo de condiciones.

15

Ejemplo. En las mediciones de ángulos con teodolito, entre las condiciones de tal complejo se hallan el aumento de anteojo, la precisión del dispositivo de lectura, la precisión del aparato de centrado, la calidad de la imagen del objeto visado, las condiciones ambientales, la pericia del observador, etc. El suceso que, al reproducirse en ensayo (dado cierto complejo de condiciones), pude aparecer y puede no apareces, se llama suceso aleatorio. Respectivamente, el fenómeno que, al verificarse reiteradamente en un mismo ensayo, ocurre cada vez de un modo diferente, dependiendo de cierta variabilidad de condiciones bajo las cuales se efectúa el ensayo, se llama fenómeno aleatorio. Ejemplo. Como resultado del tiro con un arma, siendo invariable su posición, se tienen los sucesos aleatorios: “Acierto al blanco”, “tiro largo”, “tiro corto”, “desviado a la izquierda” , desviado a la derecha”, etc. La diversidad de resultados está condicionada por la presencia, a pesar de que cada tiro se realiza desde una misma posición del arma, de factores no considerados (discrepancia en la cantidad de detonante empleado respecto a la debida, precisión al apuntar, precisión de las correcciones, etc.) que acusan su influencia, y el ensayo transcurre cada vez de modo un tanto diferente. Como ya se ha indicado, en un gran número de ensayos efectuados en condiciones iguales ∗ se observan regularidades bastante estables, lo que resulta fundamental al aplicar los métodos de la teoría de las probabilidades y de la estadística matemática a la elaboración matemática de las mediciones en masa. El resultado de un ensayo que queda totalmente descrito por un suceso, y sólo uno, se llama suceso aleatorio simple. Este no puede dividirse en componentes. Recibe el nombre de suceso aleatorio complejo aquel que se compone de dos o varios sucesos simples. Designemos por A, B, C,…….., W diversos sucesos aleatorios; en adelante escribiremos de la siguiente forma “Suceso A”. “suceso B2, etc.

1. Clases de sucesos Los sucesos pueden ser: ciertos, imposibles y aleatorios. Se llama suceso cierto si ocurre seguramente de cumplirse cierto complejo de condiciones. Ejemplo. En una urna sólo hay bolas blancas. El suceso A que consiste en que, al extraer una bola de la urna, ésta sea blanca, es un suceso cierto. Los sucesos ciertos suelen designarse con la letra U. Por lo tanto,

A = U

∗ Por condiciones iguales en adelante se entenderán aquellas que se caracterizan, aproximadamente, por los mismos factores principales actuantes (temperatura, presión, humedad, fuerza y dirección del viento, condiciones geográficas, etc.).

16

El suceso que en presencia de cierto complejo de condiciones no puede ocurrir se llama suceso imposible. Ejemplo. En el caso anterior, el suceso imposible B sería la aparición de una bola negra (el complejo de condiciones está determinado por la existencia tan sólo de bolas blancas en la urna). Los sucesos imposibles se designan, comúnmente, con la letra V. Así,

B = V.

Como ya se ha dicho, se llama aleatorio aquel suceso que, al cumplirse cierto complejo de condiciones puede o no ocurrir. Por ejemplo, si se mide una línea cuya longitud exacta se conoce de antemano, el error de medición pordera ser positivo o negativo, no obstante, es imposible predecir qué signo tendrá el error, lo que se debe a que dicho suceso aleatorio es el resultado de la acción de muchos factores (Las condiciones en que se efectúa la medición, la precisión del método empleado, la metodología de medición, etc.), cuya consideración exacta es imposible. Ejemplo. Al arroya una moneda, puede caer cara o cruz indistintamente, por ello , ambos sucesos, “caer cara” y “caer cruz” son sucesos aleatorios.

2. Clases de sucesos aleatorios Los sucesos aleatorios se dividen en compatibles, o simultáneos, incompatibles, únicamente posibles, e igualmente posibles. Los sucesos se llaman compatibles o simultáneos, si al realizar un ensayo todos ellos pueden producirse. Si A, B, C,……., W son sucesos compatibles y se sabe que seguramente ocurrirán, entonces se escribe

A ⋅ B ⋅ C…… W = U (I.1)∗ Ejemplo. El acierto de un proyectil al blanco y la explosión del detonante son sucesos compatibles. Los sucesos son incompatibles o excluyentes si en un mismo ensayo la aparición de uno de ellos excluye la aparición de todos los demás. Ejemplos. 1. En una urna se tienen bolas blancas y negras. En un ensayo en el que se extrae una bola, el suceso A ( extracción de una bola blanca) y el suceso B (extracción de una bola negra ) son sucesos incompatibles o excluyentes. 2. Al disparar un arma, los sucesos “explosión del detonante” y “no explosión del mismo” son incompatibles.

∗ La fórmulas en el presente libro se designan con dos números: el del capitulo y el de la fórmula en éste.

17

Los sucesos cuya aparición como resultado de ensayo es único sucesos cierto, se llaman sucesos únicamente posibles. Dichos sucesos son incompatibles dos a dos. Ejemplo. Al tirar al aire una moneda son posibles únicamente los sucesos “que caiga cara” y “que caiga cruz”. Los sucesos igualmente posibles son así denominados porque de ellos ninguno posee mayor posibilidad objetiva de aparición ( por ejemplo, que caiga cara o cruz al lanzar una moneda, la carta que pudiera sacarse de una baraja, etc.)

3. Grupo completo de sucesos Un sistema de sucesos únicamente posibles se llama grupo completo de sucesos. De ese modo, en un ensayo, uno de los sucesos de dicho grupo completo ocurrirá necesariamente. Ejemplo. En una urna hay bolas negras, blancas y rojas. En un ensayo, es decir, al sacar una bola de la urna, pueden aparecer una sola bola blanca, roja o negra. Los tres sucesos: “aparición de una bola blanca”, “aparición de una bola negra” y “aparición de una bola roja”, forman un grupo completo de sucesos. Dos sucesos únicamente posibles que constituyen un grupo completo de sucesos se llaman sucesos opuestos. Un suceso opuesto al suceso A se

designa con la misma letra pero con una raya encima; esto es, −−

A es el suceso opuesto al suceso A (a veces se lee “ no A)”. Ejemplos. Si designamos por:

1. A la “ aparición de cara” al arroja una moneda, −−

A Será la “aparición de cruz”. 2. B el “ acierto al blanco”

−−

B Será 2no dar en el blanco”; 3. C el que un número N de tiros, todos den en el blanco,

−−

C Será la aparición de “al menos un fallo” de entre los N disparos. 4. Aparición de cierto suceso y no aparición del mismo.

El último ejemplo posee una importancia especial, ya que la consideración de cualquier suceso aleatorio puede reducirse a él. Así, pues, en un ensayo,

(Y A y −−

A ) A−−

A = V; (I.2)

(o A, o −−

A ) = A + −−

A = U (I.3)

18

3. Frecuencia relativa y probabilidad de un suceso

Se llama frecuencia relativa de cierto suceso la razón entre el número de apariciones de dicho suceso y el número total de ensayos realizados bajo un complejo dado de condiciones. Sea Q la frecuencia relativa de un suceso, K, su número de apariciones n, el número total de ensayos. De acuerdo con la definición dada:

Q = nK (I.4)

Ejemplo. Se han efectuado 30 mediciones de una misma magnitud. El número de errores negativos resultó ser igual a 12. Por consiguiente, K = 12, n = 30 y la frecuencia relativa de aparición del error negativo será igual a Q = 0.40. Partiendo de la definición de la frecuencia relativo, resulta fácil establecer que ésta no puede ser negativa y que su valor para cualquier suceso satisfará las siguientes desigualdades:

1≤≤ QO ( ya que O nK ≤≤ ) ( I.5)

El tema 1 se advertía que, cuando se realiza un gran número de ensayos en condiciones iguales, se observan regularidades bastante estables. Una muestra patente de tales regularidades en la propiedad de estabilidad de la frecuencia relativa de los sucesos aleatorios homogéneos, o sea la disminución de la dispersión de sus valores obtenidos en diversas series de ensayos al aumentar el número de los mismos en cada serie. Por eso, una vez efectuada una serie suficientemente grande de ensayos, puede predecirse con gran precisión el resultado de otras series similares de ensayos. Así, el científico inglés C. Pearson, al determinar la frecuencia relativa con que aparece “cara”, al lanzar una moneda al aire 12000 y 24000 veces, obtuvo valores de esta frecuencia, respectivamente, de 0.5016 y 0.5005. Para tal pruebe, partiendo de consideraciones corrientes, no es difícil establecer que los valores de la frecuencia relativa con que aparece “cara” deben ser cercanos uno del otro, y que su valor exacto, alrededor del cual oscilarán los datos experimentales es de 0.5. De este modo, en un número grande n de ensayos, la frecuencia relativa Q presenta una estabilidad que caracteriza la relación objetiva existente entre el complejo de condiciones en las cuales se realiza el experimento y el suceso mismo. Dado que, al aumentar el número n de ensayos en las series, la variación de los valores de Q en las diversas series diminuye, hay fundamento para suponer que existe cierto valor de la f5recuencia relativa, respecto al cual ésta diverge en diferentes series de ensayos en uno u otro sentido. Tal posibilidad objetiva de aparición de un suceso en un ensayo, y reciebe el

19

nombre de probabilidad del suceso (o, más exactamente, su probabilidad estadística). En la teoría de las probabilidades, a menudo se analizan sucesos incompatibles e igualmente posibles que forman un grupo completo. Tales sucesos se llaman casos ( o resultados ) elementales. Un caso se llama favorable a cierto suceso si su existencia conlleva la aparición de dicho suceso. Entonces, como suele decirse, el ensayo se reduce al “esquema de resultados elementales”, y la probabilidad puede ser calculada directamente como la relación entre el número de casos elementales favorables al número total de casos elementales posibles (tal es la definición clásica de la probabilidad) por la fórmula:

P = NM , (I.6)

Donde M es el número de casos elementales favorables a cierto suceso;

N, el número total de casos elementales posibles; P, la probabilidad del suceso.

Ejemplos. 1. En una urna hay 50 bolas blancas y 46 negras. Determinar la probabilidad de aparición d dos bolas blancas, al sacar simultáneamente un par de bolas de la urna. Solución Encontremos el número total de casos elementales posibles N y el numero de casos M favorables a la aparición simultánea de dos bolas blancas.

N = C .932

M = C .503

Por lo tanto,

P = NM =

94 2!96!48! 2!

50!

Haciendo uso de la propiedad fundamental del factorial n! = n ( n – 1)! Y efectuando las correspondientes simplificaciones, se obtiene que:

P = 96.9550.49 ≈ 0.27.

2. Un cubo, cuyas caras han sido pintadas, se parte en mil cubitos de igual tamaño, tras lo cual éstos se revuelven cuidadosamente. Calcular la

20

probabilidad de que un cubito tomado al azar tenga dos de sus caritas pintadas. Solución. El número de cubitos es N = 1000. Un cubo tiene 12 aristas en cada una de las cuales hay 8 cubitos con dos critas pintadas, por tanto, M = 12.8 = 96. La probabilidad buscada será igual a

P = NM =

100096 = 0.096.

La propiedad antes aludida de estabilidad de frecuencia relativa ha sido objeto de estudio por parte de numerosos científicos. El primero en formular esta ley fue Jacobo Bernoulli ( 1654 – 1705) en forma del siguiente teorema: en un número n ilimitadamente grande de ensayos, con un probabilidad

arbitrariamente próxima a la unidad, la frecuencia relativa nK de aparición de

un suceso diverge arbitrariamente poco de la probabilidad de aparición de dicho suceso en un solo ensayo independiente. Esta tesis representa la formulación más simple de la ley de los grandes números. El teorema matemático de Bernoulli, empleando las designaciones adoptadas, puede expresarse por medio de la fórmula

δε −≥

∠−=∞→

1pnKP

n (I.7)

Donde ε y δ son números positivos arbitrariamente pequeños. La formula (I.7) sirve de base para determinar empíricamente la probabilidad, cuando es imposible hallar su valor por otra vía. En tales casos se asume que la probabilidad tiene un valor igual al de la frecuencia relativa calculada a partir de un número suficientemente amplio de ensayos. Si la probabilidad del suceso es bastante cercana a la unidad, entonces se dice que tal suceso es prácticamente imposible. El grado de aproximación de p a 1 o a 0 se estima, partiendo de consideraciones prácticas. En otras palabras, para un suceso arbitrario no puede indicarse de antemano la magnitud de su probabilidad, con la cual se podría considerar dicho suceso como prácticamente cierto o bien prácticamente imposible, o sea de qué suceso concreto se trata. Así, por ejemplo, si en una serie de disparos de artillería, de mil proyectiles 999 estallan y uno no, la probabilidad del suceso “no explosión del detonante”, igual a 0.001 puede considerarse con seguridad una magnitud despreciablemente pequeña, y el mencionado suceso, prácticamente imposible. En cambio, si 0.001 fuera la probabilidad del suceso “el paracaídas no se despliegue tras el salto”, entonces apenas calificaríamos semejante suceso de “prácticamente imposible”. De lo expuesto se deduce que para cada suceso partiendo de consideraciones de orden práctico, es necesario establecer magnitud tolerable de la

21

discrepancia de su probabilidad de la unidad o de cero para poder calificar el suceso como prácticamente cierto o bien prácticamente imposible. Veamos ahora los corolarios que se derivan de la definición de probabilidad.

1. La probabilidad de un suceso imposible es igual a cero, o sea ( ) ,0=vp (I.8)

Donde V es el suceso imposible. En efecto, si en la formula (I.6) hacemos M = 0, entonces resulta que P = 0.

2. La probabilidad de un suceso cierto es igual a la unidad, o sea ( ) ,1=vp (I.9)

Donde U es el suceso cierto. Efectivamente, si en la formula (I.6) hacemos M = N ≠ 0, entonces resulta que P = 1.

3. La probabilidad de un suceso aleatorio es siempre un número positivo

comprendido entre cero y la unidad, esto es,

,10 << p (I.10)

La probabilidad de cualquier suceso ha de satisfacer las desigualdades:

,10 ≥≤ p (I.11)

En adelante, designaremos por ( ) pAp = la probabilidad de aparición de un suceso; ( ) qAp = la probabilidad de no aparición de un suceso.

Tomando en cuenta las designaciones de (I.3), puede escribirse P + q = 1 (I.12)

4. Suma de probabilidades Recibe el nombre de suma de varios sucesos incompatibles aquel suceso complejo que consiste en la aparición de uno de dichos sucesos, sin importar cuál.

Sean los sucesos incompatibles A1, A2,…. An. Si B es un suceso complejo consistente en la aparición de uno de estos sucesos incompatibles (no importa cuál), entonces B = (o A1, o A2,…., o An). (I.13) Una escritura más cómoda de (I.13) puede ser B = A1+ A2+…. +An, (I.14) o bien,

22

.1∑=

=n

iiAB

(I.15)

1. Teorema de la suma de probabilidades La probabilidad de la suma de varios sucesos incompatibles dos a dos (no importa cuáles) es igual a la suma de las probabilidades de dichos sucesos, esto es,

( ) ( ) ( ) ( ) ( ),......... 2121 nn ApApApAAApBp ++=+++= (I.16) o dicho de otra manera,

( ).11

∑∑==

=

n

ii

n

ii ApAp (I.17)

Demostración: Designemos por: N, el número total de resultados elementales posibles en el ensayo; M1, el número de casos favorables al suceso A1; M2, el número de casos favorables al suceso A2; …………………………………………………… Mn, el número de casos favorables al suceso An.

El número de casos elementales favorables a la aparición del suceso B = A1+ A2+…. +An, Es igual a

nB MMMM +++= .......21 (I.18) Por lo tanto

( ) ( )

......

...........

21

2121

NM

NM

NM

NMMM

AAApBp

n

nn

+++

=+++

=+++=

(1.19)

Teniendo en cuanta que

( )( ),,....,1 niApNM

in == (I.20)

Se obtiene que ( ) ( ) ( ) ( ) ( ),......... 2121 nn ApApApAAApBp ++=+++= (I.21)

o bien,

( ).11

∑∑==

=

n

ii

n

ii ApAp (I.22)

23

Ejemplo. En una lotería se juegan 1000 billetes, premiados como sigue: uno de ellos con 500 rublos; 10, con 100 rublos; 50, con 20 rublos y 100, con 5 rublos. Los restantes no tienen premio.

Hallar para un billete la probabilidad de 1) ganar no menos de 20 rublos y 2) ganar cualquier cantidad.

Solución. Designaremos los sucesos de la siguiente forma: B1será un premio no menor de 20 rublos; B2, un premio de cualquier cantidad, A1, un premio de 20 rublos, A2,100, A3, 500 y A4, 5 rublos.

Según la condición,

3211 AAAB ++=

43212 AAAAB +++= Del teorema de la suma de probabilidades se deduce que:

( ) ( ) ( ) ( ) .061.01000

1100010

100050,3211 =++=++= ApApApBp

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )( )[ ] ( )

.161.11000100061.0

3 42143212

=+=

+++=+++= ApApApApApApApApBp

2. Teorema de la suma de probabilidades de los sucesos que

forman un grupo completo. La suma de las probabilidades de los sucesos que forman un grupo completo es igual a la unidad. En efecto, si los sucesos A1, A2,….., An forman un grupo completo , la aparición de uno de ellos es cierta y, por consiguiente,

( ) .1321 =++ AAAp

Puesto que los sucesos que forman un grupo completo son incompatibles dos a dos, puede aplicarse el teorema de la suma ( ) ( ) ( ) .1,....21 =+++ nApApAp 5. Sucesos independientes y dependientes

Probabilidad condicional Las deducciones de la teoría de las probabilidades respecto de los sucesos complejos divergirán sustancialmente, dependiendo del carácter de la relación entre dichos sucesos. Convenga introducir las definiciones de sucesos independientes y dependientes y la noción de probabilidad condicional. Dos sucesos son independientes si la probabilidad de aparición de uno de ellos no depende de si el otro aparece o no.

24

Ejemplo. Dos observadores realizan dos lecturas del nonio de un instrumento, finado éste en una misma posición. La probabilidad de error del primero no dependerá del error del segundo observador y viceversa. Varios sucesos se denominan independientes dos a dos si cada par de ellos está formado por sucesos independientes entre sí. Ejemplo. Una moneda se lanza al aire cuatro veces. Sean B, C, D y E los sucesos consistentes en la aparición de “cara” en la primera, segunda, tercera y cuarta ocasión, respectivamente. Es obvio que cada par de sucesos que se toma de B, C, D y E ( o sea, B y C, B y D, B y E, C y D, C y E, D y E) estará formado por dos sucesos independientes entre sí. Así pues, B, C, D y E son sucesos independientes dos a dos. Varios sucesos se llaman independientes en conjunto si cada uno de ellos y cualquier suceso complejo (formado por la combinación de todos los sucesos restantes o por una parte cualquiera de ellos) son sucesos independientes entre sí. Así, por ejemplo, Si A1, A2, A3 son sucesos independientes en conjunto, entonces los sucesos que forman los siguientes pares: A1 y A2 , A1, y A3, A2 y A3, A1A2 y A3, A1A3 y A2 , A2 A3 y A1. Serán independientes entre sí. La independencia en conjunto no es consecuencia de la independencia dos a dos, o sea varios sucesos pueden ser independientes dos a dos, poro no ser independientes en conjunto. Dos sucesos se llaman dependientes si la probabilidad de aparición de uno de ellos depende de si el otro suceso ha aparecido o no. Ejemplo. Si se logra abatir un objetivo de dos disparos, entonces abatir el objetivo al segund ( )AP o disparo es un suceso dependiente, ya que sólo puede ocurrir a condición de haber acertado un primer disparo. La probabilidad calculada en la suposición de que uno o varios sucesos han ocurrido ya recibe el nombre de probabilidad condicional. Designaremos por: P(A/B) la probabilidad condicional de aparición del suceso A, calculada en el supuesto de haber ya ocurrido el suceso B; P(A/ B1, B2, B3,…..) la probabilidad condicional de parición del suceso A calculada en el supuesto de haber ya ocurrido los sucesos B1, B2, B3,….. Los sucesos A y B son dependientes si cumplen las siguientes desigualdades

P (A/B) ≠ p (A); P(B/A) ≠ p (B) (I.23) A veces, con el objeto de distinguirla de la condicional, la probabilidad de un suceso independiente se denomina probabilidad incondicional (en aquellos casos en que ambas nociones se emplean al mismo tiempo). Los sucesos A y B son independientes si se cumplen las condiciones siguientes:

P (A/B) = p (A); P(B/A) = p (B) (I.24)

25

En el ejemplo anterior la probabilidad condicional de impacto al Segundo disparo será igual a la probabilidad de acertar al blanco en caso de haber dado en el blanco un primer disparo, y a cero, si se ha fallado el primer tiro.

6. Producto de probabilidades Un caso de suceso complejo es el producto de sucesos. Producto o intersección de dos o varios sucesos es aquel suceso complejo que consiste en la aparición simultánea de todos esos sucesos. Ejemplo. Se efectuaron tres tiros al blanco. Sea el suceso B el impacto al primer disparo; C, al segundo tiro; D, al tercero. Entonces, el suceso complejo “acierto en los tres disparos” se escribirá A = B. C. D. De este modo, si A es el suceso complejo consistente en la aparición simultánea de los sucesos B, C, D,….., W el producto de sucesos quedará expresado así:

..... WDCBA ⋅⋅⋅= (I.25)

A veces suele escribirse

( ).......,,, WyyDyCyBA = (I.26) En la ulterior exposición, para designar el producto de los sucesos emplearemos la escritura (I.25) por ser la mas sencilla. Teorema del producto de las probabilidades La probabilidad de un producto de dos o varios sucesos dependientes es igual al producto de la probabilidad incondicional de uno de éstos por las probabilidades condicionales de los otros, o sea,

( ) ( ) ( )( ).......

.......)......(

121

2131321

−⋅⋅⋅⋅⋅=⋅⋅

nn

i

AAAApAAApBApAPAAAAp

(I.27)

La fórmula (I.27) puede expresarse en una forma más cómoda así:

( ) ( ) ( )

∏⋅⋅⋅⋅=

==

1

1213121

1....

n

iin

n

Ii AApAAApAApApAp (I.28)

26

Para la probabilidad del producto de dos sucesos dependientes A y B, la fórmula (I.28) tomará la forma

( ) ( ) ( ).ABpApABP ⋅= (I.29) Cuando los sucesos que componen un producto son independientes, el teorema del producto de probabilidades se simplifica y puede ser formulado así: La probabilidad del producto de dos o varios sucesos independientes en conjunto es igual al producto de las probabilidades de dichos sucesos. De este modo, si en la fórmula (I.28):

( ) ( ) ( ) ( ),....1

1213121

1n

n

iin

n

Ii ApAApAAApAApApAp =

∏⋅⋅⋅⋅=

==

Entonces,

( ) ( ) ( ) ( )ni ApApApAPAAAAp .....)......( 321321 ⋅⋅=⋅⋅ (I.30) Demostraremos el teorema del producto de las probabilidades en el caso de dos sucesos independientes A y B. Demostración Designemos por: N el número total de casos elementales posibles en un ensayo, en los cuales el suceso A puede aparecer y puede no aparecer; N1 el número total de casos favorables a la aparición del suceso A ( NN ≤1 ); M es el número total de casos elementales posibles en un ensayo, en los cuales el suceso B puede aparecer y puede no aparecer. M1 el número total de casos favorables a la aparición del suceso B ( MM ≤1 ); El número total de casos elementales posibles en tal ensayo es el número de posibles “parejas”: y A y B; o bien y A y B ; o ya sea, y A y B, o A yB ; dicho número es igual a NM. El número de casos elementales en dicho ensayo favorables a la aparición conjunta de A y B es igual a N1M1. Así que la probabilidad de aparición simultánea de A y B será igual a

( ) .1111

MM

NN

NMMN

ABp ⋅== (I.31)

Pero, como en el segundo miembro de la igualdad (I.31)

( ) ( ),11 BpMMyAp

NN

== (I.32)

Resulta que

( ) ( ) ( ).ABpApABP ⋅= (I.33) que es lo que se quería demostrar.

27

De forma análoga, se puede demostrar el teorema para todos los sucesos independientes en conjunto y, por inducción matemática, para un número arbitrario de sucesos; es decir,

( )in

I

n

Ii ApAp

11 ==∏=

∏ (I.34)

Ejemplo. En dos cajas hay bolas: en una a1 bolas blancas y b1 negras; en otra, a2 bolas blancas y b2 negras. De cada caja se saca una bola al azar. Determinar la probabilidad de que ambas bolas sacadas sean blancas. Solución. Designemos los casos de la siguiente manera A1, La bola blanca sacada de la primera caja; A2, La bola blanca sacada de la segunda caja; A, casos en que ambas bolas sacadas sean blancas. A = A1 A2 Ya que los sucesos A1 y A2 son independientes, se aplica el teorema del producto, de probabilidades,

( ) ( ) ( ) ( ) ( )( ) .2211

21

22

2

11

1221 baba

aaba

aba

aApApAApAp

++=

+⋅

+=⋅==

En caso particular, cuando la probabilidad de todos los sucesos es la misma e igual a p 8con lo que a menudo tropezamos al resolver problemas de la teoría de los errores), la fórmula (I.34) puede escribirse así (para simplificar la notación, por P se designa el primer miembro de dicha fórmula):

npP = (I.35) Ejemplo. Un dado se tira cinco veces. Determinar la probabilidad de que en cada ocasión caiga tres. Solución. La probabilidad de que, al jugar un vez el dado caiga en tres es igual a

61

=p

Según la fórmula (I.35) la probabilidad buscada será:

.7776

161 5

=

=P

Ejemplo 2.En una caja hay 25 bolas blancas y 36 negras. Calcular la probabilidad de aparición consecutiva de dos bolas blancas, si la primera bola que se saca no es devuelta a la caja. Solución. Designemos los sucesos del modo siguiente: A1, aparición de la primera bola blanca; A2, aparición de la segunda bola blanca.

28

Ya que la probabilidad del suceso A2 depende de la parición previa de A1, cabe aplicar el teorema del producto de sucesos dependientes: ( ) ( ) ( ).ABpApABP ⋅= .

Obtengamos la probabilidad del suceso A1:

( ) .6125

1 =Ap

Hallemos la probabilidad condicional del suceso A2:

( ) .52

6024

161125

21 ==−−

=AAp

La probabilidad buscada es:

( ) .164.0561225

21 ≈⋅⋅

=AAp

Ejemplo 3. La probabilidad del impacto de un disparo con arma es, en general, igual a 0.20. Sin embargo se sabe que un 2% del detonante es defectuoso y no explota. Tomando en cuanta dicha circunstancia, calcular la probabilidad de acertar al blanco. Solución. . Designemos los casos posibles: A, el acierto al blanco A1, el proyectil alcanza el blanco;; A2, .el detonante explota (no es defectuoso). A = A1A2 Dado que los sucesos A1 y A2 son independientes, emplearemos el teorema del producto de probabilidades, ( ) ( ) ( ) ( ) 196.098.020.0)02.01(20.02121 =⋅=−=⋅== ApApAApAp

7. Distribución de las probabilidades en ensayos múltiples (distribución binomial)

En muchos experimentos, por ejemplo, al verificar instrumentos nuevos o al probar métodos nuevos de trabajo, se realizan los ensayos o pruebas múltiples, guardando a menudo cierto complejo de condiciones. Al investigador, en este caso, le interesan todos los resultados posibles de las pruebas a realizar, asó como la obtención de las características de probabilidad comparativas que éstas revelen. Detengámonos en esta cuestión a lo largo detalladamente. Si se efectúa una serie de ensayos, en cada uno de los cuales la probabilidad de aparición del suceso A no depende de los resultados de otros ensayos, entonces tales ensayos se llaman independientes respecto al suceso A. Supóngase que se realizan n ensayos independientes, en cada uno de los cuales la probabilidad de aparición del suceso A es conocida (igual a p) y

29

además es constante. Planteémonos como tarea determinar la probabilidad Pn(K) de que en n ensayos el suceso A se presente k veces, indiferentemente del orden en que ello ocurra. Para ello, analicemos consecutivamente los resultados de la pruebas después de uno, dos, etc., ensayos y, finalmente, al cabo de n ensayos. A resultas de un ensayo, el suceso A puede aparecer y puede no aparecer; es decir, son posibles los siguientes dos sucesos que forman un grupo completo

A , A. Como la suma de probabilidades de los sucesos que forma un grupo completo es igual a la unidad, entonces

( ) ( ) 1=+ ApAp , o bien

q + p = 1. Después de efectuar dos ensayos independientes so posibles los siguientes sucesos complejos:

,AA AA, A A , AA, y como estos sucesos forman un grupo completo , entonces:

( ) ( ) ( ) 1)( =+++ AApAApAApAAp (I.36) Dado que los sucesos considerados son independientes, en este caso puede aplicarse el teorema del producto de probabilidades:

( ) ( ) ( )( ) .12

)(222 =+=++=

+++=+++

pqpqpq

pqqpppqqAApAApAApAAp (I.37)

Al cabo de tres ensayos independientes, son posibles los siguientes sucesos complejos.

AAAAAAAAAAAAAAAAAAAAAAAA ,,,,,,, Estos sucesos forman un grupo completo de sucesos y son independientes, de allí la suma de sus probabilidades es igual a la unidad por lo que es aplicable el teorema del producto

( ) 133

)()()()()()()()(

33223

22222233

=+=+++=

+++++++=

+++++++

pqpqppqq

qpqpqppqpqpqpqAAAPAAAPAAAPAAAPAAAPAAAPAAAPAAAP

(I.38)

Razonando de manera análoga, para n ensayos se obtiene

( ) 1=+ npq (I.39)

30

Descomponiendo el binomio (I.39) en una suma de n+1 sumando, resulta que

( ).1...........

......0

2221100

=+++

+++=+−

−−

nnn

kknkn

nn

nn

nn

n

pqCpqCpqCpqCpqCpq

(I.40)

Aquí ),....2,1,0( nKC k

n = son los coeficientes binomiales; además

10 == nnn CC

El primer sumando de (I.40) caracteriza la probabilidad de que en n ensayos independientes el suceso A parezca o veces, es decir, ni una sola vez; el segundo sumando determina la probabilidad de que el suceso A aparezca una vez y, por consiguientes, no ocurra n- veces, y así sucesivamente. El último sumando caracteriza la probabilidad de que el suceso A aparezca n veces. Así pues, la probabilidad de que en n ensayos independientes, en cada uno de los cuales la probabilidad de aparición de cierto suceso es igual a p, dicho suceso ocurra justamente un número k de veces se determina por la fórmula

( ) kknknn pqCkp −= (I.41)

Donde Pn (k) es la probabilidad de aparición del suceso k veces en n ensayos;

( )!!!knk

nC kn −= Es el número de posibles combinaciones de n objetos en

grupos de k elementos; q, la probabilidad de no aparición del suceso en un solo ensayo. p, la probabilidad de aparición del suceso en un solo ensayo. El conjunto de las probabilidades Pn(k) (K = 0, 1, 2, ……,n) se denomina distribución binomial de probabilidades. Cuando n y k son grandes (más de 10), para simplificar el cálculo de los factoriales se utiliza la fórmula aproximada de Stirling:

+++⋅⋅= − ......

2881

12112! 3nn

nnn nn lπ (I.42)

Por lo común, la fórmula de Stirling se simplifica aún más y se aplica en la forma

.2n

ennn

⋅≈ π (I.43)

El error absoluto en el cálculo de factoriales por la fórmula (I.43) crece al aumentar el valor de n. En cambio la precisión relativa (definida como la razón entre los valores del error absoluto y el factorial y que suele expresarse en %) aumenta con el incremento de n. Por eso, la fórmula de Stirling pertenece a la clase de fórmulas asintóticas. Comparando las fórmulas (I.42) y (I.43) es fácil calcular que cuando n = 10, el error relativo de los cálculos es igual a 0.8%; cuando n = 20, igual a 0.4%. En ocasiones, para determinar los coeficientes binomiales en los cálculos por la fórmula (I.41); conviene hacer uso del triángulo de pascal (Tabla 1)

31

Tabla 1

n Coeficientes

knC

0 1 1 1 1 2 1 2 1 3 1 3 3 1 4 1 4 6 4 1 5 1 5 10 10 5 1 6 1 6 15 20 15 6 1

Cada coeficiente binomial en el triángulo de Pascal se obtiene como la suma de los dos coeficientes situados encima de él, en el renglón anterior, a ambos lados. Notemos, para concluir, que puede lograrse un control adicional de los cálculos realizados por la fórmula (I.40), si se parte de las propiedades de los coeficientes binomiales, a saber: los coeficientes de los miembros equidistantes del comienzo y del final de cada renglón son iguales, y la suma de todos los coeficientes en un binomio de n-ésimo grado es igual a 2n. Ejemplo. Hallara la probabilidad de practicar tres perforaciones en el tablero de un blando en cuatro disparos, si la probabilidad de que un proyectil perfore el tablero en un disparo es constante e igual a 0.4. Solución. Designaremos por p la probabilidad de que en un tiro se perfore el tablero en blanco y por P4(3) , la probabilidad de que en cuatro disparos se practiquen tres perforaciones en el tablero. De acuerdo con los datos. ( ) 4.0== pAp 6.01 =−= pq ;

De la fórmula (I.41) tenemos: .1536.0)4.0()6.0(4 313343

4)3(4 =⋅⋅== − pqCp Este resultado se obtiene también, al aplicar los teoremas de la suma y del producto de probabilidades. El suceso “presencia de tres perforaciones en el tablero del blanco” puede ocurrir en las combinaciones siguientes (Sea Ai el impacto sobre el tablero en caso i-ésimo disparo): 1) ( )43211 AAAAB = 3) ( )43213 , AAAAB = ;

2) ( )43212 AAAAB = 4) ( )43214 , AAAAB = . Haciendo uso del teorema del producto de probabilidades de sucesos independientes , se tiene 1) ( ) 0384.0()()()()( 43211 == ApApApAPBp

2) ( ))()()()()( 43212 ApApApApBp = = 0.0384 3) ( ) 0388.0)(),()()()( 43213 == ApApApApBp ; 4) ( ) 0384.0)()()()()( 43214 == ApApApApBp .

32

Recordemos que

( ) ( ) 4.0)()( 4321 ==== ApApApAp Según lo acordado en el ejemplo, la aparición de cualquiera de los sucesos complejos representados por los productos 1)-4) quiere decir la aparición del suceso indicado . Por lo tanto según el teorema de la suma, se tiene:

( ) ( ) ( ) ( )4321)3(4 BpBpBpBpp +++= , o bien

1536.0)3(4 =p Se ha obtenido el mismo resultado que al aplicar la fórmula (I.41) Para fines prácticos, es útil saber calcular la probabilidad de aparición de al menos uno de entre un total de n sucesos independientes en conjunto cuando se conoce la probabilidad de aparición de cada uno de ellos. Sea A un suceso consistente en la aparición de al menos uno de los sucesos A1, A2,…..An independiente en conjunto. El suceso complejo ( )nAAA ⋅⋅ .....21 , que se presenta cuando ninguno de los sucesos ocurre, viene a ser el suceso contrario al suceso A. Por consiguiente, ( ) ( ) ,1......21 =+ nAAApAp

o bien: ( ) ( ) ( ) ( ) .1....21 =+ nApApApAp (I.44)

De la formula (I.44), designando ( ) ( ) ( ) .,...., 2211 nn qApqApqAp === (I.45)

Obtenemos ( ) nqqqAp ....1 21−= , (I.46)

es decir, la probabilidad de aparición de al menos uno de entre n sucesos independientes en conjunto es igual a la diferencia entre la unidad y el producto de las probabilidades de los sucesos contrarios. En particular, cuando ( ) ( ) ( ) ,....21 pApApAp n === la probabilidad de aparición de un suceso, aunque sea una sola vez será igual a

( ) nqAp −=1 . Así, en el ejemplo anterior, se obtendrá

( ) 87.06.01 4 =−=Ap , es decir, la probabilidad de perforar el tablero del banco al menos una vez en cuatro disparos es igual a0.87. Aplicando la misma idea, puede obtenerse la fórmula de la suma de probabilidades para suceso compatibles. Vamos a suponer que n sucesos compatibles A1……An poseen las probabilidades p1,……..pn. Las probabilidades de no aparición de estos sucesos son iguales, respectivamente, a

33

.1,.....1 11 nn pqpq −=−= La probabilidad de que ninguno de los sucesos

indicados se presente es igual a .11qQ n∏= Y, finalmente, la probabilidad de

aparición de al menos uno de los sucesos compatibles es igual a P = 1-Q.

8. El número más probable de apariciones de uno suceso en ensayos múltiples

Al llevar a cabo experimentos y diversos cálculos teóricos, al investigador, como es natural, le interesa saber cual es el número más probable de apariciones de un suceso esperado en ensayos múltiples, si se cumple un determinado complejo de condiciones, el cual, en forma generalizada, posee un carácter constante en el proceso de análisis de la probabilidad de aparición de dicho sucesos en un ensayo. Calculando todos los términos en la fórmula (I.40) y sabiendo, a partir de la definición de probabilidad , que una mayor probabilidad asegura mayor confianza en la obtención del resultado respectivo de un ensayo, determinaremos el número buscado de apariciones del suceso. Ejemplo.Se han efectuado ocho mediciones independientes de una misma magnitud en condiciones iguales. Calcular las probabilidades de aparición de errores negativos ∆: una, dos, tres, y así sucesivamente, hasta ocho veces de entre ocho, suponiendo que

( ) ( ) ( ) ( ) .0;0;2100 ppqppp =>∆=<∆=>∆=<∆

Solución .Compongamos la tabla 2. Tabla

2

Numero De Apari- ciones

0 1 2 3 4 5 6 7 8 Control

( )kPN

n 8

08 2

1

C

818 2

1

C

828 2

1

C

838 2

1

C

848 2

1

C

858 2

1

C

868 2

1

C

878 2

1

C

888 2

1

C

8 2561

2568

25628

25656

25670

25656

25628

2568

2561

256256

34

De la tabla 2 se concluye que la mayor probabilidad

5670 corresponde a la

aparición de cuatro errores negativos. Cuando el número n es grande, el uso de la fórmula (I.40) se hace engorroso. Busquemos una solución más simple y general, válida igualmente para cualquier valor finito de n. Sea K0 el número más probable de apariciones de un suceso en n ensayos. Para resolver la tarea planeada, apliquemos la fórmula (I.41) de distribución binomial de las probabilidades. Ahora bien, ya que esta distribución es discontinua (discreta), el aparato del análisis matemático resulta inservible para el estudio de las fluctuaciones de las probabilidades Pn (K) en dependencia de la variación del número de apariciones de suceso k. Por tanto el problema requiere una solución algebraica. Según la definición del número más probable de apariciones de un suceso, deben verificarse las desigualdades siguientes:

( ) ( )( ) ( ) .

11

00

00

−≥+≥

kPkPkPkP

nn

nn (I.47)

Si la condición (I.47) se cumple. K0 será el número más probable de apariciones del suceso en ensayos reiterados. Hallaremos el número k0 que satisface la primera de las desigualdades (I.47). Para esto, escribamos la relación

( )( ) .1

1

0

0 ≤+kPkP

n

n (I.48)

Empleando la fórmula (I.41), desarrollemos el numerador y denominador del primer miembro de la desigualdad (I.48)

( )( )

( ) ( )

( )

.

!!

!1!1!

1

00

0011

0

0000

000

qknk

n

pknk

n

pqCpqC

kPkP

kknkn

kknkn

n

n

⋅−

⋅−−+

=⋅

⋅⋅=

+−

+−−

(I.49)

Realizando las simplificaciones correspondientes en (I.49) y tomando en cuanta la desigualdad (I.48), obtenemos

.110

0 ≤⋅+−

qp

kkn

(I.50)

Pasando el denominador del primer miembro al segundo en (I.50), escribiremos ( ) ( )qkpkn 100 +≤− (I.51)

o bien, qqkpknp +≤− 00 (I.52)

35

Luego tendremos

( )qpkqnp +≤− 0

Pero, ya que p + q = 1, entonces 0kqnp ≤− (I.53)

De este modo, para el cumplimiento de la primera parte de la condición (I.47) es suficiente determinar k0 bajo la condición (I.53). Hallemos el límite derecho de k0 que satisface la segunda desigualdad (I.47).para ello establezcamos la relación

( )( ) .1

1

0

0 ≤−kpkp

n

n (I.54)

Luego de efectuar sencillas transformaciones se obtiene ( )( ) ,1

11

0

0

0

0 ≤⋅+−

=−

pq

knk

kpkp

n

n

o bien ( ) ,1 00000 ppknppkkpkqk +−≤−=−=

de donde .0 pnpk +≤ (I.55)

En definitiva, después de unir las desigualdades (I.53) y (I.55), resulta que

( ) .1 0 pnpkpnp +≤≤−− (I.56) La desigualdad (I.56) permite hallar el número más probable de apariciones de un suceso en ensayos múltiples, es decir, aquel que satisface las condiciones (I.47) , además si el número ( )qnp − es fraccionario, entonces la desigualdad doble (I.56) define un solo número k0 como el más probable, en cambio, si es entero, (I.56) definirá dos números como los más probables : 100 +ykk . Cuando se tiene un número de ensayos lo suficientemente grande y para un valor de p no cercano a cero, se puede reducir la desigualdad (I.569 a igualdad y en la práctica calcular k0 por la fórmula aproximada

.0 npk ≈ (I.57)

Por la fórmula (I.57) hallamos ,0 pnk

≈ lo que explica la propiedad de estabilidad

de la frecuencia relativa en un número grande de ensayos, y puede servir también como cierto fundamento para el teorema de Bernoulli expuesto en el capitulo 3. Notemos que si el producto np presenta un número entero, entonces la igualdad aproximada 8I.57) se hace exacta.

36

9. Ley del límite de Moivre-Laplace (ley normal de distribución de las probabilidades en ensayos múltiples)

La distribución binomial de probabilidades resulta, en mayor o menor grado, efectiva para la solución de problemas prácticos sólo cuando el número de ensayos es comparativamente pequeño (no mayor de 10-20). Al aumentar el número n de ensayos, las probabilidades de cada número de apariciones de un suceso disminuyen de suerte que en un número grande n dichas probabilidades se tornan insignificantemente pequeñas. Este hecho se hace casi evidente, si tomamos en cuenta que el número de términos de la distribución binomial es igual a n+1 y que la suma de éstos siempre es igual a la unidad. Cuando se tiene un número grande de ensayos, puede revestir interés práctico únicament la solución del problema siguiente: ¿cuál es la probabilidad de que cierto suceso ocurra entre los límites a y b de veces, es decir, que ocurra a, o bien a + 1, ó a + 2, ó a + 3, etc, o b veces? Según el teorema de la suma, la probabilidad de tal suceso complejo (suma o unión de sucesos) es igual a la suma de las probabilidades de los sucesos componentes, es decir.

( ) ( ) ( ) ( )......21 bPaPaPaP nnnn +++++ Pero el cálculo de tal suma de probabilidades pro la fórmula (I.40), para un número n grande, resulta extremadamente complicado. De manera más sencilla, este problema se resuelve si se emplea la llamada ley de distribución normal reprobabilidades, cuya demostración completa la dio primeramente Laplace que utilizó datos que habían sido ya obtenidos por Moivre. Por eso la ley normal de distribución se conoce también como ley de Moivre – Laplace. La ley normal de distribución de resultados suficientemente precisos solamente en caso de un número grande de ensayos. Debido a ello, pertenece a las leyes del límite. Si 20≥n y los valores de p difieren lo suficiente de 0 y de 1 (no divergen muy pronunciadamente de 0.5), la ley normal presenta resultados que prácticamente no se diferencian de aquellos que ofrece la ley binomial. ∗Obtengamos la ley normal de distribución a base de esta última. Más se ha de tener en cuenta que la ley binomial presenta dos desventajas sustanciales: La primera consiste en que esta ley es discreta, o sea que la función ( )kpn no es continua, sino que varía discretamente (discontinuamente).Por eso, la suma

de probabilidades ( ) ( ) ( ) ( )kPbPaPaPaPb

aknnnnn ∑

=

=++++++ .....)2(1 no

puede ser sustituida por una integral, incluso en el caso de un número n grande de ensayos. Dicha suma se puede obtener sólo por un recuento directo de todos los sumandos. ∗ Para valores de p que se diferencian considerablemente de 0.5 se emplean otras leyes de distribución.

37

La segunda desventaja de la distribución binomial estriba en que la serie de distribución ( )npq + depende de dos parámetros, n y p, lo que prácticamente priva de la posibilidad de tabular los valores de las probabilidades ( )kp n ; para diferentes valores de la probabilidad p de un suceso en ensayo y para diversos valores del número n de ensayos, tendríamos que componer multitud de tablas. La ley normal no presenta las desventajas de la distribución binomial. Además, lo que es no menos importante, la ley normal de distribución, como se verá más adelante , se extiende a una clase muy amplia de fenómenos aleatorios y se aplica no sólo al cálculo de probabilidades de que el número de apariciones de un suceso quede comprendido dentro de ciertos límites, sino también en muchos otros casos prácticos de importancia. Pasemos a la deducción de la ley normal. Tratando de conservar las propiedades positivas de la ley binomial, consideremos sus particularidades siguientes:

1. El argumento k de la distribución binomial varía discretamente y a intervalos idénticos, iguales a la unidad;

2. La mayor probabilidad corresponde al valor .0 npk ≈ Representemos

gráficamente cierta distribución binomial ( )npq + . Para esto, por el eje de las X tracemos consecutivamente segmentos iguales a la unidad. Sobre el primer segmento, construyamos un rectángulo de altura

( )00 nph = ; en el segundo segmento, un rectángulo de altura ( )11 nph = , sobre el tercero , un rectángulo de altura ( )22 nph = , etc. Hasta obtener un rectángulo de altura ( )nph nn =

38

La superficie comprendida entre el eje de la X y la línea escalonada por arriba es igual a la unidad (suma de las probabilidades de un grupo completo de sucesos). El carácter de la distribución queda ilustrado por la línea escalonada (es decir, las diferencias entre las probabilidades de los valores continuos) diminuye, y la misma línea quebrada se aproxima cada vez más al eje X, ampliándose hacia la derecha. Lo dicho se ilustra en la figura 2 para las funciones ( ) ( )kPkP 64 + , cuando p = 0.4. En la ley normilla línea escalonada se transforma en una curva continua, y al elegir los argumentos correspondientes al complejo de condiciones, dicha curva adquiere una forma estándar. El objetivo final de la primera etapa de deducción es obtener una función ( )ξf tal que permita calcular la suma buscada de probabilidades en forma de

integral

( ) ( ) ( ) ( )bakdondedf ϕξϕξϕξξξξ

ξ

===∫ 21 ,,,2

1

aquí, ξd corresponde a la variación de k en la unidad, como argumento de la función ( )ξf tomemos la desviación de la frecuencia relativa del suceso respecto a su probabilidad. Tal selección del argumento confiere aún mayor generalidad para diversos casos particulares.

39

El argumento de la función buscada, según lo convenido, será

pnk−=ξ (I.58)

En tal caso, ξd , que corresponde a la variación de k en una unidad, será:

,11n

pnkp

nkd =

−−

+=ξ

o bien,

,1n

d =ξ (I.59)

Teniendo el valor de ξd , escribamos para la función ( )ξfy = buscada

),(knPy n= (I.60) de donde

( )nykPn

1=

o según (I.59),

( ) ( ) .ξξξ dfydkPn == (I.61)

Hallemos la forma de la función ( )ξfy = . Para eso escribamos dos igualdades

( )

=+=+

knPyknPy

nk

nk )1(1 (I.62)

Dividiendo 1+ky entre ky , obtenemos ( )

( ),

11

kn

n

k

k

PkP

yy +

=+

o bien, tomando en cuenta (I.41)

.1111

1

qp

CC

pqCpqC

yy

kn

kn

kknkn

kknkn

k

k ⋅==+

+−−++

(I.63)

Ya que

( ) ( ) ( )( )

( ) ( ) ,1!1!1

!!!!

!:!1!1

!1

+−

=−−+

−=

−−−+=

+

kkn

knkknk

knkn

knkn

CC

kn

kn

Entonces

.1

1

qp

kkn

yy

k

k ⋅+−

=+ (I.64)

40

Designando kkk yyy ∆= ++1 , se puede escribir que

( )( )pk

pknyy

yyy

k

k

k

kk

11

+−

=∆

+=∆+

,

o bien, ( ) ( )

( )( ) .

11

qkqpqkqnp

qkqqkqkpnp

pkqkpkn

yy

k

k

++−−

=+

−−−=

++−−

=∆

Sin embargo, 1=+ pq , por eso

qkqqknp

yy

k

k

+−−

=∆

(I.65)

Puesto que deseamos obtener una función con argumento

pnk−=ξ expresemos la igualdad (I.65) en la forma

nqq

nk

nqp

nk

yy

k

k

+

+−=

∆ (I.66)

Habiendo propuesto que n es suficientemente grande, eliminemos en el numerador y el denominador de la fracción (I.66) la magnitud

nq . En tal caso,

resulta valido:

( )ξξ+

=∆

pqyy

k

k (I.67)

Pasemos ahora de la ley binomial discreta de distribución a la función continúa

( )ξfy = . Para esto, recordando que ,1n

d =ξ [veáse (I.59)], escribamos la

ecuación diferencial

( ) ξξ

ξ dpqn

ydy

+−=

(I.68) Resolviendo la ecuación (I.68), se obtiene la función continúa ( )ξfy = que alisa la distribución binomial. Antes, sin embargo, efectuamos ciertas simplificaciones, aplicando la descomposición en serie de Taylor∗:

∗ La ecuación (I.68)se podía integrar también directamente sin tener que recurrir a su descomposición en serie; pero, en tal caso se obtendría una función incómoda para su empleo práctico.

41

( )

...........1

11

33

222

2

1

+−+−=

−+−⋅−

=

+−=

+

⋅−=+

−=−

ξξξξξξξξξξ

ξξξξξξξ

ξξ

dqpnd

qpnd

pqnd

pppqn

dppq

n

p

dpqnd

pqn

ydy

o bien,

.....33

22

+−+−= ξξξξξξ dqpnd

qpnd

pqn

ydy

(I.69)

Integrando la ecuación (I.69), obtendremos

Cqp

ndqp

ndpqny ln......

432ln 4

33

22 ++−++= ξξξξξ (I.70)

(la constante de integración puede ser representada en cualquier forma). Si se tiene en cuanta que los valores de p no divergen muy notablemente de 0.5, entonces en el segundo miembro de la igualdad se pueden despreciar todos sus términos a excepción del primero. Esto se deriva del hecho de que los valores absolutos de ξ , siendo n grande, son considerablemente menores que la unidad, por eso la serie converge rápidamente. Ahora se tiene

Cdpqny ln

2ln 2 ++= ξξ ,

de donde 2

2ξ⋅−

⋅= pqn

eCy (I.71)

Puesto que la magnitud pqn siempre es positiva, designemos

=

=

pqnh

pqnh 2

(I.72)

Así pues,

22

21 ξ⋅−

⋅=h

eCy (I.73) (el coeficiente 21 se ha dejado en el exponente para facilitar el uso ulterior de tablas existentes). La curva correspondiente a la fórmula (I.73)está situada por encima del eje de abcisas (puesto que una función exponencial, no toma valores negativos) y es

42

simétrica respecto al eje Y (la función es par). Las ramas de esta curva se aproximan en forma de asíntotas al eje X. Hallemos el valor de la constante C. Para ello, recuérdese que el área bajo la línea escalonada de la distribución binomial es igual a la unidad. En vista de ello, hagamos que el área bajo la curva de distribución normal sea también igual a la unidad:

122

21

=∫+∞

∞−

−ξ

ξdeC

h

(I.74)

(los límites +∞∞− , se han fijado considerando que la curva es asintótica). Para determinar el valor de la integral en primer miembro de la igualdad (I.74), designemos

zh=

2ξ (I.75)

de donde,

dzh

d 2=ξ (I.76)

Ahora se puede escribir

12=∫

+∞

∞−

− dzeh

C z (I.77)

(evidentemente, los limites de integración no varían). Considerando que la integral en el primer miembro de esta igualdad es igual a π (integral de Poisson), obtenemos

12=π

hC

De aquí

π2hC = (I.78)

Teniendo en cuenta (I.71),(I.72), y (I.78), obtenemos, en definitiva, la función buscada ( )ξfy = en la forma

22

21

2

ξ

π

hehY−

= (I.79)

Para la probabilidad del número k de apariciones del suceso y su

correspondiente valor pnk−=ξ , resulta, según (I.61), que

43

( ) ξπ

ξ

ξ dehPkPh

n

22

21

2

−== (I.80)

La expresión (I.80) muestra que las probabilidades de los valores concretos de ξ serán insignificantemente pequeños en el caso de un número n grande [veáse (I.59)]. Advirtamos que las ordenadas de la curva (I.79) se llaman “densidad de la probabilidad” de la distribución normal. La función (I.79) resulta incómoda, debido a que posee parámetro variable

pqnh = ,

por lo que no puede ser representada en una solo gráfica o tabulada con una sola entrada: ésta es de hecho una función de dos variables, ξ y h , y la forma de la curva ( )ξfy = depende del parámetro h . Por eso conviene introducir una nueva variable

ξht = , (I.81) de donde

nhhddt == ξ (I.82)

Ahora la expresión (I.80) adquiere la siguiente forma

( ) ( ) ( ) dtetPPkPt

n

2

21

21 −

===π

ξ (I.83)

La curva de distribución se estandariza y su función correspondiente ( )tϕ toma la forma:

( ) 2

2

21 t

et−

ϕ (I.84)

La curva correspondiente a (I.84) se muestra en la fig 3. La tabla de valores de la función (I.84) puede consultarse en el apéndice 1. Con ayuda de dicha tabla el valor de ( )KPn se obtiene de la siguiente forma:

1. El valor de t se calcula por las fórmulas

=

=

−=

ξ

ξ

htpqnh

pnk

(I.85)

2. En la tabla del apéndice 1 se busca la magnitud

44

2

21)(

t

et−

ϕ

3. Por las fórmula (I.59) y (I.82) se obtiene

nhdt = (I.86)

4. Se encuentra el valor buscado ( ) dttkPn )(ϕ= (I.87)

Ejemplo 1. Hallar la probabilidad de aparición de una bola blanca seis veces en diez pruebas, si la urna de la que se sacan las bolas contiene cuatro bolas blancas y seis negras (las bolas son devueltas a la caja).

Solución .Están dados: n = 10; k = 6 ; p = 0.4; q =0.6. Utilizando las fórmulas (I.85), (I.86),(I.879 y la tabla del apéndice 1, resolveremos el problema.

288.120.044.6;44.66.04.0

10;20.04.0106.1 =⋅==

⋅==−= thξ

2. De las tablas del apéndice 1 obtenemos ( ) 1740.0288.1 =ϕ

3. 644.01044.6

==dt

4. Respuesta: ( ) 112.0644.0174.0 =⋅=kPn

Ejemplo 2. Determinar la probabilidad de que , al arrojar una moneda al aire 10 veces, caiga “cara” en cuatro ocasiones. Solución. Los datos son n = 10; k = 4; p = 0.5; q = 0.5.

1. 10.05.0104

−=−=ξ

45

32.65.05.0

10=

⋅=h

632.0== ξht 2. ( ) 327.0632.0 =ϕ [en el argumento t se ha omitido el signo menos, ya que la función ( )tϕ es par es decir, ( ) ( )tt ϕϕ =− ].

3. 632.01032.6

==dt

4. Respuesta: ( ) ( ) 207.0632.0374.0 =⋅=⋅= dttkPn ϕ

La distribución binomial proporciona el resultado ( ) 205.0=kPn Ejemplo 3. Hallar la probabilidad de que, al jugarse 10 veces un dado caiga en cuatro de dos ocasiones Solución. Los datos son n = 10; k = 2; p = 0.1667; q = 0.8333. 1. 0333.01667.020.0 =−=ξ

47.88333.01667.0

10=

⋅=h

282.00333.047.8 =⋅== ξht 2. ( ) 383.0282.0 =ϕ

3. 847.01047.8

==dt

4. Respuesta: ( ) ( ) 32.0847.0383.0 ≈⋅=⋅= dttkPn ϕ

La distribución binomial proporciona el resultado ( ) 29.0≈kPn . Aquí la discrepancia es mayor debido a que la probabilidad p difiere considerablemente de 0.5, y el número n es pequeño.

Como se ve, incluso en 10 ensayos, la ley normal ya proporciona resultados que divergen poco de los obtenidos por la ley binomial. Si n>20 y los valores de p no difieren mucho de 0.5, así como en el caso de que los valores de ξ no sean muy grandes, los resultados serán lo suficientemente buenos. Sin embargo, como ya se mencionó, en un número grande de ensayos, las probabilidades ( )kPn se tornan tan pequeñas que su cómputo pierde práctico. 10. Integral de probabilidades

Como se indicó, cuando el número de ensayos es grande, reviste interés práctico únicamente el cálculo del valor pba , o sea, de la probabilidad de que el

número de apariciones de un suceso se halle comprendido entre los límites a y b.

46

La ventaja de la ley normal respecto a la binomial consiste precisamente en que el valor de pba puede obtenerse en forma de integral definida, sin tener que

calcular cada uno de los valores de ( )kPn por separado. En otras palabras, la

suma de las probabilidades )(kPb

akn∑

=

se sustituye por la integral

dtePtb

ta

tba ∫

−=

2

21

21π

(I.88)

cuyos límites ta y tb pueden obtenerse como función de a y b por las fórmulas (I.85) La integral definida, como es sabido, es función de los límites de integración. Para reducir a uno el número de argumentos de esta función, generalmente se estandariza uno de los límites, lo que permite tabular los valores de la integral de probabilidades como si fuese una función de una sola variable. La integral de probabilidades más cómoda, simétrica respecto al eje Y, es la siguiente:

dtePy

t

t

∫+

−+− =

2

0

0

21

21π

ξξ , (I.89)

(I.89) Donde 0ξ± son los límites impuestos a la desviación de la frecuencia relativa con respecto a la probabilidad. La expresión (I.89) muestra que el valor de 0

0

ξξ+−P crece con el aumento de la

magnitud t. Pero 0ξpqnt = , de lo cual se deduce que para un valor dado de

pnk−=ξ por pequeño quesea, y al aumentar n, la probabilidad 0

0

ξξ+−P puede

llegar a aproximarse arbitrariamente a la unidad. De este modo queda demostrado el teorema de Bernoulli del capitulo 3. Dado que la función subintegral de (I.89) es par puede escribirse:

( )tdtePt

t

tΦ== ∫

+

−+−

2

0

0

21

21π

ξξ (I.90)

La función (I.90) se llama integral de probabilidades. Es fácil cerciorarse de que

esta integral es función de una sola variable t, es decir, ( )tP Φ=+−

0

0

ξξ , donde

47

0ξht = , pnak−

−=− 0

0ξ ; pnak−

+=+ 0

0ξ ; a± , son los límites impuestos a

la desviación de k respecto de npk =0 .

La tabla de valores de ( ) dtett t

∫−

=Φ0

2

2

22π se dan en el apéndice 2.

A veces resulta más cómodo usar las tablas de las integrales:

( )tFdtet t

p == ∫−+

∞−0

2

2

0

21π

ξ

(I.91)

Donde t puede tomar valores tanto positivos como negativos. La función ( )tF en ocasiones se llama función de distribución normal. En el apéndice 3 se anexa una tabla para encontrar los valores de la función ( )tF .

Dado que la función 2

2t

e−

no se integra en funciones elementales, al confeccionarse las respectivas tablas, los valores de ( ) ( )tyFtΦ (apéndices 2 y 3).Mostraremos esto con ejemplos∗ Ejemplo 1.El porcentaje medio de artículos de primera calidad producidos por una fábrica es igual a 73. Hallar la probabilidad de que entre 100 artículos tomados al azar resulte, de primera calida, no menos de 69 y no más de 77. Solución Los datos son n = 100; p = 0.73; q = 0.27; K1= 0.69; K2 = 0.77.

1. 04.073.077.0

;04.073.069.0

2

1

+=−=−=−=

ξξ

Dado que 021 ξξξ == , se pueden utilizar las tablas de valores de ( )tΦ .

2. 5.2227.073.0

100=

⋅=h

3. 90.004.05.220 =⋅== ξht 4. De la tabla del apéndice 2 se obtienen la respuesta. ∗ Al solucionar los ejemplos hay que recordar que una integral es numéricamente igual al área limitada arriba por la curva, y a izquierda y derecha, por las ordenadas de los límites de integración.

48

( ) 63.0=Φ t Ejemplo 2. A partir de las condiciones del ejemplo anterior, calcular la probabilidad de que el número de artículos de primera calidad, escogidos al azar, no sea menor de 70, es decir, de que sea mayor o igual a 70. Solución: Encontremos primeramente la probabilidad del suceso opuesto,

Fig. 4 Esto es, la probabilidad de que la cantidad de los artículos de primera calidad sea menor de 70, o sea de que su número esté comprendido entre 0 y 69, esto lo da la integral de ( )90.0−F . Por la tabla del apéndice 3 obtenemos

( ) 184.090.0 =−F La probabilidad buscada será igual a 816.0184.01 =− Ejemplo 3.Calcular la probabilidad de que al arrojar cien veces una moneda el número de apariciones de “cara”esté comprendido entre los límites de 45 y 60. Solución. Aquí también puede emplearse la función ( )tF :

;05.050.010045

1 −=−=ξ ;10.050.010060

2 +=−=ξ

;205.05.0

100=

⋅=h

( )210.020

;0105.020

2

1

=⋅=−=−⋅=

tt

Respuesta:

( ) ( ) 818.0159.0977.0126045 =−=−= FFP

La integral de las probabilidades puede también obtenerse discurriendo de otro modo. Hagamos la respectiva deducción. Tomemos, como expresión de partida, la fórmula siguiente:

( ) ( )kPbkaPb

akn∑

=

=<< (I.92)

Los valores de ( )kPn , como es sabido, se pueden obtener por la fórmula (I.41)

( ) kknknn pqCkp −= ;

Donde

( )!!!knk

nC kn −=

De lo que se deriva:

49

( ) ( )kkn

n pqknk

nkp −

−=

!!!

(I.93)

Poniendo la fórmula (I.93) los factoriales n!, k!, n-k)! correspondientes a la fórmula (I.43), obtendremos

( ) ( )

kknknk

n

kknn

pq

eknkn

ekk

enn

pqknk

nkp

−−

−⋅

=−

=

)(22

2

!!!

ππ

π (I.94)

Tras algunas simplificaciones resulta que:

( ) kknknk

n

n pqknkknk

nnkp −−−−⋅

⋅=

)()(2π (I.95)

Tomando knkn nnn −=

Volvamos a escribir la expresión (I.95) de la forma siguiente:

( )knk

n knnq

knp

knknkp

−=

)(21π

(I.96)

En el tema 8, para el número más probable k0 de apariciones de un suceso en ensayos reiterados se dedujo la fórmula (I.57), según la cual npk ≈0 . En vez del número de apariciones del suceso k, vamos a considerar su desviación con respecto a k0, es decir,

npkk −=∆ (i.97) Teniendo en cuenta (I.97), transformemos la fórmula (I.96)

( )knpknpn

nqk

npk

npk

npknpq

kp∆+−∆−−

∆−

∆+

∆−

∆+

=

1111

121π (I.98)

Suponiendo que p y q no sean número cercanos a cero ni a la unidad, en un

número lo suficientemente grande de ensayos, las fracciones npk∆ y

nqk∆

serán

magnitudes pequeñas y, por consiguiente,

1

11

1≈

∆+

∆+

nqk

npk

(I.99)

Simplifiquemos en (I.98) los últimos dos factores de la expresión subradical. Para ellos encontremos primeramente sus logaritmos

50

∆+∆+−=

∆+

∆−−

npkknp

npk

knp

1ln)(1ln

∆−∆+−=

∆−

∆+−

npkknp

npk

knp

1ln)(1ln (I.100)

Descomponiendo en series

∆+npk1ln y

∆−npk1ln según las potencias de

npk∆ y

nqk∆

, obtendremos

+∆

−∆

−=

∆−

+∆

−∆

−=

∆+

.....2

1ln

....2

1ln

22

2

22

2

qnk

nqk

nqk

pnk

npk

npk

(I.101)

Al sustituir (I.101) en (I.100), se tiene

( )

( )

∆−∆=

+

∆−

∆−∆−−−=

∆−

∆−∆−=

+

∆−

∆−∆+−=

∆+

∆+−

∆−−

...2

.....2

1ln

.....2

....2

1ln

2

22

2

2

22

2

nqkk

qnk

nqkknq

nqk

npkk

pnk

npkknp

npk

knq

knp

(I.102)

Valiéndonos de la definición del logaritmo, podemos volver a escribir la expresión (I.102) en la siguiente forma:

=

∆−

=

∆+

∆−∆

∆+−

∆−∆−

∆−−

...2

.....2

2

2

1

1

nqkk

knq

npkk

knp

enqk

enpk

(I.103)

Una vez sustituidos los respectivos valores de los dos últimos factores en la expresión subradical de (I.98) por los de (I.103), se obtendrá

( )....

2.....

2

22

21 +

∆−∆+

∆−∆−

= nqkk

npkk

n eenpq

kpπ

(I.104)

Teniendo en cuenta que

( )npqk

npqkpkp

npqkpkq

nqkk

npkk

221

222222

2222

∆−=

∆−∆−−

=∆−∆−

=∆

−∆+∆

−∆− (I.105)

51

Obtendremos

( ).....

2

2

21 +

∆−

= npqk

n enpq

kpπ

(I.106)

Sustituyamos en (I.106) 2k∆ por la expresión 2npk − tras lo cual resulta

( )( )

.....2

2

21 +

−−

= npqnpk

n enpq

kpπ

(I.107)

La fórmula (I.107) puede aplicarse en el cálculo de la probabilidad de n número k de apariciones de un suceso k veces en caso de n ensayos

npqnpkx −

= (I.108)

Aumentemos el número de apariciones de k en una unidad y, bajo esta condición, determinemos por la fórmula (I.108) el incremento de la nueva variable x

−=

+−=∆+

npqnpkx

npqnkxx 1

(I.109)

Sustrayendo en (I.109) la expresión inferior de la superior, obtendremos

npqx 1=∆ (I.110)

La fórmula (I.107), tomando en consideración (I.108) y (I.110), adquiere la forma

( ) xekpx

n ∆=−

2

2

21π

(I.111)

Pongamos el valor de ( )kPn de (I.111) en (I.92)

( ) xebkaPb

ak

x

∆=<< ∑=

−2

2

21π

(I.112)

Pasando de la función discreta xex

∆−

2

2

21π

a una función continúa alisante, se

puede en (I.112) sustituir el signo de suma por el de integral, y escribir dicha Función así:

( ) dxebkaPa

x

∫−

=<<β

π2

2

21 (I.113)

Si se toma tta +=−= β, , la integral de las probabilidades, en vista de (I.113), tomará la forma

52

( ) dxett x

∫−

=Φ0

21 2

22π

(I.114)

En la fórmula (I.113), los limites aybde la suma relativos a la variable k han sido sustituidos por los límites de integración que corresponden a la variable x,

−=

−=

npqnpbnpqnpa

β

α

(I.115)

Es fácil mostrar que la variable x en la fórmula (I.113) es la misma que la variable t en la igualdad (I.88). Si dividimos por n el numerador y el denominador del segundo miembro de la fórmula (I.108), obtendremos

ξhpqnp

pk

npq

pnk

x =

−=

−=

Es decir, según (I.81) ξht = . Una particularidad de la ley normal de distribución es el carácter asintótico de su curva de distribución respecto al eje t. De aquí se deduce que a la variación de t desde ∞− hasta ∞+ le corresponde un grupo completo de sucesos, dado que se sabe con certeza que los valores de ξ varían entre límites finitos. En

efecto, los valores más pequeños y más grandes de phk−=ξ son

=−=−=

−=−=

qppnn

ppn

máx 1

0min

ξ

ξ (I.116)

No obstante, en los casos en que se tienen valores de n suficientemente grandes y valores de p que no divergen notablemente de 0.5, el efecto de dicha particularidad de la ley normal no acusa prácticamente influencia sustancial en los resultados. Para cerciorarse de ello, calculemos los valores de la integral

( ) ( )hpFhqFdtehp

hp

t

−−=∫+

−2

2

21π

En los siguientes ejemplos

53

Ejemplos 1. Los datos son: n = 20 ; p = 0.2; q = 0.8. Solución

2.11;12516.0

20=== hh ;

( ) 987.0013.01)24.2(9;24.2;9 =−=−−−=−= FFhphq 2. Los datos son: n = 10 ; p = 0.4; q = 0.6. Solución

4.624.0

10==h ;

( ) 995.0)56.2(84.3;56.2;84.3 =−−−=−= FFhphq 3. Los datos son: n = 100 ; p = 0.1; q = 0.9. Solución 3.3;30;33 =−== hphqh y la probabilidad buscada será 0.9995. Como se ve, cuando el número n es muy grande, los valores de p pueden diferenciarse sensiblemente de 0.5; en cambio, si p es de valore próximo a 0.5, la ley normal ofrece resultados precisos, aun en el caso de 10 ensayos. 11 Variables aleatorias Se denomina variable aleatoria a la magnitud variable que caracteriza numéricamente un fenómeno aleatorio y refleja la diversidad de las incontables variaciones de las condiciones bajo las cuales se efectúan los ensayos. De ese modo, al realizar un ensayo, tropezamos con una variable aleatoria cuyo valor concreto se desconoce. El conjunto de valores posibles de una variable aleatoria forma y grupo complejo de sucesos aleatorios (es evidente que los valores de una variable aleatoria obtenidos durante los ensayos deben considerarse como sucesos aleatorios). He aquí algunos ejemplos de variables aleatorias: 1. El número de apariciones de un suceso o de su frecuencia relativa en

ensayos reiterados. 2. El número de granos de espigas de trigo de cierta calidad. 3. El número de aciertos en el tiro al blanco. 4. Los resultados de mediciones de una misma magnitud en condiciones

iguales, cuando se conoce el valor exacto de ésta. Los resultados de las mediciones oscilarán en trono al valor exacto, y no es posible predecir ningún resultado; se puede sólo, partiendo de la experiencia de mediciones análogas, indicar los límites de variación de los valores observados de dicha variable aleatoria, esto es, de los resultados de las mediciones o de las desviaciones de éstos respecto al valor exacto.

54

De los ejemplos anteriormente citados el primero ocupa un lugar especial y lo hemos tratado ya en detalle. La particularidad de la frecuencia relativa e un suceso como magnitud aleatoria estriba en que sus propiedades quedan completamente predeterminadas por la probabilidad dada del suceso y por el número de ensayos. Para determinar las propiedades de cualquier variable aleatoria se requiere n características más generales, de las cuales se hablará a continuación. Estas características generalizadas serán igualmente válidas para la frecuencia relativa de un suceso. De tal modo, resulta conveniente introducir el concepto de variable aleatoria para una ulterior generalización de las nociones de la teoría de la probabilidad. Entre los diversos tipos de variables aleatorias, las que revisten mayor interés son las variables discretas (o discontinuas) y las continuas. Variable aleatoria discreta es aquella que puede tomar valores particulares, aislados, con probabilidades definidas. El número de valores posibles de una variable aleatoria discreta puede ser finito e infinito. Nosotros trataremos únicamente de variables aleatorias discretas con un número finito de valores posibles, los cuales pueden ser indicados de antemano (por ejemplo, el número de aciertos a un blanco en tres disparos: 0, 1, 2, 3. La frecuencia relativa de acierto en tres disparos será, respectivamente ;1,32,31,0 o bien el número de errores por defecto en cinco mediciones: 0, 1, 2, 3, 4, 5; el número de apariciones de un suceso en ensayos múltiples etc.). Se llama variable aleatoria continua a aquella cuyos valores cubren continuamente ciertos intervalos finitos o infinitos Ejemplo. Tiramos a un blando que tiene forma de cuadrado de lado a. El origen de las coordenadas coincide con la diana del blanco. Al suceso consistente en el acierto al blanco le corresponde la siguiente condición

2

2ay

ax

De tal modo, si el suceso aleatorio (acierto al blanco) ocurre, se puede asegurar que las coordenadas del punto de impacto x e y se encuentran entre

los límites de 22aya− ; sin embargo, es posible enumerar los valores posibles

de las coordenadas de los puntos de impacto. Claro está que los valores concretos de una variable aleatoria en un número limitado de ensayos puede discrepar notablemente uno de otro, y en este sentido la magnitud no parece continua, a pesar de que no es posible enumerar dichos valores con antelación. Sin embargo, aquí se trata de los valores posibles de una variable aleatoria , es decir, de aquellos que ésta puede tomar en el proceso de su estudio.

55

El número de valores observados de una variable es siempre finito. 12. Leyes de distribución de las variables aleatorias Para describir cabalmente una variable aleatoria discreta no basta conocer sus valores posibles; es necesario, además, conocer las probabilidades correspondientes a estos valores. La regla que expresa la relación entre los valores posibles de una variable aleatoria y las respectivas probabilidades de éstos recibe el nombre de ley de distribución de una variable aleatoria. La ley de distribución de una variable aleatoria discreta puede expresarse en tres formas: analítica, numérica y gráfica.

1. Como ejemplo de una expresión analítica de una ley de distribución para variables aleatorias discretas tomemos el cálculo por la fórmula (I.41) de la probabilidad de que unos sucesos aparezcan k veces en n ensayos. En esta fórmula, a cada valor posible del número de apariciones

( )niK i ,....,3,2,1,0= de un suceso le corresponde la probabilidad ( )kPn .

2. La ley de distribución de una variable aleatoria discreta puede estar dada numéricamente en la forma de una tabla de distribución, en la cual se enumeran los valores posibles de la variable aleatoria y sus respectivas probabilidades.

xP

1

1

x

P2

2

x

P3

3

x

P 44x

P Una tabla de distribución suele llamarse también serie de distribución de una variable aleatoria X.

3. Gráficamente la ley de distribución de una variable aleatoria discreta puede estar expresada en forma de un polígono de distribución. Para trazar dicha figura en un sistema de coordenadas rectangulares se marcan los puntos ( )( )nipx ii ,......1, = donde xi son los valores posibles de la magnitud aleatoria X, y pi, las probabilidades correspondientes a estos valores. Los puntos marcados se unen por segmentos de rectas. La figura resultante se llama polígono de distribución.

Ejemplo Construir el polígono de distribución con los datos de la tabla 2. Solución. Marquemos a lo largo del eje de abscisas los valores de Xi (tomando una escala de unidades igual a 0.47 cm. para una aparición de error), y a lo largo del eje de ordenadas las probabilidades pi (0.47 cm. Corresponde a

56

25610

=P Trazando los puntos ( )ii px , y uniéndolos por segmentos obtenemos

el polígono de distribución buscado (Fig 5).

Evidentemente, no es posible confeccionar una tabla de distribución o trazar el respectivo polígono para una variable aleatoria continua, por cuanto una variable continua posee un conjunto infinito (o dicho más exactamente, innumerable)de valores posibles. Por consiguiente, surge la necesidad de obtener un método de expresión de la ley de distribución que sea útil tanto para las magnitudes aleatorias discretas como para las continuas. Con este fin se introduce una función de distribución de las probabilidades de la variable aleatoria X (o, dicho en otros términos, una función de integración). Hasta aquí habíamos tratado de la probabilidad del suceso X = x . Ahora vamos a considerar la probabilidad del suceso X < x , es decir, la probabilidad de que, como resultado de un ensayo, la variable aleatoria X tome un valor menor de cierto número real x (puede demostrarse que para una variable aleatoria continua la probabilidad del suceso X = X es igual a cero, por lo cual considerar la probabilidad de tales sucesos carece de interés). Es evidente que al variar x vará también la probabilidad ( )xXP < , es decir, ( )xXP < es una función de x, y precisamente a esta función se le llama función

de distribución y se la designa por F(x). Así, pues la función de distribución se define por la igualdad

( ) ( )xXPxF <= (I.117) Partiendo de la definición de función de distribución, fácilmente se demuestra que ella posee las siguientes propiedades:

1. los valores de la función de distribución pertenecen al segmento [1, 0]; 2. la función de distribución no es decreciente 3. Si los valores posibles de una variable aleatoria pertenecen al intervalo

(a, b), entonces

( ) 0=xF para ;ax ≤ ( ) 1=xF para ;bx ≥

57

La función de distribución de una variable aleatoria continua es continua( y continuamente derivable), es por eso que se puede derivar tal función de distribución. Llámese densidad de distribución de las probabilidades de una variable continua ∗a la derivada de su función de distribución, es decir, la densidad de la probabilidad se define por medio de la igualdad

( ) ( )xFxf '=

Puede demostrarse que la densidad de la probabilidad ( )xf posee siguientes propiedades:

1. La densidad de la probabilidad es una función no negativa, es decir, ( ) 0≥xf

2. La integral impropia de la densidad de la probabilidad, entre los límites ∞− y ∞+ , es igual a la unidad, o sea,

( ) 1=∫+∞

∞−

dxxf

En particular, si los valores posibles de la variable aleatoria pertenecen al intervalo (a, b) , entonces

( ) 1=∫ dxxfb

a

3. La probabilidad de que la variable aleatoria continua, a resultas de un

ensayo, tomo un valor perteneciente al intervalo (a, b) se determina por la igualdad

( )dxxfPb

a

ba ∫=

En este libro se estudiarán principalmente las variables aleatorias que se someten a la ley normal de distribución. Casi todas las magnitudes aleatorias con las que tropieza el geodesta son de distribución normal.

∗ En ocasiones se le llama función diferencial de distribución (o ley diferencial de distribución)

58

13. Características principales (parámetros de distribución) de una variable aleatoria

Las propiedades de una variable aleatoria pueden caracterizarse por varios parámetros. De entre, los más importantes son la esperanza matemática de la variable aleatoria, la cual se designa ( )xM , y la varianza ( ) ( )xxD 2σ= , raíz cuadrada de la cual ( )xσ se denomina desviación típica (o estándar). Los restantes parámetros de las variables aleatorias se estudiarán en el capitulo II.

1. Esperanza matemática Llámese esperanza matemática ( )xM de una variable aleatoria discreta X a la suma de los productos de todos los valores posibles de la variable aleatoria por las probabilidades respectivas. Así, pues, si se cuenta con una tabla de distribución y a condición de que el número de valores posibles de la variable aleatoria sea finito, puede escribirse, según la definición de esperanza matemática, que

( ) i

n

iinn pxpxpxpxxM ∑

=

=++=1

2211 ...... (I.118)

donde 11

=∑=

i

n

ip , por cuanto la aparición de uno de los valores posibles xi es

un suceso cierto. Si extendemos la expresión de la esperanza matemática (I.118) a variables discretas que tengan un número infinito de valores posibles xi, obtendremos

( ) i

n

iinpxxM ∑

=∞→

=1

lim (I.119)

con la particularidad de que se supone que la serie (I.119) converge absolutamente.

Considerando en que (I.118) y (I.119) 11

=∑=

i

n

ip , a veces se escribe

( )∑

=

== n

ii

i

n

ii

P

pxxM

1

1 (I.120)

La fórmula (I.120) permite dar la siguiente interpretación mecánica a la Esperanza matemática: ( )xM sería la abscisa del centro gravedad de un sistema de puntos cuyas respectivas abcisas serían iguales a los valores

59

posibles de la variable aleatoria, y las masas colocadas en estos puntos serían iguales a las respectivas probabilidades. Llámese esperanza matemática de una variable aleatoria continua X a la integral

( ) ( )dxxxfxM ∫+∞

∞−

= (I.121)

Suponiendo que la integral converge absolutamente. Aquí ( )xf es la densidad de la probabilidad de distribución de la variable aleatoria X. Ejemplo. La probabilidad de dar en el blanco de un disparo es p = 0.5 . Calcular la esperanza matemática del número de aciertos en cuatro disparos. Solución.Las probabilidades de los números posibles de aciertos 0, 1, 2, 3, 4 respectivamente, son:

( ) ( ) 0625.00;2110 4

4040

44 =

⋅== PpqCP

( ) ( ) 2500.01;2141 4

4131

44 =

⋅== PpqCP

( ) ( ) 3750.02;2162 4

4222

44 =

⋅== PpqCP

( ) ( ) 2500.03;2143 4

4313

44 =

⋅== PpqCP

( ) ( ) 0625.04;2114 4

4404

44 =

⋅== PpqCP

____________________________________________

Control: ( ) 0000.14

0=∑

=

kPK

n

La esperanza matemática del número de aciertos en cuatro disparos será: ( ) 2625.04250.03375.02250.01625.00 =⋅+⋅+⋅+⋅+⋅=xM

El sentido real de la esperanza matemática se vuelve más claro si se establece su relación con la media aritmética. Hagamos notar que se llama media aritmética la magnitud que se calcula por la siguiente formula:

∑=

=N

iixN

x1

1 (I.122)

Vamos a mostrar que en un número infinitamente grande de ensayos la esperanza matemática de una variable aleatoria es el límite de la media aritmética. El discurso versará aplicándose la fórmula (I.118), es decir será

60

válido para las variables aleatorias discretas, aunque todas las conclusiones puedan extenderse también a las variables aleatorias continuas haciendo uso de la fórmula (I.121). Supongamos que, como resultado de N ensayos, la variable aleatoria x haya tomado los siguientes valores x1 ha aparecido m1 veces x2 ha aparecido m2 veces

x3 ha aparecido m3 veces …………………………….

Xn ha aparecido mn veces Al mismo tiempo,

Nmmm n =++− ......21 Basándonos en la fórmula (I.122), podemos escribir

Nmxmxmx

x nn+++=

.....2211 , (I.123)

o bien

Nm

xNm

xNm

xx nn+++= ........2

21

1 (I.124)

Aquí, las fracciones

Nm

Nm

Nm n,........, 21

Según la definición (I.4) son las frecuencias relativas, es decir,

nn QNm

QNm

QNm

=== ,........; 22

11

Por lo tanto nnQxQxQxx +++= ........2211 (I.125)

A base del teorema de Bernoulli , reemplazando en (I.125) los valores Qi por los respectivos valores de pi, obtenemos

Prob. ( )XMxlímN

=∞→

(I.126)

De ese modo, la esperanza matemática M (x) es la “media teórica de una variable aleatoria”. Teniendo en cuenta lo dicho, en adelante designaremos, a veces,

( ) XxM = ∗ (I.127)

Veamos las propiedades de la esperanza matemática. Estas son válidas tanto para las magnitudes continuas como para las discretas. Para simplificar, nos

∗ En el parágrafo 17 se da una demostración más rigurosa de la propiedad tratada en (I.126). El valor de X se conoce también con el nombre de “media general”

61

limitaremos a demostrar las propiedades de la esperanza matemática para variables discretas Primera propiedad: La esperanza matemática se mide en las mismas unidades que la variable aleatoria. Demostración: Es evidente que los valores posibles de una variable serán de la misma dimensionalidad que ésta .Cómo se deduce de la igualdad (I.118), los valores posibles X1, X2……Xn se multiplican por sus respectivas probabilidades, las cuales son números adimensionales .De aquí se deriva la validez de la propiedad demostrada. Segunda propiedad: La esperanza matemática puede ser bien un número positivo o bien negativo. Demostración: Esta propiedad se deduce a partir de que los valores posibles de una variable aleatoria pueden ser números positivos o negativos. Tercera propiedad: La esperanza matemática de una constante C es igual a dicha constante, es decir,

( ) CCM = Esta propiedad es evidente. Cuarta propiedad. (Teorema de la suma de las esperanzas matemáticas). La esperanza matemática de la suma de unas cuantas variables aleatorias es igual a la suma de las esperanzas matemáticas de dichas variables, es decir,

( ) ( ) ( ) ( )WMYMXMWYXM +++=++ ........... (I.128) En particular, para dos variables aleatorias

( ) ( ) ( )YMXMYXM +=+ (I.129) Para mayor sencillez, demostraremos la cuata propiedad para el caso de dos variables aleatorias, es decir, la validez de la fórmula (I.129). Demostración. Según la definición de la esperanza matemática, la expresión (I.129) puede escribirse así:

( ) ( ) ij

n

i

k

jii pyxYXM ∑∑

= =

+=+1 1

(I.130)

Donde pij es la probabilidad de aparición simultánea de xi y yj. La expresión (I.130) puede escribirse así:

( ) ∑∑∑ ∑=== =

+=+n

iij

k

ji

n

i

k

jiji PyPxYXM

111 1 (I.131)

62

Teniendo en cuenta que ∑=

k

JijP

1es la probabilidad pi de que X tome el valor xi, y

que ∑=

n

iijP

1es la probabilidad pi de que Y tome el valor yi, obtenemos

( ) j

k

jji

n

ii pyPxYXM ∑∑

==

+=+11

(I.132)

Considerando que el primer sumando de (I.132) es M (X) y el segundo es M (Y), obtenemos definitivamente:

( ) ( ) ( )YMXMYXM +=+ (I.133) Es fácil extender esta demostración a cualquier número de sumandos por vía de inducción matemática. Antes de pasar a la quinta propiedad, cabe notar que dos variables aleatorias se llaman independientes, si la ley de distribución de una de ella no depende de los valores que tome la otra. Respectivamente varias variables aleatorias se llaman recíprocamente independientes, si las leyes de distribución de cualquiera de ellas no dependen de los valores tomados por las otras variables. Quinta propiedad (Teorema de la multiplicación o del producto de las esperanzas matemáticas). La esperanza matemática de dos o varias variables aleatorias recíprocamente independientes es igual al producto de las esperanzas matemáticas de esas variables, o sea:

( ) ( ) ( )YMXMXYM = (I.134)

( ) ( ) ( ) ( )WMYMXMWYXM ........... =⋅⋅ (I.135)

Demostración. Basándonos en la definición de la esperanza matemática, podemos escribir

( ) ( ) ( )ii

n

i

k

jii yxpyxXYM ∑∑

= =

=1 1

(I.136)

Donde xi e yj son los valores posibles de las variables X e Y, respectivamente; ( )ii yxP es la probabilidad del producto ii yx .

Para las variables aleatorias independientes

( ) ( ) ( )jiji ypxPyxP = por eso

63

( ) ( ) ( ) ( ) ( )jk

Jji

n

iiji

n

i

k

jji ypyxpxypxpyxXYM ∑∑∑∑

=== =

==111 1

(I.137)

Utilizando la definición de la esperanza matemática, obtendremos finalmente

( ) ( ) ( )YMXMXYM = (I.138)

Esta propiedad demostrada es fácil de extender a cualquier número de variables aleatorias recíprocamente independientes por inducción matemática. Sexta propiedad. La esperanza matemática del producto de una variable aleatoria por una constante C es igual a la esperanza matemática de la variable aleatoria por la constante, es decir,

( ) ( )XCMCYM = (I.139) Demostración. Partiendo de la quinta propiedad

( ) ( ) ( )YMXMXYM = . Y , según la tercera propiedad

( ) CCM = Por consiguiente

( ) ( )XCMCYM = En la práctica, se toma x como el valor aproximado de ( )xM . Al aumentar el número de ensayos, el valor de x se aproxima más, según su probabilidad, al de ( )xM

2. Características complementarias de una variable aleatoria Para caracterizar plenamente la distribución de una variable aleatoria , además de las características principales ( )2σyX , se emplean otras más. Entre ellas, en particular, está la asimetría y el exceso (grado de “declive”, o sea el de escarpado o aplanamiento del vértice de la curva de distribución). Todas estas características vienen a ser casos particulares de un concepto más general, el de los momentos. Los momentos se dividen en iniciales y centrales. Se llama momento inicial de grado k de una variable aleatoria X a la esperanza matemática en la potencia k de dicha variables aleatoria, o sea,

( )kk XMv = (I.140)

64

Se llama momento central de grado k de una variable aleatoria X a la esperanza matemática de potencia k de la discrepancia de la variable aleatoria respecto a su esperanza matemática

( )[ ]kk XXM −=µ (I.141)

Prácticamente, dichos momentos (llamados teóricos) se calculan por las siguientes fórmulas empíricas:

n

xv

n

i

ki

k

∑== 1 (I.142)

( )n

xxn

i

k

i

k

∑=

−= 1µ (I.143)

donde n es el número de observaciones, y el apóstrofe sirve para denotar que se trata de un momento empírico∗. En adelante consideraremos principalmente los valores empíricos de los momentos de las fórmulas (I.142) y (I.143). Partiendo de las fórmulas (I.140) y (I.141) y aplicando las propiedades de la esperanza matemática, se establecen fácilmente relaciones.

+−=

−=

==

==

312133

2122

1

1

0

23)

)0)

)

1)1)

vvvvfvve

dXvc

bva o

µ

µ

µ

µ

(I.144)

Las características principales X y ( )XD son, respectivamente, iguales a

1vX = y ( )XD=2µ En la ley normal de distribución, para los momentos centrales pares existe la relación común

( ) 2222 12 µµµ ii i +=+ (I.145) Las igualdades (I.144) y (I.145) son teóricas. Si, en cambio se tienen en cuenta los valores empíricos de los momentos obtenidos por las fórmulas (I.142) y (I.143), entonces de las igualdades anteriores se cumplen exactamente sólo (I.144, a, b, d, e y f). La igualdad (I.145) puede servir de control para las distribuciones estadísticas en lo que respecta al a correspondencia de éstas con la normal, en caso de un número muy grande de observaciones.

∗ Los mementos empíricos son llamados también estadísticos

65

3. Varianza y Desviación

La varianza , como una de las más importantes características numéricas de una variable aleatoria, permite estimar la dispersión de los valores posibles de la variable aleatoria en torno a la esperanza matemática , dispersión provocada por las propiedades de la variable aleatoria, o por la presencia en el ensayo de errores de observación debidos a fluctuaciones en las condiciones y a otros factores.. Sin embargo, los valores particulares de las desviaciones X – M (X) por sí mismas caracterizan poco, y la esperanza matemática de la discrepancia de una variable aleatoria, como es fácil ver, es igual a cero debido a la mutua compensación de los valores positivos y negativos de las desviaciones. La media de los valores absolutos de estas desviaciones no siempre da buen resultado al estimar la dispersión, ya que los resultados se alisan mucho y las desviaciones grandes se tornan poco perceptibles, en especial en el caso de un número considerable de ensayos. Con el objetivo de eliminar las mencionadas deficiencias, suelen considerarse no las desviaciones mismas, sino los cuadrados de estas. En tal caso las desviaciones grandes acusarán una influencia en el resultado final considerablemente mayor que las pequeñas. La utilización para este efecto de potencias mayores de X – M (X), a saber, la cuarta, sexta, etc., exige aumentar ostensiblemente el número de ensayos, ya que de lo contrario disminuye la seguridad de las características numéricas del cálculo. Se llama varianza D (X) de una variable aleatoria X la esperanza matemática del cuadrado de la desviación del valor de la variable aleatoria respecto a su esperanza matemática, o sea,

( ) ( )[ ]{ }2XMXMXD −= (I.146) Para una variable aleatoria discreta X

( ) ( ){ } i

n

ii pXMxXD

2

1∑=

−=

La varianza puede obtenerse también por la fórmula siguiente:

( ) ( ) ( )[ ]22 XMXMXD −= (I.147) En efecto, aplicando las propiedades de la esperanza matemática , se obtiene ( ) ( )[ ]{ } ( ) ( )[ ]{ } ( ) ( ) ( ) ( )[ ]( ) [ ]22

22222

)(

22

XMXM

XMXMXMXMXMXXMXMXMXMXD

=+−=+−=−=

es decir,

( ) ( ) ( )[ ]22 XMXMXD −=

66

Para una variable aleatoria continua X se tiene

( ) ( )[ ]{ } ( )dXXfXMXXD ⋅−= ∫+∞

∞−

2 (I.148)

De acuerdo con la fórmula (I.147), la expresión (I.148) puede adquirir la siguiente forma:

( ) ( ) ( )[ ]22 XMdxxfxXD −= ∫+∞

∞−

(I.149)

la magnitud ( ) ( )XDX =σ se llama desviación típica ( a veces desviación estándar) . La desviación típica posee, respecto a la varianza, un ventaja indiscutible: es de la misma dimensión que la variable aleatoria. Cabe notar que la varianza es de una dimensión igual al cuadrado de la dimensión de la variable aleatoria. A veces se emplea una característica numérica relativa de la dispersión, el llamado coeficiente de variación y que representa la razón entre la desviación típica y la esperanza matemática y se expresa en tanto %, es decir,

( ) %100⋅=XM

v σ (I.150)

a excepción, claro está, del caso M (X) = 0, o bien cuando su valor es muy pequeño frente al de σ . Practícame, la varianza se calcula por la fórmula

( ) ( )2

111 ∑

=

−−

≈N

ii xx

NXD (I.151)

Esta fórmula hallará su fundamento en el tema 20. Evidentemente, la confiabilidad del valor de la varianza , obtenida por la fórmula (I.151), depende del número N.

4. Esperanza matemática de la frecuencia relativa de aparición de un suceso.

La obtención de la esperanza matemática para la frecuencia relativa reviste indudable interés, si se tiene en cuenta la relación (I.126), la cual, en este caso, tomo la forma

nk

nkM (I.152)

Donde n es el número de ensayos en series de ensayos repetidas varias veces.

67

Está ultima igualdad debe entenderse así; la esperanza matemática de la frecuencia relativa se acerca mucho a la media aritmética del conjunto de valores de la frecuencia relativa obtenidos en las respectivas series de ensayos, en cada una de las cuales el número de ensayos n es finito y es el mismo. Para resolver la tarea planteada, emplearemos la ley binomial. De acuerdo a la definición de esperanza matemática

( ) ( ) ( ) ( ) ( )nnnnnn PnnkP

nkP

nP

nP

nnkM ++++++=

..............221100 (I.153)

Sustituyendo en la expresión (I.153) los valores de ( ) knkk

nn qpCKP −= la probabilidad de la frecuencia relativa es igual a la probabilidad del respectivo número de apariciones del suceso), obtendremos

( ) ( )nknknn Pqp

knkn

nkqp

nn

nnpqnn

kM ++−

++−

⋅+=

−−− .......

!!!.......

!2!2!21 221 (I.154)

( ) ( )( ) ( ) ( ){ }

( ) ( ) ( )

++−−−−

−++−+=

−−−−−−−− 1111111 ......

!11!1!1.......1 nknknn pqpknk

npqnqpnkM

(I.155)

Es fácil ver que entre los corchetes del segundo miembro de (I.155) se encuentra la descomposición del binomio ( ) 1−+ nqp ; es por eso que la suma de los términos entre los corchetes es igual a la unidad y, por consiguiente

pnkM =

(I.156)

Así, pues, la esperanza matemática de la frecuencia relativa es igual a la probabilidad del suceso. Aplicando la sexta propiedad de la esperanza matemática, obtendremos

( )KMnn

kMp 1=

=

De aquí

( ) 0knpKM ≈= (I.157) Donde k0 es el número más probable de apariciones del suceso (Veáse tema Nº 8). De esta manera, hemos establecido que la media del número de apariciones de un suceso, obtenida de un conjunto de series de ensayos, tiene la mayor probabilidad. De (I.156) se deduce que la esperanza matemática de la

68

desviación ξ de la frecuencia relativa respecto a la probabilidad es igual a cero. En efecto, aplicando las propiedades de la esperanza matemática, puede escribirse

( ) 0=−

=

−= p

nk

Mpnk

MM ξ (I.158)

14. Ley normal de distribución de las variables aleatorias Casi todas las variables aleatorias con las que se opera en geodesia obedecen a la ley normal de distribución de las probabilidades. Para la frecuencia relativa de apariciones de un suceso, hemos obtenido esta ley en la forma

dtePt

t

tnk

nk ∫

−=

2

1

22

1

2

21π

Donde

pqnhp

nk

ht iiii =−== ,;ξξ

También se ha establecido que ,

=nkMp por eso, a fin de guardar la

generalidad, utilicemos la misma forma de expresión de la ley normal que se usa para la frecuencia relativa, y escribamos para cualquier variable aleatoria distribuida normalmente la siguiente expresión:

dtePt

t

txx ∫

−=

2

1

2

2

1

2

21π

(I.159)

Donde

( )

−==

XMxht

ii

it

i

ξξ ;

(I.160)

Señalemos que ( ) ( ) ( ) 0=−= XMXMM ξ , por consiguiente,

( ) 0' == ξMhtM Es decir,

( ) 0=tM (I.161)

Sin embargo, si se conoce el parámetro h par ala frecuencia relativa, en el caso de cualquier otra variable aleatoria distribuida normalmente parámetro h’ queda hasta el momento desconocido.

69

De esta manera la tarea se reduce a la búsqueda de una fórmula para el cálculo del parámetro h’ que permita determinar ξ'hti = para cualquier variable aleatoria distribuida normalmente. Con el fin de resolver la tarea planteada, obtengamos la fórmula de la varianza de la variable t, cuya introducción permite dar una forma estándar a la ley normal para cualesquiera variables aleatorias distribuidas normalmente. Según la definición de varianza, y en vista de (I.161).

( ) ( ) ( ) dtettMttDt

∫+∞

∞−

−=== 2222

2

21π

σ (I.162)

Cambiemos la variable de integración

dz

dt

ztzt

=

=

=

2

22

22 (I.163)

Los límites de integración no varían y obtendremos

( ) dzezdzezt zz

2

2

222

22 21222 −

+∞

∞−

+∞

∞−

∫∫ ==ππ

σ (I.164)

Hallemos la integral (I.164). Como ,222

dzzede zz −− −=

∫ ∫+∞

∞−

∞−

−− −=−2222 zz zdedzez (I.165)

Integrando por partes obtenemos

dzezezde zzz ∫∫ ⊥+∞

∞−

−+∞

∞−

∞+

∞−− +−=−

222

* (I.166)

El segundo sumando del segundo miembro de (I.166) es la integral de Poisson, que es igual a π , por lo tanto

π++−=−−∞→∞→

+∞

∞−

−∫ 22

2

limlimzzzz

z

ez

ezzde (I.167)

Según la regla e L’Hospital,

02

1limlim 22 =+−−∞→∞→ zzzz zee

z

Lo mismo obtendremos para −∞→z . Ahora resulta

∫+∞

∞−

=− π2zzde (I.168)

70

y, por fin, tomando en consideración (I.164), (I.165), y (I.168), se obtiene

( ) 12 =tσ (I.169)

De acuerdo con la sexta propiedad de la esperanza matemática, ( ) ( ) ( ){ } ( ) ( )222222 '' ξξσ MhhMtMt === (I.170)

Si tomamos en cuenta la expresión (I.160) , entonces M ( )2ξ , es la varianza de la variable aleatoria X, es decir, ( )t2σ .Por eso teniendo presente (I.169) y (I.170), obtenemos

( )( )

( )

=

=

xh

Xh

σ

σ1'

1' 22

(I.171)

Ahora, para cualquier variable aleatoria distribuida normalmente puede escribirse

dtePt

t

txx ∫

−=

2

1

2

2

1

2

21π

(I.172)

Donde

( )( )

−=

=

XMxX

t

ξσξ ;

(I.173)

Las magnitudes adimensionales ( ) ii tX

=σξ

se llaman valores normalizados de la

variable aleatoria ξ . De (I.171) y (I.172)para la varianza y la desviación típica de la frecuencia relativa tendremos:

( )

( )

=

==

npqQ

npq

hQ

σ

σ2

2 1

(I.174)

Las fórmulas (I.172) y (I.173)tiene un valor práctico excepcionalmente, ya que permiten utilizar las tablas de probabilidades para resolver problemas con cualesquiera variables aleatorias distribuidas normalmente. Para esto es necesario conocer las dos características principales de estas variables, es decir, ( ) ( )XyXM σ Recordemos que en la práctica en lugar de diseca características se emplean valores aproximados, es decir,

71

( ) ∑=

=≈n

iixn

xXM1

1

y

( ) ( )∑=

−−

=n

ii xx

nX

1

2

11σ ,

donde n es un número finito. La fiabilidad de las características obtenidas depende del número n; cuando mayor sea éste, más fiable serán aquellas (véase el cap. II). Hagamos mención de una propiedad de las variables aleatorias que se someten a cualquier ley simétrica de distribución, y por lo tanto a la ley normal: la esperanza matemática de cualquier potencia impar de la discrepancia

( )XMX −=ξ es igual a cero. Esta propiedad se deriva de la asimetría de la curva de distribución respecto al eje Y. Si se considera la esperanza matemática de una variable aleatoria como un valor medio límite, a cada valor positivo 12 ++ n

iξ le debe corresponder otro igual, pero negativo 12 +− niξ , puesto

que el número de sus apariciones, en el límite, debe ser igual, por lo cual ocurrirá una competa compensación de estos valores. En particular,

( ) 0=ξM (I.175) El incumplimiento de la propiedad indicada de las potencias impares de ξ es uno de los indicios fundamentales de la desviación de la distribución dada respecto a la ley normal. Mostremos algunos ejemplos de aplicación de las fórmulas obtenidas (I.173) y de las tablas de valores ( ) ( )tytF Φ (Véanse los apéndices 2 y 3) Ejemplo 1. Los datos son ( ) ( ) 1.2;3.145 == XXM σ . Calcular la probabilidad de que el valor de una variable aleatoria, en un solo ensayo, quede comprendido en el intervalo entre 143.2 147.4. Solución Calculemos 2121 ,,, ttξξ

1.23.1452.1431 −=−=ξ ; 1.23.1454.1472 +=−=ξ 11.21.2

1 =−

=t

11.21.2

2 +=+

=t

Puesto que 121 == tt , por la tabla de valores de la función ( )tΦ , ( ) 683.01 =Φ Ejemplo 2. El por ciento medio de la producción defectuosa en una fábrica, calculado según datos de muchos días, resultó ser igual a 1.80%. La desviación típica de esta magnitud es %20.0=σ . Calcular la probabilidad de que algunos días el porcentaje de producción defectuosa se encuentre entre 1.5% y 2.0%. Solución Según las condiciones del ejemplo 20.0;80.1 == σmedx , de donde

1. 30.080.150.11 −=−=ξ ; ;20.080.100.22 +=−=ξ 50.120.030.0

1 −=−=t

72

00.120.020.0

2 +=+=t

Aquí empleemos la tabla del apéndice 3 para la función

( ) dtetFt t

∫−

=0

2

2

21π

2. ( ) ( ) 067.050.1;841.01 =−=+ FF Respuesta: 0.841 – 0.064 =0.774 La respuesta obtenida significa que aproximadamente durante 77 días de trabajo cada 100, el porcentaje de producción defectuosa de la fábrica se encuentra entre los límites de 1.5% a 2% Ejemplo 3. Valiéndose de los datos del problema anterior, hallar aquel límite que no supere la producción defectuosa en la fábrica con una probabilidad P = 0.4. Los datos son:

;80.1=medx 20.0=σ 40.0=P ; 01 =x ; 80.11 −=ξ Hallar

?2 =x

Solución 920.080.1

1 −=−=t Prácticamente se puede considerar que −∞=1t .Por

eso utilicemos las tablas de integrales ( )tF , y, elevando a la potencia, encontremos el valor de 2t que corresponde a ( )40.02 =tF

05.0254.020.0;254.0 222 −=⋅−=⋅=−= tt σξ Respuesta:

%75.12 =x , es decir, ( )05.0,80.1 − Esto quiere decir que aproximadamente en cuatro de cada diez días la producción defectuosa de la fábrica no excede del 1.75% Ejemplo 4. Para establecer la relación porcentual de las medidas del calzado en la producción de botas para soldados se tomaron las medidas del pie a los soldados de un regimiento, de lo cual se obtuvo un longitud media del pie

=medx 25.5 cm, siendo una desviación típica cm2=σ . Al valor , medx le corresponde el número de zapato Nº 41. Al pasar a otro número próximo, la longitud del pie cambia en 1 cm. Encontrar la distribución normal porcentual más correcta, por números del calzado que ha de fabricarse. Aquí resulta cómodo utilizar las tablas ( )tΦ . Solución Los pasos de la variación de x son lo siguientes: De 20 cm. hasta 21 cm. zapatos del Nº 36 “ 21 ” “ 22 “ “ “ Nº 37 “ 22 ” “ 23 “ “ “ Nº 38

73

“ 23 ” “ 24 “ “ “ Nº 39 “ 24 ” “ 25 “ “ “ Nº 40 “ 25 ” “ 26 “ “ “ Nº 41 “ 26 ” “ 27 “ “ “ Nº 42 De 27 cm.hasta 28 cm. zapatos del Nº 43 “ 28 ” “ 29 “ “ “ Nº 44 “ 29 ” “ 30 “ “ “ Nº 45 “ 30 ” “ 31 “ “ “ Nº 46

Hallemos ahora el paso de variación de σξ 0±=± t

Nº 36 y Nº 46 de ± 2.25 hasta ± 2.75 Nº 37 “ Nº 45 “ ± 1.75 “ ± 2.25 Nº 38 “ Nº 44 “ ± 1.25 “ ± 1.75 Nº 39 “ Nº 43 “ ± 0.75 “ ± 1.25 Nº 40 “ Nº 42 “ ± 0.25 “ ± 0.75 Nº 41 “ “ ± 0.00 “ ± 0.25 Hallemos ahora, con ayuda de la tabla de ( )tΦ del apéndice 2, qué números de calzado es necesario producir: Nº 36 y Nº 46 0.9% de cada uno Nº 37 “ Nº 45 2.8% “ “ “ Nº 38 “ Nº 44 7.1% “ “ “ Nº 39 “ Nº 43 11.6% “ “ “ Nº 40 “ Nº 42 17.4% “ “ “ Nº 41 “ 19.8% “ “ “ Además, será necesario producir un 0.6% por pedidos especiales del regimiento. 15. Sobre algunas distribuciones que difieren de la normal

1. Distribución uniforme En la elaboración de los resultados de observaciones, frecuentemente hay que vérselas con variables aleatorias cuya densidad de probabilidad tienen un valor constante en cierto intervalo finito. La distribución en este caso se llama uniforme

74

Fig. 6 La densidad de la distribución uniforme de una variable aleatoria X se expresa por medio de la siguiente función (veáse la fig 6.)

( )

+≤≤−= ααα

axcuandoaxf r 21 (I.176)

Donde α±a son los límites de variación de x y a, la abscisa del centro del intervalo. Tal distribución la poseen, por ejemplo, los errores de redondeo. La gráfica de una función ( )xf r se muestra en la figura 6. Ya que la gráfica de la función ( )xf r se represente en forma de rectángulo, la distribución frecuentemente se denomina rectangular La función de distribución ( )xf r tiene la forma

+>

+≤<−−+

−≤

=

α

αααα

α

acuandox

axcuandoaaxacuandox

Fr

12

;0

(I.177)

Cerciorémonos en el hecho de que si los valores posibles de la variable aleatoria X uniformemente distribuida pertenece al intervalo ( )αα +− aa , , entonces la probabilidad de que X tome el valor dentro de este intervalo es igual a la unidad:

( ) ( ) ( ) 122

22==

−−+==+≤≤− ∫

+

− αα

ααα

ααα

α

α

a

a

aadxaXaP

Hallemos las características numéricas de la distribución uniforme, es decir, su esperanza matemática y su desviación típica. Según la definición de esperanza matemática

75

( ) ( ) ( )[ ]222

41

421

2αα

αααααα

α

α

α

α

−−+=⊥=== +−

+

+

−∫∫ aaxxdxdxxXM a

a

a

a

a

a

o bien

( ) aXM = (I.178) Calculemos la varianza y después la desviación típica del a distribución uniforme

( ) ( ) ( )[ ]22 XMXMXD −= (I.179) Resulta que

( ) ( ) ( )[ ]3332

61

31

21

2αα

ααααα

α

α

−−+=⊥== +−

+

−∫ aaxdxxXM a

a

a

a

Haciendo algunas operaciones sencillas, obtenemos

( ) 23

2

3aXM +=

α (I.180)

Tomando en consideración las expresiones (I.178), (I.179) y (I.180), obtenemos finalmente

( )

( )

=

=

3

3

2

ασ

α

X

XD (I.181)

Recordemos que α es la magnitud máxima en que puede discrepar el valor de la variable aleatoria respecto a su esperanza matemática, es decir, α es el valor absoluto de la desviación límite.

2. Ley de distribución de Poisson Al deducir la ley normal de distribución de las desviaciones de la frecuencia respecto a la probabilidad, habíamos supuesto que p, la probabilidad del suceso en estudio, no diverge mucho de 0.5. Para valores de p próximos a cero o a la unidad, la ley normal resulta poco fundamentada. En estos casos es mejor aplicar la ley de distribución de Poisson para sucesos que poseen una probabilidad p pequeña. Si el suceso tiene una probabilidad próxima a la unidad, la ley de Poisson se aplica para el suceso contrario, con una probabilidad pq −=1 . Está claro que la probabilidad del número de apariciones k del suceso será igual a la probabilidad del numero (n – k) de apariciones del suceso contrario en n ensayos. La ley de distribución de Poisson se expresa por la siguiente fórmula

76

( ) 0

!0 kk

ekk

kP −= (I.182)

donde K0 = np, es decir, es una magnitud constante para un cierto valor de n. La magnitud k puede adquirir sólo valores enteros , teóricamente ilimitados, aunque, desde luego, nk ≤ . Es evidente que la probabilidad de que el número k tome un valor comprendido entre los límites 0 y α es a

∑=

−=a

k

kka

kk

eP0

00 ,

!0

y entre los límites 21 yaa

∑=

=

−=2

1

01

2,

!0

ak

ak

kka

a kk

eP

Si se requiere calcular la probabilidad

( ) 0

1

0

!k

a

k

ekk

akP −∞

+∑=>

Entonces, claro está, resulta más ventajoso obtener primero

( ) ∑=≤a k

k

kk

eakP0

0

!0

y después ( ) ( )akPakP ≤−=> 1

Comprobemos si la ley de Poisson satisface la condición básica de toda ley de distribución de probabilidades

∑=

=∞→

−∞→ ==nk

k

k

n

kn

kk

eP0

00 1

!lim0 (I.183)

Pero como ya sabemos

∑=

=∞→

=nk

k

kk

ne

kk

0

0 0

!lim

y por eso

1000 == −∞→ kkn eeP

Que es lo que queríamos demostrar. Hallemos ahora la esperanza matemática y la varianza de la variable aleatoria k (que es el número de apariciones de un suceso en n ensayos) la cual se supedita a la ley de distribución de Poisson. Según la definición de esperanza matemática,

77

( )

( ) 0001

10

0

1

00

0

00

00

!1

!!

kekkk

ek

ekk

kekkkkM

k

k

kk

k

kk

kk

k

==−

===

−∞

=−

−−

=

−−∞

=

∑∑

es decir

( ) npkkM == 0 (I.184) ¿Cuál es la varianza? De acuerdo con (I.147)

( ) ( ) ( )[ ]22 kMkMkD −= Teniendo en cuenta la expresión (I.184), se tiene

( ) ( ) 2

02 kkMkD −= (I.185)

Hallemos

( )

( ) ( ) ( )

( ) ( ) ( )∑ ∑

∑ ∑

=

=

−−−

−−∞

=

=

−−

=

−+

−−

=−

+−=−

==

1 1

10

0

10

0

10

0 10

10

0

0

022

!1!11

!111

!1

!

00

00

0

k k

kkk

k

kk

k k

kkk

kk

kk

ekekk

kk

ekk

kkekk

kk

ekk

kkM

Designando k – 1 = m, obtendremos

( ) 0000000

1

00

00

2

!!kk

m m

mkk

m

eekkkmk

ekemk

mkkM −−∞ ∞

=

−− +=+= ∑ ∑

o bien 0

20

2 )( kkkM += (I.186)

Tomando en consideración ahora (I.185) y (I.186), tendremos ( ) npkkD == 0 (I.187)

De este modo, obtuvimos para la distribución de Poisson

( )( )

=

==

npk

npkDnpkM

σ

)( (I.188)

Teniendo en cuenta (I.188), así como (I.151) y la igualdad aproximada ( ) kkM ≈ , la hipótesis acerca de que la distribución realmente corresponde a la

ley de Poisson puede comprobarse por el cumplimiento de la igualdad aproximada:

78

( ) ( )211

1 kkn

kD i

n

−−

≈ ∑ (I.189)

Ejemplo ∗Suponiendo que el número de partículas de oro que se hallan en estado de suspensión en una solución se distribuye de acuerdo con la ley de Poisson, hallar la expresión de la distribución de partículas de oro al cabo de dos segundos en un sector del espacio ópticamtente aislado (tabla 3) Solución Calculemos la media aritmética y la varianza aproximada de la variable aleatoria. De acuerdo con los datos de la tabla 3 tenemos

Tabla 3 Cantidad de partículas

Cantidad de intervalos Cálculos

xi ni xxi − ( ) ii nxx − ( ) ii nxx2

− 0 381 -1.42703 -543.7 775.9 1 568 -0.42703 -242.6 103.6 2 357 +0.57297 +204.6 117.2 3 175 +1.57297 +275.3 433.0 4 67 +2.57297 +172.4 443.6 5 28 +3.57297 +100.0 357.3 6 5 +4.57297 +22.9 104.7 7 2 +5.57297 +11.1 61.9

Total 1583 Control -786.3 2397.2

∑ = 2259ii nx 42703.1=x ∑=+

0,03.786

43.115832259

≈== ∑nnx

x ii

( ) ( ) 51.11583

2.23971

1 2≈≈−

−≈ ∑ ii nxxn

XD

Una coincidencia bastante buena de x y del valor aproximado de la varianza ( )XD , iguales respectivamente, a 1.43 y 1.51, confirma la hipótesis propuesta

acerca de la existencia de la distribución de Poisson. La expresión de la ley de Poisson en el caso dado adopta la forma:

( ) ( )!

43.1 43.1

kekXP−

== (I.190)

∗ Ejemplo se ha tomado del libro :1962r. (A. Karasiev. “fundamentos de estadística matemática)

79

Donde k = 0, 1, 2, ……, n es la cantidad posible de partículas de oro suspendidas en la solución, pasados dos segundos, en un sector de espacio óptimamente aislado, Por la fórmula (I.190) puede calcularse la probabilidad para un número k dado. La tabla de distribución de Poisson puede consultarse en el apéndice 4.

16. Noción sobre las distribuciones multidimensionales de sistemas de variables aleatorias independientes.

El sistema de variables aleatorias puede entenderse como el conjunto de n variables aleatorias que predeterminan la posición aleatoria de un punto en el espacio n-dimensional. En particular, un sistema bidimensional define la posición aleatoria de un punto en un plano; el tridimensional, la posición aleatoria de un punto en el espacio (por ejemplo, el lugar del estallido de un proyectil en la tierra o el punto de explosión de un proyectil cenital en el aire). Enunciemos sin demostración el siguiente teorema La densidad de distribución de un sistema de variables aleatorias independientes es igual al producto de las densidades de distribución de las distintas variables que componen el sistema. Supóngase que las densidades de distribución ( es decir, las ordenadas de las curvas de distribución ) de las variables aleatorias independientes X, Y, Z, U son, respectivamente ( ) ( ) ( ) ( )ufzfyfxf 4321 .,, . Entonces, la densidad de la distribución del sistema será:

( ) ( ) ( ) ( ) ( )ufzfyfxfuzyxf 4321 .,,,,, = (I.191) La probabilidad de que un valor se encuentre entorno del punto ( )uzyxK ,,, será:

( ) ( ) ( ) ( )dxdydzduufzfyfxfpK 4321 .,,= (I.192) La probabilidad de que un valor pertenezca a la región Q se calcula por la fórmula:

( ) ( ) ( ) ( )dxdydzduufzfyfxfpQ

K 4321 .,,∫∫∫∫= (I.193)

En una distribución normal bidimensional la probabilidad de que un punto se encuentre dentro de un rectángulo de lados paralelos a los ejes de coordenadas será

( )

( )

( )

( )

dtXdtYePY YtXtX

X

vxvx

Y

∫∫

+−

=σησξ

σξ σηπ

2

11

222

1

22

11

22,,

1

Donde

( )Xt X σξ

= ( )YtY ση

= Xxii −=ξ Yyii −=η (I.194)

80

En una distribución normal tridimensional, la probabilidad de que un punto tome valores pertenecientes a la región limitada por un paralelepípedo cuyas caras son paralelas a los planos de coordenadas es igual a

( )

( )

( )

( )

( )

( )

ZYX

Y ZtYtXtZ

Z

X

X

zvxzvx dtdtdteP

Y

∫ ∫∫

++−

=ση σς

σς

σξ

σξ σηπ

2

11

2222

1

2

1

222

111

222

23

,,,,

1

Donde

( )Xt X σξ

= ( )YtY ση

= ( )ZtZ σς

=

Xxii −=ξ Yyii −=η Zzii −=ς Para calcular la probabilidad de que un punto tome valores dentro de una región dada de forma arbitraria, ya sea en el plano o en el espacio, es necesario conocer las fronteras de dichas regiones dadas en forma de sus correspondientes ecuaciones, En tal caso hay que calcular integrales múltiples con fronteras variables de los límites de integración. En una ley de distribución uniforme de las probabilidades para todos los argumentos la probabilidad de que un punto se halle comprendido en una región es proporcional al área de tal región, en el caso de la distribución bidimensional, y en el caso de distribución tridimensional, proporcional al volumen de dicha región. El caso de magnitudes aleatorias dependientes y de la combinación de diversas distribuciones no será tema a tratar para nosotros. 17. Leyes de límite

1. Ley de los grandes números La teoría de las probabilidades se funda en la interpretación matemática de las propiedades reales de fenómenos aleatorios masivos o, como suele decirse, en sus regularidades estadísticas. Una de las expresiones matemáticas más importantes de estas regularidades es la ley de los grandes números. De acuerdo con esta ley, el valor medio de una variable aleatoria, al aumentar el número de observaciones, converge en probabilidad hacia la esperanza matemática. En tal formulación, la ley de los grandes números se conoce como teorema de Chébyshev. Dicho teorema expresado en fórmula presenta el aspecto siguiente:

( ) δε −><−∞→

1XxPn

(I.196)

donde δεy son números positivos arbitrariamente pequeños.

En particular, teniendo en cuenta que pnkM =

, obtenemos el teorema de

Bernoulli.

81

δε −>

<−

∞→

1pnkP

N (I.197)

donde N es el número de series de ensayos, en cada una de las cuales se realiza un número n de ensayos. El teorema de Chébyshev se demuestra a base de la siguiente desigualdad de Chébyshev:

( ) ( )2α

αXDXxP <>− (I.198)

Donde α es un número positivo finito cualquiera. Demostremos la validez de la desigualdad (I.198)

( ) ( ) ( )dxxfdxxfXxPX

X

∫∫∞

+

∞−

+=≥−α

α

α (I.199)

Donde ( )xf es la densidad de la distribución de probabilidades de la variable aleatoria. En seguida tenemos que

( ) ( ) ( ) ( )dxxfXxdxxfXxdxxfXxXDX

X

∫∫∫∞

+

∞−

∞−

−+−>−=α

α 222

(I.200)

si la magnitud variable Xx − se sustituye por su limite inferior α , la

desigualdad (I..200) se refuerza. Por eso,

( ) ( ) ( ) ( ) ( )

+=+++> ∫∫∫∫∞+

+

∞−

+

∞− α

α

α

α

αααX

X

X

X

dxxfdxxfdxxfdxxfXD 222 ,

o, tomando en cuenta (I.199) ( ) ( )αα >−> XxPXD 2

De donde se obtiene el igualdad (I.198). Sustituyendo en todas las expresiones el signo de integral por el de la suma, y ( )dxxf por los valores correspondientes de las probabilidades, con facilidad se

demuestra, para magnitudes discretas, la validez de la desigualdad de Chébyshev. Nótese que ésta indica sólo el límite superior de la probabilidad de desviación Xx − en cierta magnitud positiva α positiva para cualquier

distribución. Si la ley de distribución se conoce, la probabilidad de la desviación Xx − puede estimarse más exactamente.

Analicemos el siguiente problema. Se conoce una magnitud aleatoria X y sus características principales M (X) y D (X). Se han efectuado n observaciones y obtenido un número n de valores ( )nixi ,.....1= Del número n de valores xi la media aritmética es x .

A su vez, el valor obtenido de x puede considerarse como el de cierta variable aleatoria Y, con la particularidad de que el conjunto de valores de esta variable comprende todos los valores medios aritméticos posibles en diferentes series de observaciones en cada una de las cuales se ha efectuado un n´mero n de

82

observaciones. Se requiere hallar las características fundamentales de la variable aleatoria Y, es decir,

( ) ( )YyDYM Vamos a reflexionar de la siguiente manera. Los valores observados de X pueden ser considerados como resultados de las observaciones de n variables aleatorias recíprocamente independientes nXXXX ,......,, 321 , todas las cuales poseen características iguales X y D (X). En tal caso

( )nXXXXn

Y ,......,,1321= (I.201)

es decir, el valor de Y puede considerarse como la media aritmética de variables aleatorias recíprocamente independientes e igualmente distribuidas. Basándonos en la expresión (I.201) obtenemos

( )nXXXXn

Y ,......,,1321=

Pero según lo convenido ( )XXXXX n ==== ,......321 , por eso

Xnn

Y 1= ,

Es decir XY = (I.202)

Hallemos la varianza ( ) ( )xDYD − , valiéndonos del hecho de que un factor constante puede sacarse tras el signo de varianza, elevándolo al cuadrado, es decir,

( ) ( )

=

== ∑∑

=

=n

ii

n

ii

xDnn

xDxDYD

12

1 1

(I.203) Tomando en consideración que las variables tratadas están igualmente distribuidas, o sea, ( ) ( ) ( ) ( )xDxDxDxD n === .........21 y también de la propiedad distributiva de la varianza, ( ) ( ) ( ) ( )nn xDxDxDxxxD +++= .........,......, 2121 se obtiene: Considerarse como el de cierta variable aleatoria Y, con la particularidad de que el conjunto de valores de esta variable comprende todos los valores medios aritméticos posibles en diferentes series de observaciones en cada una de las cuales se efectuado un numero n de observaciones. Se requiere hallar las características fundamentales de la variable aleatoria Y, es decir,

)(__)( yDyYM

83

Vamos a reflexionar de la siguiente manera. Los valores observados de X pueden ser considerados como resultados de las observaciones de n variables aleatorias independientes X1, X2, X3,..., Xn, todas las cuales poseen características iguales )(__ XDyX En tal caso

)....21(1 XnXXn

Y +++= (I.201)

Es decir, el valor de Y puede considerarse como la media aritmética de variables aleatorias recíprocamente independientes e igualmente distribuidas. Basandosnos en la expresión (I.201), obtenemos

)....21(1 XnXXn

Y +++=

Pero, según lo convenido, XXnXX ==== ...21 , por eso

Xnn

Y 1=

Es decir

XY = (I.202) Hallemos la varianza D(Y)- D( x ) , valiéndonos del hecho de que un factor constante puede sacarse tras el signo de varianza, elevándolo al cuadrado, es decir,

)(1)()(1

21 ∑∑

=

= =

==n

i

n

i xiDnn

xiDxDYD (I.203)

Tomando en consideración que las variables tratadas están igualmente distribuidas, o sea, D(x1)=D(x2)=...=D(xn)=D(x), y también la propiedad distributiva de la varianza, D(x1+x2+...+xn)= D(x1)+D(x2)+...+D(xn), se obtiene

nxD

nxnDxiD

nYD

n

i

)()()(1)( 21

2 === ∑=

Así pues,

nxDxDYD )()()( == (I.204)

Ahora si se cuenta con todos los requisitos para la demostración del teorema de Chebyshev, suponiendo que las variables consideradas son independientes dos a dos y poseen varianzas uniformemente limitadas (es decir, limitadas por un mismo número)

δε −><−∞→

1)( XxnP

Donde ε y α son números positivos arbitrariamente pequeños. Apliquemos la desigualdad de Chebyshev a la variable aleatoria , tomando ε=α

84

22

)()()(εε

εnxDxDXx

nP

=<>−∞→

Examinando la desigualdad (I.206), nos cercioraremos de que, por más pequeño que fuese el numero dado ε, siempre se puede hallar un número n tan

grande que se cumpla la desigualdad δε

<2

)(nxD

Por eso, puede escribirse δε <>−∞→

)( XxnP y pasando al suceso

contrario, δε −><−∞→

1)( XxnP

Que es lo que se quería demostrar. ____________________ *

−=

−= ∑∑∑∑∑=====

2

11

2

111)()()(

n

i

n

i

n

i

n

i

n

iiXxiMxiMxiMxiD

Teniendo en cuenta que constXXi == y haciendo uso de las propiedades de la esperanza matemática, escribamos

[ ]

)(

)()(

)()()()(

))(()()(

)()()(

11

1 11

2

1

1 1

2

11

2

1

2

11

ji

xiDxiD

XxjMXxiMXxiMxiD

XxjXxiXxiMxiD

XxiMXxxiMxiD

n

i

n

i

n

i

n

j

n

i

n

i

n

i

n

j

n

i

n

i

n

i

n

i

n

i

=

=

−−+−=

−−+−=

−=

−=

∑∑

∑∑∑∑

∑∑∑∑

∑∑∑

==

= ===

= ===

===

Y, como 0)( =− XxiM ,obtenemos finalmente

)()(1

XDxDn

i=∑

=

Así, pues, la esperanza matemática pude sustituirse aproximadamente por el valor medio de entre n observaciones, y con tanto mayor fundamento, cuanto mayor se el numero de observaciones. 2. noción sobre el teorema central del límite de Liapunov Es evidente la importancia de la ley de los grandes números para aplicaciones prácticas de la teoría de las probabilidades. No menos importantes en la

85

práctica son teoremas reunidos bajo el nombre común de <<teorema del límite>>. Mientras que la ley de los grandes números establece las propiedades estadísticas del valor medio de una variable aleatoria, el teorema del límite central establece las condiciones bajo las cuales surge la ley normal de distribución. El mayor aporte a la elaboración de este teorema pertenece a los matemáticos rusos P. Chebyshev, A. Markov y A. Liapunov. Como la demostración rigurosa del teorema fue dada por A. Liapunov, dicho teorema central del límite se conoce con el nombre de este científico. La demostración rigurosa de este teorema requiere ampliar considerablemente este curso. Es por ello que nos limitaremos tan solo a la exposición de la idea fundamental del teorema y daremos una demostración simplificada que ilustra, en cierta medida, la idea fundamental de la demostración rigurosa. La esencia del teorema central del límite estriba en lo siguiente . Si cierto fenómeno aleatorio es el resultado de la acción de un número suficientemente grande de fenómenos aleatorios independientes (o débilmente dependientes), cada uno de los cuales acusa escasa influencia en el resultado final, entonces la ley de distribución de las probabilidades de dicho fenómeno complejo se aproxima a la ley normal. Aplicándolo a variables aleatoria, el teorema de Liapunov puede formularse de la siguiente manera: Si cierta variable aleatoria es la suma de un número suficientemente grande de otras variables aleatorias independientes que divergen respecto de sus esperanzas matemáticas en magnitudes muy pequeñas en comparación con las desviaciones de la magnitud sumaria entonces la ley de distribución de esta variable aleatoria sumaria se aproxima a ley normal. Demos una demostración simplificada del teorema de Liapunov para variables aleatorias. Supongamos que la variable aleatoria Y es la suma de un número n de variable aleatorias independientes Xi (i=1, ...,n), es decir,

XnXY ++= ...1 Transformemos la expresión (I.207) a la forma

)(...)11( nXnXY εεη ++++=+ Puesto que

XnXY ++= ...1 Entonces

nεεη ++= ...1 O sea, la desviación aleatoria de la suma es la suma de las desviaciones de los sumandos. Supongamos ahora que cada uno de los sumandos ξi esta compuesto, a su vez, de varios sumandos elementales ε, de magnitudes absolutas iguales, pero que adquieren signos más y menos con igual probabilidad. En virtud de la variedad de los enlaces mutuos en la naturaleza tal supuesto es inadmisible, ya que cada uno de los sumandos, a su vez, es el resultado de muchas influencias y este razonamiento puede aplicarse a muchos fenómenos.

86

Como consecuencia de dicha simplificación , la magnitud de η puede ser representada como la suma de un gran número N de sumandos elementales ε con igual probabilidad p=0,5 que adquieren el signo mas o menos es decir

∑=

=N

ii

1εη

Donde ε = constante , y los sumandos difieren solo en el signo. Los valores concretos de la magnitud aleatoria η dependerán del número de sumandos positivos ε en el ensayo dado, supongamos que resulten k sumandos positivos. El valor concreto de ηi será

εεη )( kNki −−= (Es obvio, que los sumandos negativos sena N-k). Luego obtenemos

)(

)21(22

mmSSinkNNkkNki

med−=

−=−=+−= εεεεεη

Es decir,

)5.0(2 −=nkNi εη

Donde εN2 es una magnitud constante, y entre paréntesis del segundo miembro de la igualdad (I.211 hemos obtenido la desviación de la frecuencia relativa del suceso respecto a la probabilidad. Pero ya que la desviación de la frecuencia respecto a la probabilidad se acomoda a la ley normal de distribución, entonces el teorema de Liapunov queda demostrado (desde luego, con la simplificaciones que nos hemos permitido hacer al inicio de nuestro razonamiento). El teorema de Liapunov posee una importancia relevante para la teoría de errores de medición.