Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria...

152

Transcript of Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria...

Page 1: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste
Page 2: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste
Page 3: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

I

Dedicatoria

Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste que

en la vida es importante ser rico pero que es más rico ser importante. A ti madre

hermosa, María, que me enseñaste que el destino no viene para cada uno si no que

cada uno forja su destino, y por enseñarme a ser salvaje de corazón. A mis dos

princesas mágicas que las adoro (Mafe y Magestad). Para ustedes familia dedico

este trabajo.

A ti alma mater te quiero dedicar este trabajo y decirte lo siguiente:

La gente tiene estrellas que no son las mismas. Para los que viajan, las estrellas

son guías; para otros solo son pequeñas lucecitas. Para los sabios las estrellas son

problemas. Para mi hombre de negocios, eran oro. Pero todas esas estrellas se

callan y olvidan. Tú tendrás estrellas como nadie ha tenido…. Cuando por las

noches mires al cielo, al pensar que en una de aquellas estrellas estoy yo riendo,

serán para ti como si como si todas riesen. ¡Tú tendrás estrellas que solo saben reír!

(Antoine de Saint, El Principito). De las misma manera así serás para mí, madre

chapingo, serás una estrella que nunca callará y olvidará, porque eres una estrella

que sabes solo reír y cada una de esas risas son los momentos alegres que siempre

me brindaste.

Sinceramente

Mario Arturo Aguilar López

Page 4: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

II

Agradecimientos Agradecimientos infinitos a la familia Rodríguez Lara por el apoyo infinito, tío Loro

gracias por tu apoyo incondicional y la enorme confianza, mil gracias.

Amiga concepción mil gracias siempre por confiar en mí y gracias por los enormes

consejos para ser cada día una mejor persona. Gregorio y Saúl, gracias por ser mis

hermanos para toda la vida, los amo y los amaré para siempre. Etzael gran amigo

que siempre me has brindado muchísimos consejos e instrucciones para para ser

cada día mejor; Samuel, Luis Alfredo y Luis Alberto gracias por levantarme el ánimo

cuando ya quería abandonar este trabajo, siempre los recordaré.

Gracias a cada uno de los doctores miembro del comité revisor por su enorme apoyo

para hacer bien y lograr concluir este trabajo.

A ti dios Llave que siempre me has dado fuerza y con ella el bienestar necesario

para lograr cada éxito. Vida gracias por permitirme cada momento alegre, triste, y

difícil, ya que cada uno de estos fortalecen mi carácter para estar siempre de frente

y avanzar contra viento y marea.

Muy agradecido

Mario Arturo Aguilar López

Page 5: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

III

Contenido

Índice de figuras V

Índice de cuadros VI

Resumen VII

Summary VIII

Introducción general IX

Planteamiento del problema XI

Justificación XIV

Objetivos XVII

Metodología XVIII

1 Definiciones y conceptos básicos ................................................................ 1

1.1 Elementos que constituyen el diseño experimental ................................... 1

1.2 Conceptos de combinatoria ....................................................................... 6

1.3 Distribuciones muestrales .......................................................................... 7

1.4 Conceptos generales de pruebas de hipótesis .......................................... 8

1.5 Diseños experimentales comparativos simples........................................ 13

1.5.1 Comparación de dos poblaciones independientes ............................ 13

1.5.2 Diseño de comparaciones con observaciones pareadas ................... 16

1.6 Diseños experimentales con al menos tres tratamientos ......................... 18

1.6.1 Análisis de varianza en un diseño completamente al azar ................ 18

1.6.2 Diseño en bloques completamente aleatorizados ............................. 22

1.7 Comparaciones de pares de medias ........................................................ 26

1.7.1 Family Wise Error Rate (FWER) ........................................................ 28

1.7.2 FDR ................................................................................................... 34

2 Pruebas de permutación en diseños experimentales ............................... 36

2.1 Pruebas de permutación .......................................................................... 36

2.2 Diseños experimentales comparativos simples........................................ 39

Page 6: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

IV

2.2.1 Comparación de dos poblaciones independientes ............................ 39

2.2.2 Pruebas exactas ................................................................................ 46

2.2.3 Distribución Monte Carlo en el diseño aleatorizado ........................... 49

2.2.4 Diseño de comparaciones de parejas aleatorizadas ......................... 51

2.2.5 Prueba exacta.................................................................................... 56

2.3 Diseño experimental completamente al azar ........................................... 57

2.3.1 Permutaciones sistemáticas en un diseño completamente al azar.... 57

2.3.2 Distribución Monte Carlo en un diseño completamente al azar ......... 61

2.4 Diseño experimental de bloques completamente al azar (bca) ................ 64

2.4.1 Permutaciones sistemáticas en un diseño (bca)................................ 65

2.4.2 Distribución Monte Carlo en un diseño bca ....................................... 69

2.5 Comparación de pares de medias ........................................................... 71

2.5.1 Diferencia mínima significativa de Fisher .......................................... 71

2.5.2 Ajuste del 𝑝 valor por el método de Bonferroni .................................. 73

2.5.3 Prueba de Tukey ............................................................................... 73

2.5.4 FDR Bejamini y Hochberg ................................................................. 75

2.6 Histogramas y diagramas de cajas .......................................................... 76

2.7 Anova de permutación Vs anova paramétrico ......................................... 78

2.8 Simulación de la función potencia de la prueba. ...................................... 80

3 Distribución Monte Carlo en metodologías computacionales .................. 83

3.1 Distribución Monte Carlo en pruebas de permutación ............................. 83

3.2 Validez de la distribución Monte Carlo ..................................................... 87

3.3 Pruebas de permutación elaborados en Python ...................................... 89

Conclusiones 109

Apéndice 110

Literatura citada 130

Page 7: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

V

Índice de figuras Figura 1.1.1 Parcela del ejemplo 1.1.1. .................................................................. 3

Figura 1.4.1 Función de potencia de la prueba. ................................................... 10

Figura 1.6.1 Diseño con bloques aleatorizados .................................................... 22

Figura 1.7.1 Crecimiento del FWER respecto al número de comparaciones ....... 29

Figura 2.2.1 Histograma del estadístico 𝑇𝑘(𝑧) ..................................................... 45

Figura 2.2.2 Puntos comparativo de la dureza medida con punta 1 y punta 2. .... 55

Figura 2.2.3 . Histograma del estadístico 𝑑𝑘(𝑧). ................................................... 56

Figura 2.3.1 Comparación de velocidades de lectura. .......................................... 64

Figura 2.4.1 Diseño de bloques completamente al azar. ...................................... 66

Figura 2.6.1 Histograma del tratamiento 1 y tratamiento 2. .................................. 77

Figura 2.6.2 Diagrama de cajas del tratamiento 1 y tratamiento 2. ...................... 77

Figura 2.8.1 Función potencia de pruebas de diferentes metodologías. .............. 81

Figura 2.8.2 Función potencia respecto al cuadro 2.8.2 (permutación). ............... 82

Figura 2.8.3 Función potencia respecto al cuadro 2.8.2 (Paramétrica). ............... 82

Figura 3.1.1 Diagrama de flujo del método de Monte Carlo ................................. 83

Figura 3.1.2 Distribución Monte Carlo prueba de permutación............................ 86

Page 8: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

VI

Índice de cuadros Cuadro 1.6.1. Experimento completamente al azar .............................................. 18

Cuadro 1.6.2. Anova diseño completamente al azar ............................................ 21

Cuadro 1.6.3. Anova para el diseño de bloques aleatorizados............................. 25

Cuadro 1.7.1. Ilustración de posibles rechazos falsos o no en m pruebas ........... 26

Cuadro 1.7.2. . P valor ajustado mediante el método de Bonferroni .................... 32

Cuadro 1.7.3.Control del FDR método de Benjamini y Hochberg ........................ 35

Cuadro 2.1.1. Clasificación de los métodos de remuestreo ................................. 36

Cuadro 2.2.1. Arreglo de un experimento aleatorizado ........................................ 41

Cuadro 2.2.2. Valores obtenidos en el experimento del ejemplo 2.2.1 ................. 43

Cuadro 2.2.3. Combinaciones más extremas que 𝑇(𝑧) = −9 ............................... 44

Cuadro 2.2.4. Tabla con 𝑇𝑘|(𝑧)| ≥ | − 9|. ............................................................. 46

Cuadro 2.2.5. Datos de la fuerza de la tensión de adhesión del experimento de la

formulación del cemento. ...................................................................................... 50

Cuadro 2.2.6. Arreglo de un diseño experimental con observaciones pareadas .. 52

Cuadro 2.3.1. Tabla diseño completamente al azar cuyo arreglo tiene por 𝑧 ....... 58

Cuadro 2.3.2. Tabla comparativa de los tipos de texto ......................................... 63

Cuadro 2.4.1. Datos del experimento del ejemplo 2.4.1. ...................................... 70

Cuadro 2.5.1. Comparación de pares de medias con su respectivo 𝑝 valor. ........ 72

Cuadro 2.5.2. Ajuste del 𝑝 valor mediante el método de Bonferroni ..................... 73

Cuadro 2.5.3. Método de Benjamini y Hochberg con una 𝐹𝐷𝑅 = 0.05 ................. 75

Cuadro 2.7.1. Cuadro con los resultados de un determinado experimento .......... 78

Cuadro 2.7.2. Resultados de las comparaciones múltiples paramétricos. ........... 79

Cuadro 2.7.3. Resultados de comparaciones múltiples de permutación. ............. 79

Cuadro 2.8.1. Valores de la función de potencia .................................................. 80

Cuadro 2.8.2. Valores de la función potencia tras realizar tres simulaciones. ...... 81

Cuadro 3.1.1. Asignación aleatoria ....................................................................... 85

Page 9: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

VII

Resumen

Los diseños de experimentos pueden ser estudiados desde múltiples metodologías:

paramétrica, Bayesiana, no paramétrica y pruebas de permutación. En este trabajo

se estudiaron los diseños de experimentos unifactoriales usando la metodología de

pruebas de permutación, las cuales fueron estudiadas desde dos perspectivas

diferentes: pruebas exactas y pruebas aproximadas.

Primeramente, se hace una revisión de conceptos básicos y definiciones empleados

en el análisis de diseños de experimentos unifactoriales desde el enfoque de la

metodología paramétrica; incluyendo supuestos y métodos de comparaciones

múltiples. Posteriormente se proporciona una metodología de pruebas de

permutación enfocadas a los diseños experimentales unifactoriales, se estudian los

diseños experimentales comparativos simples (diseño aleatorizado y de parejas

aleatorias) y los diseños experimentales con al menos tres tratamientos (el diseño

completamente al azar y el diseño de bloques completos al azar), los cuales son

una generalización de los diseños experimentales comparativos simples. Esto

métodos son denominados métodos ANOVA de permutación. Asimismo se

presentan metodologías de comparación de pares de medias desde la perspectiva

de pruebas de permutación, esto cuando el ANOVA de permutación rechaza la

hipótesis nula H0.

Finalmente, en el documento se muestran aspectos importantes de la distribución

Monte Carlo, tales como el diagrama de flujo de la distribución Monte Carlo, la

validación de dicha distribución y la validación de la prueba de permutación

empleando distribución Monte Carlo. También al final se incluyen códigos

elaborados en el paquete python para cada una de las pruebas estadísticas

presentadas en el trabajo.

Page 10: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

VIII

Summary

The experimental designs can be studied by multiple methodologies: parametric,

Bayesian, non-parametric and by permutation tests. In this work, the experimental

designs were studied using methodology of permutation tests, and they were studied

from two perspectives, as exact tests and approximate tests.

Firstly, basics concepts and definitions are presented in in relation to the analysis of

one factor experimental designs, carried out from the parametric perspective

including statistical assumptions and multiple comparison procedures. afterwards a

methodology with permutation tests focused on one factor experimental designs is

given, comparative simple experimental design (only two treatments) and the

experimental designs with at least three treatments (completely randomized

experimental design and experimental design of block completely randomized) are

studied.. The latter are also known as permutation ANOVA methods. At the same

time, we also present pairwise comparison procedures throughthe permutation tests

methodology, when the permutation ANOVA test rejects the null hypothesis of

equality of treatments effects.

Finally, important aspects about Monte Carlo’s distribution are exposed, including

Monte Carlo’s distribution flow diagram, the validation of Monte Carlo’s distribution

and the validation of permutation tests with Monte Carlo’s distribution. At the end,

python software code is included for each of the tests carried out throughout the

document.

Page 11: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

IX

Introducción general

Las pruebas de permutación fueron propuestas por Fisher en 1935. En sus inicios

estas pruebas eran aplicables únicamente para muestras de tamaño pequeño, esto

debido al intensivo cálculo que estas requieren, sin embargo, con el desarrollo

gigantesco de las computadoras las pruebas de permutación han sido más

utilizadas. La metodología de las pruebas de permutación resulta ser más parecida

a las pruebas no paramétricas por las similitudes que mantienen en los supuestos,

aunque por la enorme realización de cálculos es una metodología más

computacionalmente exhaustiva.

Las pruebas de permutación son estudiadas como pruebas exactas y como pruebas

aproximadas. Son exactas cuando la probabilidad de cometer el error tipo I es igual

al valor 𝛼 de la distribución exacta de permutación de la estadística de prueba bajo

la hipótesis nula, y aproximada cuando se usa una aproximación de tal distribución

de tal modo que la probabilidad de cometer el error tipo I es aproximadamente 𝛼.

Las pruebas exactas generan todas permutaciones, mientras que las pruebas

aproximadas solo realizan una muestra aleatoria de tales permutaciones. Las

pruebas de permutación aproximadas para llevarse a cabo, emplean la distribución

Monte Carlo de la estadística de prueba, esta distribución es de uso imprescindible

debido a que permite que la prueba de permutación sea válida a pesar de la enorme

reducción en el número de permutaciones consideradas.

Las pruebas de permutación son pruebas de significancia estadística cuyo uso

principal es comparar medias de grupos o poblaciones mediante el cálculo del 𝑝

valor. Estas pruebas tienen como base la asignación aleatoria de las observaciones

a los distintos grupos tratamientos, por lo cual estas pruebas son útiles para diseños

experimentales (Manly, 2007);(Rizzo, 2008). Las pruebas de permutación pueden

ser empleadas tanto en muestras provenientes de una población o no

necesariamente. Por ejemplo en algunos campos del conocimiento, por mencionar

Page 12: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

X

la biomédica, en ausencia de muestras aleatorias obliga al investigador a recurrir a

los métodos de prueba de permutación (Baustista & Gómez, 2007).

Para llevar a cabo una prueba de permutación se necesita encontrar la manera de

cómo realizar las asignaciones aleatorias de las observaciones a los grupos

tratamientos, además de que las variables u observaciones consideradas deben ser

intercambiables (este último supuesto es fundamental en una prueba de

permutación). Para el caso de los diseños experimentales unifactoriales

(completamente al azar y bloques completos al azar) y sus casos más sencillos, los

diseños comparativos simples, es fácil realizar las asignaciones aleatorias aunque

la forma en que se realizan las asignaciones varía para cada una de los diseños.

Page 13: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XI

Planteamiento del problema

Existe una abundante bibliografía que proporciona metodología para llevar a cabo

análisis de experimentos, es decir, realizar comparaciones de medias para un

conjunto de 𝑡 de tratamientos. La mayor parte de la bibliografía del análisis de

experimentos está enfocada desde la perspectiva de estadística paramétrica. La

metodología paramétrica hace uso de las distribuciones teóricas 𝑡 y 𝐹, las cuales

necesitan de determinados supuestos para poder ser empleadas. Tales supuestos

se enlistan abajo (Ramírez, 1986).

Correcta relación funcional entre la variable de respuesta y los factores

tratamientos que intervienen en el modelo. Se establece un modelo aditivo lineal

que en su modalidad unifactorial se compone de una constante (media general),

efecto del factor tratamiento, efecto del diseño y una parte aleatoria denominada

error.

Los resultados obtenidos en el experimento son observaciones independientes

que provienen de una población que se distribuye normal.

Los errores tienen una distribución normal independiente e idénticamente

distribuida con media igual a cero y varianza constante (𝜎2).

Cuando todos los supuestos anteriores se cumplen, las pruebas paramétricas

proporcionan pruebas de hipótesis uniformemente más potentes que cualquier otro

tipo de prueba (Noreen, 1989). Desafortunadamente, en la práctica, los supuestos

anteriormente mencionados muchas veces no se cumplen, entonces realizar las

comparaciones de medias mediante la metodología paramétrica pudiera no ser la

mejor opción. Aquí es donde emplear pruebas de permutación puede ser una

alternativa adecuada (Manly, 2007). Enseguida se proporcionan las consecuencias

que se obtienen de usar pruebas paramétricas cuando los supuestos fallan

anteriores fallan (Ramírez, 1986):

Page 14: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XII

Falta de normalidad

Cuando el supuesto de normalidad falla se presentan alteraciones en el nivel de

significancia de la prueba de 𝐹.

Se introduce sesgo en la estimación de los efectos de tratamientos.

En la práctica se tienen buenas aproximaciones a la distribución 𝐹, a pesar de

que las variables involucradas no tengan una distribución normal, esta

característica se le denomina que la prueba 𝐹 es robusta ante la falta de

normalidad.

Falta de homocedasticidad

Cuando el supuesto de homocedasticidad (igualdad de varianzas) se viola, el

cuadrado medio del error deja ser un estimador insesgado de la varianza 𝜎2.

Los métodos de comparaciones de pares de media como: Tukey, diferencia

significativa mínima, Duncan, etc., se vuelven menos confiables.

La falta de homocedasticidad no afecta mucho la prueba 𝐹 en diseños

experimentales balanceados, pero pueden ser problemas serios en diseños des

balanceados.

Falta de independencia de errores

Genera errores en la estimación del error estándar de la estimación de las

diferencias de medias entre tratamientos, obteniendo conclusiones falsas.

Las pruebas no paramétricas brindan una alternativa al análisis de experimentos.

Estas pruebas se caracterizan por mantener de manera satisfactoria el error tipo I

cuando suposiciones de la normalidad no son válidas, ya que no hacen supuestos

específicos sobre la distribución de los datos. Como ejemplo de pruebas no

paramétricas tenemos la Prueba Mann-Whitney, que es una prueba no paramétrica

equivalente a la prueba paramétrica que emplea la distribución 𝑡 como distribución

de referencia para comparar la media de dos poblaciones normales, o la prueba

Kruskal-Wallis que es una prueba no paramétrica equivalente a la prueba

Page 15: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XIII

paramétrica que emplea como distribución de referencia la distribución 𝐹 en un

diseño completamente al azar.

Usualmente los métodos no paramétricos son ligeramente menos eficientes que las

pruebas paramétricas cuando las poblaciones subyacentes son normales (Gleason,

2013), pero las pruebas no paramétricas pueden ser levemente o mucho más

eficientes que las pruebas paramétricas cuando las poblaciones no son normales

(Myles y Douglas, 1999).

Las pruebas no paramétricas generan diversas opiniones y algunas muy

antagónicas. Por ejemplo, muchos autores critican a las pruebas no paramétricas

porque estas pierden poder debido a que trabajan con rangos y no con los datos

reales. Otros autores han declarado que los rangos no solo generan pérdida en el

poder de la prueba sino que también pueden aumentar el poder de la prueba. Hay

discusiones que siguen causando discrepancia entre autores, pero una ventaja

adicional que si es reconocida sin discrepancia, es que las pruebas no paramétricas

son más confiables que las pruebas paramétricas en presencia de valores atípicos

(Neave & Worthington, 1988).

Las pruebas basadas en rangos, tales como, Mann-Whitney o Kruskal-Wallis para

el caso de análisis de experimentos son importantes, ya que estas se presentan

como pruebas con mayor flexibilidad en cuanto los supuestos subyacentes a la

distribución probabilística que generó los datos (Myles & Douglas, 1999).

En este trabajo se presenta la metodología de pruebas de permutación como una

alternativa a las pruebas paramétricas y no paramétricas de análisis de

experimentos unifactoriales. Estas pruebas, aunque con una perspectiva más

computacional, brindan solución a problemas tan similares como con la metodología

paramétrica y proporcionan resultados tan buenos como las pruebas no

paramétricas cuando los supuestos subyacentes de las pruebas paramétricas no se

satisfacen completamente.

Page 16: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XIV

Justificación

Aquellas instituciones con ámbito profesional similar a la Universidad Autónoma

Chapingo, es decir, instituciones de enseñanza enfocadas al ámbito de la

agronomía, es importante que cuenten con metodologías objetivas para el análisis

de experimentos, esto debido a que la agronomía es un área de estudio con un

sentido totalmente experimental. Tal sentido es fácil de verificar con presentar

ejemplos como los siguientes: probar si el rendimiento de una variedad nueva de

maíz es mejor que una convencional, probar si el fertilizante de urea presenta mayor

rendimiento que el fertilizante triple 17, probar tres tipos de métodos de

inseminación en ganado jersey, etc. Para el análisis de tales experimentos se

necesitan herramientas de análisis estadístico, ya que de esta manera se dispone

una herramienta objetiva para mejorar un proceso de producción o un sistema.

Para el análisis de experimentos se usan los métodos paramétricos y los no

paramétricos, sin embargo, hay una metodología alternativa de análisis que se

denomina pruebas de permutación. Los análisis de diseños experimentales con

pruebas de permutación, son capaces de proporcionar resultados precisos bajo

condiciones donde las pruebas paramétricas pueden generar problemas. El análisis

con pruebas de permutación no se limita a poblaciones normales, además, no

necesita del supuesto de independencia de los errores (Box, Hunter, & Hunter,

2008). Enseguida se muestran otras propiedades estadísticas de las pruebas de

permutación al compararlas con las pruebas paramétricas comunes.

Bajo normalidad y homocedasticidad, las pruebas de permutación brindan

resultados tan poderosos como la prueba 𝑡 paramétrica (Edginton & Onghena,

2007); (Manly, 2007).

En las pruebas de permutación el �̂� valor es muy similar al estimado con las

prueba 𝑡 pareada paramétrica (Box, Hunter, & Hunter, 2008).

Gleason (2013) reporta resultados similares para experimentos unifactoriales

con un número de tratamientos mayor o igual a 3 y bajo condiciones de

Page 17: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XV

normalidad menciona que la prueba de ANOVA del método paramétrico y de

ANOVA de permutación proporcionan potencias muy similares.

Respecto a las pruebas no paramétricas vs pruebas de permutación, Gleason

(2013) menciona que hay autores que afirman que las pruebas de permutación son

más potentes que las no paramétricas. Enseguida se mencionan algunas

propiedades que comparten las pruebas de permutación con las pruebas no

paramétricas.

Las pruebas de permutación tienen capacidad para hacer frente a los valores

atípicos, detectando la diferencia en las medias aun cuando estos están

presentes (Edgington, 1995).

Pruebas de permutación son flexibles en cuanto a los supuestos subyacentes a

la distribución probabilística que generó los datos (Noreen, 1989).

Son métodos cuyo estadístico de prueba es de distribución libre (Gleason, 2013)

y (Hollander & Wolfe, 1999).

Otras propiedades notables de las pruebas de permutación sobre las pruebas

paramétricas y no paramétricas son:

Son empleadas también cuando la distribución teórica del estadístico es

desconocida o muy compleja. Por ejemplo, mediana en una distribución normal

(Noreen, 1989).

El investigador por la naturaleza de su estudio está libre de elegir el estadístico

de prueba (Manly, 2007). Por ejemplo, si un investigador desea probar si un

nuevo tratamiento postquirúrgico presenta mejores resultados que un

tratamiento estándar, los resultados serán medidos en días de recuperación del

paciente. Entonces un estadístico adecuado para este problema puede ser la

diferencia de medias entre el tratamiento nuevo y el estándar; otro investigador

puede proponer el estadístico 𝑡 empleado en la prueba paramétrica u otro

estadístico equivalente (Box, Hunter, & Hunter, 2008).

Page 18: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XVI

Debido a que las pruebas de permutación realizan grandes cantidades de cálculos,

esta es una metodología puramente computacional, de manera que sin el desarrollo

de las computadoras estas continuarían siendo solo una idea como lo eran en sus

inicios. Con el desarrollo enorme de las computadoras, las pruebas de permutación

han dejado de ser pruebas engorrosas y poco prácticas, para pasar a ser pruebas

viables. Aprovechando el poder de cálculo que poseen las computadoras y la

disponibilidad que estas tienen hoy en día, es una razón para que el uso de las

pruebas de permutación se generalice. Por lo anterior, en este trabajo se

proporciona la metodología de estas, así como, se proporcionan programas

elaborados en Python para llevar a cabo el análisis de experimentos unifactoriales

con la metodología de pruebas de permutación; de esta manera, también se

pretende dar extensión práctica a estas, ya que son muy útiles pero

desafortunadamente poco conocidas.

Page 19: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XVII

Objetivos

General

Exponer de manera clara y sencilla una metodología para llevar a cabo el análisis

de diseños experimentales unifactoriales, mediante la implementación de las

pruebas de permutación. De esta manera, se proporcionará un material de análisis

didáctico y práctico, que sea una alternativa a las pruebas comúnmente conocidas

en el análisis de experimentos.

Particulares

Proporcionar un material de estudio de pruebas de permutación enfocadas

al análisis de experimentos unifactoriales: diseños de experimentos

comparativos simples, diseño completamente al azar y diseños de bloques

completos al azar.

Generar un programa de cómputo elaborado en el software Python para

realizar análisis de datos de experimentos con pruebas de permutación en

los diseños experimentales mencionados en el punto anterior.

Proporcionar una herramienta de análisis alternativa a las comúnmente

conocidas

Page 20: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

XVIII

Metodología

La naturaleza del presente trabajo no exige experimentos prácticos, por lo que, el

contenido expuesto es obtenido mediante la revisión de bibliografía (libros, tesis y

artículos) y páginas web. La bibliografía consultada fueron aquellas enfocadas a

temas de pruebas de permutación, lenguaje de programación Python, algoritmos y

temas de diseños experimentos, además, considerar la actualización de la

bibliografía fue un criterio primordial. Entonces, considerando este último criterio

tanto como aquellos dos primeros es como se elabora este escrito.

Page 21: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

1

Capítulo 1 1 Definiciones y conceptos básicos

1.1 Elementos que constituyen el diseño experimental

Definición 1.1.1. Variable respuesta. Es el resultado obtenido de un conjunto de

variables entrantes que han sido sometidas a un proceso, el cual se ve afectado por

factores controlables y no controlables.

Definición 1.1.2. Factor. Son las variables independientes que pueden influir en la

variabilidad de la variable de interés.

Definición 1.1.3. Factor perturbador. Aquellos factores que pueden influir sobre la

variable respuesta pero en los que no hay interés en específico

Definición 1.1.4. Factor tratamiento. Es un factor el que interesa conocer su

influencia en la respuesta. Este es denominado comúnmente como factor.

Los factores pueden ser cualitativos, es decir, los factores pueden representar

características o modalidades; o cuantitativos, esto es, toman cantidades

numéricas. Enseguida se enlistan unos ejemplos.

Cualitativos

Proveedores de materia prima en la elaboración de fertilizante (materia orgánica,

urea, sulfato de amonio), tipo de máquina, sexo (hombre y mujer).

Cuantitativos

Temperatura, calor, tiempo. Estas seleccionadas en un rango de interés.

Page 22: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

2

Definición 1.1.5. Tratamiento. Son cada una de las modalidades de los factores de

estudio a las que son sometidas cada una de las unidades experimentales. Por

condiciones nos referimos a factores tratamientos considerando uniformes otros

factores, siendo aquel el único que cambia. Por lo anterior, en un diseño con un

único factor, los tratamientos son los distintos niveles del factor tratamiento y en un

diseño con varios factores, los tratamientos son las distintas combinaciones de

niveles de los factores tratamientos.

Definición 1.1.6. Factor de efecto fijo. Es un factor en el que los niveles han sido

seleccionados por el experimentador. Es apropiado cuando el interés se centra en

comparar el efecto sobre la respuesta de esos niveles específicos.

Definición 1.1.7. Factor de efecto aleatorio. Es un factor que se incluyen en el

experimento como una muestra aleatoria simple de todos los niveles del mismo.

Definición 1.1.8. Unidad experimental. Es el material donde se evalúa la variable

respuesta y cada una de estas es independiente.

Definición 1.1.9. Diseño balanceado. Es el diseño en el que todos los tratamientos

son asignados a un número igual de unidades experimentales.

Definición 1.1.10. Observación experimental. Es cada medición de la variable

respuesta.

Principios del diseño experimental

Establecer adecuadamente el diseño de un experimento nos permitirá obtener

resultados consistentes con la realidad, de esta manera, mediante un correcto

análisis estadístico obtener conclusiones válidas.

Sin importar el diseño que sea, para que este se lleve a cabo de manera adecuada

se consideran tres principios experimentales: réplicas, aleatorización y formación de

bloques.

Page 23: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

3

La réplica en un experimento se define como la realización de cada tratamiento en

unidades experimentales diferentes, esta es muy importante ya que bajo

condiciones de variabilidad en la mediciones de cada réplica nos permite realizar

inferencia, esto es, nos permite decir que tanto de la variabilidad del experimento

se debe al efecto del factor tratamiento y que tanto se debe a la generada por el

azar. Por aleatorización se quiere decir la manera en que se asignan las unidades

experimentales y el orden en que se realizan los ensayos individuales del

experimento es al azar. Las observaciones deben de ser variables aleatorias con

distribuciones independientes y la aleatorización hace válido esto. Ramírez (1986)

señala que la aleatorización no garantiza la independencia, si no que permite

proceder como si la independencia fuera un hecho. La formación de bloques es una

herramienta utilizada para reducir el efecto de los factores perturbadores; de manera

general un bloque son condiciones experimentales relativamente homogéneas en

cuanto a factores de perturbación. Para ejemplificar los tres principios mencionados

anteriormente se propone el siguiente ejemplo.

Ejemplo 1.1.1. Suponga que un ingeniero agrónomo desea probar si tres tipos de

variedades de maíz denotadas como (variedad 1, variedad 2 y variedad 3) tienen el

mismo rendimiento. Entonces en este caso se tiene que la unidad experimental son

áreas de 1.5 x 1.5 m en una parcela específica. En la Figura 1.1.1 se muestra

gráficamente el experimento.

Fuente. Elaboración propia

Figura 1.1.1 Parcela del ejemplo 1.1.1.

Page 24: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

4

La figura anterior denota el experimento del ejemplo 1.1.1, donde todo el cuadrado

de color naranja incluyendo cada uno de los cuadrados blancos forma la parcela,

mientras que únicamente los recuadros en blanco son las unidades experimentales

(superficie de terreno 1.5 x 1.5 m). La denominación “var” hace referencia a la

variedad que se asignó a dicha unidad experimental. Se supone que la parcela es

homogénea en cuanto a fertilidad, tipo de suelo y otras condiciones que pueden

hacer de ella heterogénea.

En el ejemplo 1.1.1 se tienen 3 réplicas para la variedad 1, variedad 2 y la variedad

3, por lo que se tienen 3 distintas unidades experimentales (superficie de terreno

1.5 x 1.5 m) diferentes para cada tratamiento, es decir, se tienen 9 unidades

experimentales diferentes en total. Entonces para 𝑛 réplicas se requieren 𝑛

unidades experimentales (superficie de terreno 1.5 x 1.5 m) diferentes para cada

variedad, por lo que en total se requieren de 3𝑛 unidades experimentales diferentes.

La aleatorización en el ejemplo 1.1.1 consiste en asignar de manera aleatoria a cada

una de las variedades (variedad 1, variedad 2 y variedad 3) en cada una de las

unidades experimentales (superficie de terreno 1.5 x 1.5 m).

La realización de bloque en el ejemplo 1.1.1 podría llevarse a cabo de la siguiente

manera. Si la parcela no es totalmente uniforme en cuanto al tipo de suelo, es decir,

una parte de la parcela es arenosa mientras que otra parte es de textura más

arcillosa, entonces no considerar el tipo de suelo puede generar inferencias

incorrectas. De manera que las unidades experimentales (superficie de terreno 1.5

x 1.5 m) deben de concentrarse dentro de cada tipo de suelo. Por ejemplo, si el

investigador no bloquea por tipo de suelo, el azar puede afectar el experimento, esto

es, puede que por el azar la mayoría de las observaciones de la variedad uno sean

asignadas en el suelo arenoso y la mayor parte de la variedad tres sean asignadas

en el suelo arcilloso, entonces no estamos siendo justos con cada una de las

variedades. En este caso sería necesario que el tipo de suelo sea un factor a

considerar y de esta manera crear condiciones homogéneas para cada una de las

tres variedades.

Page 25: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

5

Definición 1.1.11. Diseño experimental. Es el procedimiento que se sigue para

asignar los tratamientos a las unidades experimentales. Los más reconocidos son:

completamente al azar, bloques aleatorizados y cuadrado latino.

Definición 1.1.12. Diseño completamente al azar. Se origina por la asignación

aleatoria de los tratamientos a un conjunto de unidades experimentales previamente

determinadas. En este diseño se utilizan 𝑡 tratamientos; asignando al azar a cada

uno de estos a 𝑛 unidades experimentales distintas. En este diseño todas las

unidades experimentales tienen la misma probabilidad de recibir cualquiera de los

tratamientos y son independientes. Si cada tratamiento tiene el mismo número de

unidades experimentales, entonces se dice que el experimento es balanceado, de

lo contrario se denomina desbalanceado.

Definición 1.1.13 Diseño bloques al azar. Este diseño se origina al bloquear el

experimento, entonces dentro de cada bloque se realiza un diseño completamente

al azar balanceado, esto es, se utilizan 𝑡 tratamientos, asignando al azar cada uno

de estos a únicamente una unidad experimental. Cuando cada uno de los 𝑡

tratamientos se asigna al azar en al menos dos unidades experimentales el diseño

para cada bloque, entonces al diseño experimental se le denomina bloques

generalizados.

Definición 1.1.14. Experimentos comparativos simples. Son aquellos diseños

experimentales donde el factor considerado únicamente cuenta con dos niveles, es

decir, en el experimento solamente se quieren probar dos tratamientos. Por ejemplo:

el factor fertilizante que cuenta con dos niveles, fertilizante k1 y el fertilizante H3,

entonces en el diseño se quiere comparar si uno de ellos es superior al otro en

cuanto rendimiento. Las pruebas de hipótesis para diseños de experimentos

comparativos simples se pueden ver que compara raciones de medias de dos

poblaciones, pero debido a que se tienen tratamientos por eso la perspectiva es

desde el análisis de experimentos.

Page 26: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

6

1.2 Conceptos de combinatoria

Combinación

Arreglo de elementos donde no importa el lugar o posición que ocupan estos dentro

el arreglo. En una combinación interesa formar grupos y el contenido de dichos

grupos. La ecuación para determinar el número de combinaciones es:

𝐶𝑟𝑛 =

𝑛!

(𝑛 − 𝑟)! ∗ 𝑟! 1.2.1

𝐶𝑟𝑛 Denota el número de combinaciones en 𝑛 objetos tomados de 𝑟 objetos.

Por ejemplo: si se tiene 4 bolas de billar ¿cuántas combinaciones se pueden generar

de 4 bolas de billar tomadas de 3 bolas?

Si se aplica la fórmula se tiene el siguiente resultado: 𝐶34 =

4!

(4−3)!∗3!= 4

Suponga que se tienen las cuatro bolas de billar diferentes denotadas de la siguiente

manera {𝑏1, 𝑏2, 𝑏3, 𝑏4}, entonces los cuatro grupos generados a partir de tomar tres

de los cuatro son: {𝑏1, 𝑏2, 𝑏3}, {𝑏1, 𝑏2, 𝑏4}, {𝑏2, 𝑏3, 𝑏4} 𝑦 {𝑏1, 𝑏3, 𝑏4}. Este concepto

es empleado para generar las asignaciones en el diseño completamente

aleatorizado en de un diseño experimental comparativo simple.

Partición de un conjunto

Consiste en dividir a un conjunto que contiene 𝑛 elementos en 𝑘 conjuntos más

pequeños que él, donde el tamaño de cada una de las divisiones es 𝑛1, 𝑛2, … 𝑛𝑘

Y se cumple que 𝑛𝑖 ∩ 𝑛𝑗 = ∅ para toda 𝑖 ≠ 𝑗. La ecuación se presenta a continuación

(𝑛

𝑛1, 𝑛2, … 𝑛𝑘) =

𝑛!

𝑛1! 𝑛2! … 𝑛𝑘! 1.2.2

Retomando el conjunto de las cuatro bolas de billar {𝑏1, 𝑏2, 𝑏3, 𝑏4}, si deseo realizar

una partición de ese conjunto en dos conjuntos, tales que, uno contenga tres

Page 27: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

7

elementos y el otro contenga un único elemento, la partición se obtiene de la

siguiente manera.

(4

3 1) =

4!

3! 1!= 4

Entonces las particiones posibles son:

1). {{𝑏1, 𝑏2, 𝑏3} , { 𝑏4}} 2). { {𝑏1, 𝑏2, 𝑏4}, {𝑏3}} ,

3). { {𝑏2, 𝑏3, 𝑏4} , {𝑏1}} 4). { {𝑏1, 𝑏3, 𝑏4}, {𝑏2}}

Este concepto es empleado para generarlas asignaciones en el diseño

completamente al azar.

1.3 Distribuciones muestrales

Definición 1.3.1. Distribución muestral. Se define como la distribución de una

estadística a través de todas las muestras de un tamaño dado extraída de una

población específica.

Rodgers (1999) describe los siguientes tres tipos de distribuciones muestrales:

distribución muestral idealizada, distribución muestral teórica y distribución muestral

empírica. La distribución muestral generada directamente de la población, es decir,

si la población fuese directamente observable se podría obtener la distribución

muestral y a esta se denomina distribución muestral idealizada. Sin embargo,

disponer de la totalidad de toda una población es algo poco probable y en virtud de

esto se tienen dos tipos de distribuciones que se emplean en lugar de la distribución

muestral idealizada. La primera es la que puede ser obtenida mediante el uso de

una distribución matemática abstracta si ciertos supuestos se cumplen, Gosset y

Fisher (Casella & Berger, 2002) la emplearon para definir las distribuciones

muestrales 𝐹 y 𝑡, a estas se les denomina distribución muestral teórica. Mientras la

segunda es obtenida usando una única muestra y una rutina aleatoria para re-

ordenar, re-extraer o re-asignar estos elementos de la muestra para generar la

Page 28: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

8

distribución de un estadístico, a esta distribución se le denomina distribución

muestral empírica.

En los diseños y análisis de experimentos unifactoriales, estudiados desde la

perspectiva de la metodología paramétrica salen a relucir las distribuciones

muestrales teóricas, tales como: la distribución normal, distribución 𝑡, distribución 𝐹

y la distribución ji-cuadrada. Mientras que con la metodología de pruebas de

permutación sale a relucir la distribución muestral empírica, esta denominada

distribución de aleatorización.

Definición 1.3.2. Distribución de aleatorización. Es la distribución que se genera del

cálculo de un estadístico de prueba, este obtenido mediante la asignación aleatoria

de las observaciones a los distintos grupos o tratamientos. El número de

asignaciones aleatorias coincide con ( 𝑛𝑛1 𝑛2

) para dos tratamientos y con

( 𝑛𝑛1 𝑛2 … 𝑛𝑘

) para 𝑘 tratamientos.

1.4 Conceptos generales de pruebas de hipótesis

Definición 1.4.1. Hipótesis estadística. Cualquier afirmación o conjetura referente a

los parámetros de una o más poblaciones.

Definición 1.4.2. Las dos hipótesis complementarias en un problema de prueba de

hipótesis son llamadas hipótesis nula e hipótesis alternativa, estas son denotadas

por H0 y H1, respectivamente.

Definición 1.4.3. Prueba de hipótesis. Una prueba de hipótesis es una regla que

específica:

Para que valores de muestra se toma la decisión de aceptar la H0 como

verdadera.

Para que valores de muestra se toma la decisión de rechazar la H0 y se acepta

como verdadera a H1.

Page 29: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

9

Definición 1.4.4. Error tipo I. Cuando se rechaza la hipótesis nula siendo que en

realidad es verdadera.

𝛼 = 𝑃(𝑒𝑟𝑟𝑜𝑟 𝑡𝑖𝑝𝑜 I) = 𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0| H0 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 )

Definición 1.4.5. Error tipo II. Cuando no se rechaza nula siendo que en realidad es

falsa.

𝛽 = 𝑃(𝑒𝑟𝑟𝑜𝑟 𝑡𝑖𝑝𝑜 II) = 𝑃(𝑛𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0| H0 𝑒𝑠𝑓𝑎𝑙𝑠𝑎 )

Definición 1.4.6. Contraste de hipótesis para el parámetro 𝜃

H0: 𝜃 ∈ 𝜔

H0: 𝜃 ∈ Ω − 𝜔

Se llama estadística de prueba, a la estadística que usa para determinar la región

de rechazo, y al valor que acota a la estadística de prueba en la determinación de

la región de rechazo se le llama valor crítico.

Definición 1.4.7. Función de prueba. Sean las hipótesis nula H0 y la alterna H1 se

llama función de prueba a 𝜑(𝒙) = 𝜑(𝑥1, 𝑥2, … , 𝑥𝑛) = {0 si no se rechaza H0

1 si se rechaza H0

Definición 1.4.8. Función de potencia de una prueba 𝜑 se define como una función

𝛽𝜑(𝜃): Ω → [0,1]

𝛽𝜑(𝜃) = 𝑃(𝜑(𝑿) = 1|𝜃) = 𝑃{Rechazar H0 usando 𝜑|𝜃}

Ω: Denota el espacio paramétrico (son los valores posibles que puede tomar el

parámetro). Por ejemplo, si el parámetro es calcular el promedio de vida de los

ciudadanos mexicanos, un espacio paramétrico razonable sería [0,100], pero no es

posible el siguiente espacio paramétrico [−10,100].

Definición 1.4.9. Una prueba 𝜑 se llama prueba de tamaño 𝛼. Para 0 ≤ 𝛼 ≤ 1, una

prueba 𝜑 con función de potencia 𝛽𝜑(𝜃) es de tamaño 𝛼 si 𝑆𝑢𝑝𝜃∈𝜔𝛽𝜑(𝜃) = 𝛼

(Casella & Berger, 2002)

Page 30: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

10

Definición 1.4.10. Nivel 𝛼 de la prueba 𝜑 (nivel de significancia). Para 0 ≤ 𝛼 ≤ 1,

una prueba con función de potencia 𝛽𝜑(𝜃) es de nivel 𝛼 si 𝑆𝑢𝑝𝜃∈𝜔𝛽𝜑(𝜃) ≤ 𝛼 (Casella

& Berger, 2002).

Definición 1.4.11. Potencia de la prueba.

𝛽𝜑(𝜃) = 𝑃{𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|𝜃} Cuando 𝜃 ∈ Ω − 𝜔 entonces la potencia de la prueba

queda:

𝑝𝑜𝑡𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 = 𝑃{𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎}

= 1 − 𝑃{𝑁𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎} = 1 − 𝛽 = 𝛽𝜑(𝜃)

Donde:

𝛽 = 𝑃{𝑁𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 } = 𝑃{𝐸𝑟𝑟𝑜𝑟 𝑡𝑖𝑝𝑜 𝐼𝐼|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 }

Cuando se logra que 𝛽𝜑(𝜃) para 𝜃 ∈ Ω − 𝜔 sea la máxima ante cualquier prueba y

𝑠𝑢𝑝𝜃∈𝜔

𝛽𝜑(𝜃)≤ 𝛼, entonces se ha encontrado la prueba uniformemente más potente.

Lo antes dicho se ilustra en la Figura 1.4.1.

Figura 1.4.1 Función de potencia de la prueba.

Fuente (Morales, 2010)

Page 31: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

11

Definición 1.4.12. Prueba exacta. Una prueba de hipótesis para la cual

P(error tipo I ) = α, se llama prueba exacta.

Una prueba se dice que es conservadora si la P(error tipo I ) real no excede al valor

de significancia 𝛼 fijado. Por lo anterior, una prueba exacta es conservadora.

P valor

En los diseños de experimentos presentados anteriormente, la hipótesis nula se

rechaza o no con un valor especificado 𝛼 o nivel de significancia. A menudo este

planteamiento es inadecuado, porque no proporciona ninguna idea sobre si el valor

calculado del estadístico está apenas en la región de rechazo o bien ubicado dentro

de ella. Para evitar este problema se presenta el p valor.

Definición.1.4.12. 𝑝 Valor. El 𝑝 valor 𝑝(𝑿) es un estadístico de prueba que satisface

0 ≤ 𝑝(𝒙) ≤ 1 para cada muestra 𝒙. Valores pequeños de 𝑝(𝑿) dan evidencia en

contra de H0. El 𝑝 valor es válido si, para cada 𝜃 ∈ 𝜔 y para todo 0 ≤ 𝛼 ≤ 1 cumple

𝑃𝜃(𝑝(𝑿) ≤ α) ≤ 𝛼 (Casella & Berger, 2002).

Se acostumbra a decir que el estadístico de prueba es significativo cuando se

rechaza la hipótesis nula, por lo que 𝑝 valor puede considerarse como el nivel 𝛼 en

el que los datos son significativos. Una ventaja de reportar el resultado de una

prueba vía 𝑝 valor es que el lector puede elegir el nivel 𝛼 que considere apropiado

y de este modo comparar el 𝑝(𝒙) reportado con 𝛼 y saber si con esos datos se

concluye en el rechazo o la aceptación de H0.

La regla de rechazo para la hipótesis nula es:

Rechazar H0 si 𝑝(𝑿) ≤ 𝛼

Definición 1.4.13. 𝑝 Valor ajustado. Considere 𝐻𝑖 para 𝑖 = 1, 2, … , 𝑘, de manera que

H0𝑖 𝑉𝑠 H1

𝑖

𝑝 𝑉𝑎𝑙𝑜𝑟 𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜 = 𝑝 = 𝑖𝑛𝑓{𝛼| H𝑖 𝑒𝑠 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑑𝑎 𝑎𝑙 𝑛𝑖𝑣𝑒𝑙 𝐹𝑊𝐸𝑅 = 𝛼}

Page 32: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

12

En palabras sencillas, el 𝑝 𝑉𝑎𝑙𝑜𝑟 𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜 es el nivel de significancia más pequeño

para el cual todavía se rechaza H𝑖, dado un procedimiento simultaneo.

Propiedad de distribución libre en una prueba de permutación

Considere la siguiente prueba de hipótesis

H0: 𝐹1 = 𝐹2 = 𝐹

Donde 𝐹 no tiene una distribución específica.

Considere que 𝑇 es el estadístico de prueba para los datos experimentales,

entonces se obtiene una distribución de la estadística 𝑇 bajo H0, que se origina

mediante el cálculo 𝑇 de a través de todas las permutaciones; el cálculo de 𝑇 de las

permutaciones generadas se denomina 𝑇𝑘. El 𝑝 valor constituye el número de veces

que 𝑇𝑘 es más extremo que 𝑇 dividido por el número de total de posibles

combinaciones, dado por ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡!

).

Cuando H0 es verdadera, la distribución de 𝑇 no depende de 𝐹, es decir,

𝑃(𝑝 ≤ 𝛼|H0) No depende de 𝐹

Lo anterior significa que el nivel de significancia de la prueba es independiente de

la forma hipotética en la población infinita de la cual la muestra fue extraída.

Definición 1.4.14. Remuestreo. Según Ledesma (2008) “la denominación de

remuestreo se debe a que los métodos se basan esencialmente, en la extracción

de un gran número de muestras repetidas de los propios datos, y sobre esta se

realizan posteriormente descripciones e inferencias” (p. 52).

Definición 1.4.15. Estadístico equivalente. Dos estadísticos de prueba se dicen

equivalentes si tras realizar una prueba de permutación proporcionan el mismo nivel

de significancia.

Definición 1.4.16. Variables aleatorias intercambiables. La colección de variables

aleatorias 𝑋1, 𝑋2, … , 𝑋𝑛 se dice intercambiable si su distribución conjunto verifica

Page 33: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

13

𝑃[𝑋1 ≤ 𝑥1, 𝑋2 ≤ 𝑥2, … , 𝑋𝑛 ≤ 𝑥𝑛] = 𝑃[𝑋1 ≤ 𝑥𝑟(1), 𝑋2 ≤ 𝑥𝑟(2), … , 𝑋𝑛 ≤ 𝑥𝑟(𝑛)]

En otras palabras Las variables X1, X2, … , Xn aleatorias se llaman simétricamente

dependientes o variables intercambiables, si cualquier permutación de cualquier

subconjunto de ellas tiene la misma distribución de probabilidad (Good P. , 2002)

Para cualquier permutación de los 𝑛 índices. Para una función de densidad lo

anterior equivale

𝑓(𝑥1, 𝑥2, 𝑥3, … , 𝑥𝑛) = 𝑓(𝑥𝑟(1), 𝑥𝑟(2), 𝑥𝑟(3), … , 𝑥𝑟(𝑛))

Para una función masa de probabilidad se tiene

𝑝(𝑥1, 𝑥2, 𝑥3, … , 𝑥𝑛) = 𝑝(𝑥𝑟(1), 𝑥𝑟(2), 𝑥𝑟(3), … , 𝑥𝑟(𝑛))

1.5 Diseños experimentales comparativos simples

A continuación se presentan de manera resumida el diseño y análisis de

experimentos desde la metodología paramétrica. Se comienza con la inferencia de

las diferencias de dos tratamientos, donde la distribución de referencia es la

distribución 𝑡. Se finaliza con el análisis de varianza donde se comparan 𝑡

tratamientos, la distribución 𝐹 es la distribución de referencia para llevar a cabo la

prueba de hipótesis.

1.5.1 Comparación de dos poblaciones independientes

Un modelo estadístico simple que describe a esta situación es:

𝑦𝑖𝑗 = 𝜇𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2 𝑗 = 1, 2, 3, … , 𝑛𝑖

(1.5.1)

Donde 𝑦𝑖𝑗 es la observación 𝑗-ésima del nivel 𝑖 del factor, 𝜇𝑖 es la media de la

respuesta para el nivel 𝑖-ésimo del factor, y 휀𝑖𝑗 es una variable aleatoria normal

asociada con la observación 𝑖𝑗-ésima.

El modelo mostrado por la ecuación 1.5.1 se le denomina modelo de medias pero

si la media 𝜇𝑖 la definimos como una media general más una desviación causada

Page 34: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

14

por el efecto del nivel 𝑖 del factor tratamiento al que denominamos simplemente

tratamiento, es decir,

𝜇𝑖 = 𝜇 + 𝜏𝑖

El modelo 1.5.1 se escribe de la siguiente manera

𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2 𝑗 = 1, 2, 3, … , 𝑛𝑖

(1.5.1)

Donde 𝑦𝑖𝑗 es la observación 𝑗-ésima del 𝑖 ésimo tratamiento (𝜏), 𝜇 es media la

general, y 휀𝑖𝑗 es una variable aleatoria normal asociada con la observación 𝑖𝑗-ésima.

Enseguida se mencionan los supuestos que se debe de considerar al emplear el

modelo 1.5.1

𝑦𝑖𝑗𝑖𝑖𝑑~

𝑁(𝜇 + 𝜏𝑖, 𝜎2), 𝑖 = 1, 2.

휀𝑖𝑗𝑖𝑖𝑑~

𝑁(0, 𝜎2), 𝑖 = 1, 2 y 𝑗 = 1, 2, … , 𝑛𝑗

Respecto a los dos supuestos anteriores se debe cumplir que 𝜎21 = 𝜎2

2 = 𝜎2.

Las pruebas de hipótesis para el modelo (1.5.1) es el siguiente.

H0: 𝜏1 = 𝜏2 = 0 Vs H1: 𝜏1 ≠ 𝜏2

Que es lo mismo

H0: 𝜇1 = 𝜇2 Vs H1: 𝜇1 ≠ 𝜇2

El primer contraste es ideal para contrastar efectos de tratamientos y este último

para comparar medias de dos poblaciones. Sin embargo, aunque el objetivo es

probar la primera prueba de hipótesis, se trabajará con la media de los tratamientos.

El estadístico de prueba que debe de usarse para la prueba de hipótesis anterior de

la diferencia de medias es el siguiente (Montgomery, 2004):

𝑡0 =(�̅�1 − �̅�2) − (𝜇1 − 𝜇2)

𝑆𝑝√1

𝑛1+

1

𝑛2

(1.5.2)

Page 35: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

15

Donde �̅�1 y �̅�2 son las medias para 𝜏1 y 𝜏2 respectivamente, 𝑛1 es el tamaño de la

muestra de 𝜏1 y 𝑛2 tamaño de la muestra respecto a 𝜏2, 𝑆𝑝 es una estimación de la

varianza común cuando 𝜎21 = 𝜎2

2, calculada a partir de:

𝑆𝑝 =(𝑛1 − 1)𝑆2

1 + (𝑛2 − 1)𝑆22

𝑛1 + 𝑛2 − 2

𝑆21 y 𝑆2

2 son las varianzas muestrales individuales. En diseños de experimentos la

varianza será desconocida y la varianza 𝑦𝑖𝑗 es constante (𝜎2). Para determinar si se

rechaza H0 se tiene la siguiente región de rechazo |𝑡0|>𝑡𝛼2⁄ ,𝑛1 + 𝑛2 − 2. Este caso

es un muy particular de dos colas (bilateral).

El procedimiento anterior puede justificarse de la siguiente manera. Si el muestreo

se realiza de distribuciones normales independientes, entonces �̅�1 − �̅�2 ~ 𝑁[𝜇1 −

𝜇2, 𝜎2(1 𝑛1

⁄ + 1𝑛2

⁄ )] por lo que si se conoce 𝜎2 y si H0: 𝜏1 = 𝜏2 = 0 es verdadera, la

distribución es:

𝑍0 =�̅�1 − �̅�2

𝜎√1𝑛1

⁄ + 1𝑛2

~ 𝑁(0,1) (1.5.3)

Por el teorema del Apéndice A.1 se tiene que al sustituir 𝜎 por 𝑆𝑝, entonces la

ecuación 1.3 tiene una 𝑡 con 𝑛1 + 𝑛2 − 2 grados de libertad. Lo anterior quiere decir

que, si H0: 𝜏1 = 𝜏2 = 0 es verdadera, 𝑡0 de la ecuación 1.5.2 se distribuye como

𝑡𝑛1+𝑛2−2 y por consiguiente, se esperaría que 100(1 − 𝛼) por ciento de los valores

de 𝑡0 estén entre −𝑡𝛼2⁄ , 𝑛1+𝑛2−2 y 𝑡𝛼

2⁄ , 𝑛1+𝑛2−2 (Dean & Voss, 1999). Una muestra

que produce un valor de 𝑡0 que estuviera fuera des estos límites sería inusual si la

hipótesis nula fuera verdadera y es evidencia de que H0 debe rechazarse.

Para prueba de hipótesis unilaterales, esto es, H0: 𝜏1 = 𝜏2 = 0 Vs H1: 𝜏1 > 𝜏2 ó

H0: 𝜏1 = 𝜏2 Vs H1: 𝜏1 < 𝜏2 el rechazo de H0 es únicamente si 𝑡0 > 𝑡𝛼,𝑛1+𝑛2−2 o −𝑡0 <

−𝑡𝛼,𝑛1+𝑛2−2, respectivamente (Box, Hunter, & Hunter, 2008). En la parte del

Apéndice A.2.1 se presenta como obtener el cálculo del p valor para este diseño.

Page 36: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

16

1.5.2 Diseño de comparaciones con observaciones pareadas

El modelo estadístico para diseños de medias con observaciones pareadas se

describe enseguida:

𝑦𝑖𝑗 = 𝜇𝑖 + 𝛽𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2

𝑗 = 1, 2, … , 𝑛 (1.5.4)

Donde 𝑦𝑖𝑗 es la observación del 𝑖-ésimo nivel del factor tratamiento en la 𝑗-ésima

observación pareada. 𝜇𝑖 es la media verdadera del 𝑖-ésimo nivel del factor. 𝛽𝑗 es el

efecto del nivel i-ésimo del factor tratamiento debido a la 𝑗-ésima observación

pareada. 휀𝑖𝑗 es el error experimental aleatorio 휀𝑖𝑗𝑖𝑖𝑑~

𝑁(0, 𝜎𝑖2), 𝑖 = 1, 2.

El modelo descrito por la ecuación 1.5.4 se denomina de medias, si la media 𝜇𝑖 se

descompone en términos de una media general y la desviación de un efecto del

nivel 𝑖 del factor tratamiento al que se denomina tratamiento, es decir,

𝜇𝑖 = 𝜇 + 𝜏𝑖

Entonces la ecuación 1.5.4 se expresa de la manera siguiente:

𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝛽𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2

𝑗 = 1, 2, … , 𝑛

Donde 𝑦𝑖𝑗 es la observación del 𝑖-ésimo tratamiento (𝜏) en la 𝑗-ésima observación

pareada. 𝜇 Es la media general. 𝛽𝑗 Es el efecto debido a la 𝑗-ésima observación

pareada y 𝜏𝑖 es el efecto del tratamiento 𝑖. 휀𝑖𝑗 error experimental aleatorio

휀𝑖𝑗𝑖𝑖𝑑~

𝑁(0, 𝜎𝑖2), 𝑖 = 1, 2.

La diferencia pareada 𝑗-ésima es 𝑑𝑗 = 𝑦1𝑗 − 𝑦2𝑗 para 𝑗 = 1, 2, … , 𝑛

El valor esperado es

𝜇𝑑 = 𝐸(𝑑𝑗) = 𝐸(𝑦1𝑗 − 𝑦2𝑗) = 𝐸(𝑦1𝑗) − 𝐸(𝑦2𝑗) = 𝜇1 + 𝛽𝑗 − 𝜇2 − 𝛽𝑗 = 𝜇1 − 𝜇2

La prueba de hipótesis consiste en

Page 37: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

17

H0: 𝜇𝑑 = 0 Vs H1: 𝜇𝑑 ≠ 0

Que es equivalente a realizar la prueba de hipótesis

H0: 𝜏1 = 𝜏2 = 0 Vs H1: 𝜏1 ≠ 𝜏2

Sea 𝑑 = ∑𝑑𝑗

𝑛

𝑛𝑗 entonces su esperanza y varianza son:

𝐸(𝑑) = 𝐸 (∑𝑑𝑗

𝑛

𝑛

𝑗

) =1

𝑛∑𝑑𝑗

𝑛

𝑗=1

= 𝜇1 − 𝜇2

𝑉(𝑑) = 𝑉 (∑𝑑𝑗

𝑛

𝑛

𝑗

) = 𝑉 (∑𝑑𝑗

𝑛

𝑛

𝑗

) + ∑𝐶𝑜𝑣(

𝑛

𝑗=1𝑗≠𝑖

𝑑𝑗 , 𝑑𝑖)

Debido a que las 𝑑𝑗 son independientes e idénticamente distribuidas entonces las

𝐶𝑜𝑣(𝑑𝑗 , 𝑑𝑖) = 0.

El estadístico de prueba bajo H0 es:

𝑡0 =𝑑

𝑆𝑑

√𝑛⁄

1.5.6

Donde

√𝑉(𝑑) = 𝑆𝑑 = [∑ (𝑑𝑗 − �̅�)

2𝑗

𝑛 − 1]

12⁄

= [∑ 𝑑2

𝑗 −1

𝑛(∑ 𝑑𝑗𝑗 )

2𝑗

𝑛 − 1]

12⁄

𝑡0 =𝑑 − 𝜇𝑑

𝑆𝑑

√𝑛⁄

Por lo tanto, H0: 𝜏1 = 𝜏2 = 0 se rechaza si |𝑡0| > 𝑡𝛼2⁄ ,𝑛−1. Como las observaciones

de los niveles del factor tratamiento están pareadas, este procedimiento suele

Page 38: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

18

llamarse prueba 𝑡 pareada, de igual manera la distribución. En la parte del Apéndice

A.2.2 se presenta como obtener el 𝑝 valor para este diseño.

Este diseño de experimento es un caso particular del diseño de bloques o también

se le puede denominar diseño de experimento con medidas repetidas, donde dichas

repeticiones se realizan en unidades experimentales distintas e independientes

(réplicas). Es importante señalar que el diseño de medidas repetidas es muy

particular en Piscología, donde las repeticiones se realizan en las mismas unidades

experimentales (personas).

1.6 Diseños experimentales con al menos tres tratamientos

1.6.1 Análisis de varianza en un diseño completamente al azar

Esta metodología es la generalización de los experimentos comparativos simples,

ya que en estos experimentos se tienen 𝑡 tratamientos o niveles diferentes de un

solo factor que quieren compararse. Enseguida se muestra una tabla donde 𝑦𝑖𝑗

representa la 𝑗-ésima observación tomada en el 𝑖-ésimo tratamiento.

Cuadro 1.6.1. Experimento completamente al azar

Tratamientos Observaciones Totales Promedios

1 𝑦11 𝑦12 … 𝑦1𝑛1 𝑦1. �̅�1.

2 𝑦21 𝑦22 … 𝑦2𝑛2 𝑦2. �̅�2.

⋮ ⋮ ⋮ … ⋮ ⋮ ⋮

𝑡 𝑦𝑡1 𝑦𝑡2 … 𝑦𝑡𝑛𝑡 𝑦𝑡. �̅�𝑡.

𝑦.. �̅�..

Fuente Montgomery (2004)

Page 39: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

19

Donde 𝑦𝑖. = ∑ 𝑦𝑖𝑗𝑗 �̅�𝑖. =𝑦𝑖.

𝑛𝑖⁄ 𝑦.. = ∑ ∑ 𝑦𝑖𝑗𝑗𝑖 �̅�.. =

𝑦..𝑛⁄

𝑛 = ∑𝑛𝑖

𝑡

𝑖=1

Si 𝑛1 = 𝑛2 = ⋯ = 𝑛𝑡, entonces el diseño es balanceado.

Una manera de escribir un modelo para los datos de la tabla es el siguiente:

𝑦𝑖𝑗 = 𝜇𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑛𝑖

(1.6.1)

Donde 𝑦𝑖𝑗 es la observación 𝑗-ésima del nivel 𝑖 del tratamiento, 𝜇𝑖 es la media de la

respuesta para el nivel 𝑖-ésimo del tratamiento, y 휀𝑖𝑗 es una variable aleatoria normal

asociada con la observación 𝑖𝑗-ésima. El modelo anterior (ecuación 1.6.1) se le

conoce modelo de medias, sin embargo, una manera alternativa de escribir el

modelo es mediante el modelo de efectos.

𝜇𝑖 = 𝜇 + 𝜏𝑖, 𝑖 = 1, 2, … , 𝑡 (1.6.2)

Respecto a la ecuación 1.6.2 se obtiene

si 𝜇 =∑ 𝜇𝑖𝑖

𝑡⁄ ⟹ ∑𝜇𝑖

𝑖

=∑ 𝜇𝑖 + ∑ 𝜏𝑖𝑖

𝑡=

∑ 𝜇𝑖

𝑡+

∑ 𝜏𝑖𝑖

𝑡

Se considera a 𝜇 como una media global, a partir de la ecuación anterior se puede

calcular esta de la manera siguiente

𝜇 =∑ 𝜇𝑖𝑖

𝑡⁄ esto implica ∑𝜏𝑖

𝑖

= 0

De manera que el modelo 1.6.1 queda:

𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑛𝑖

1.6.3

Donde 𝜇 es la media global y 𝜏𝑖 es el efecto del tratamiento 𝑖-ésimo.

Supuestos para poder realizar el análisis

Page 40: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

20

𝑦𝑖𝑗𝑖𝑖𝑑~

𝑁(𝜇 + 𝜏𝑖, 𝜎2)

휀𝑖𝑗𝑖𝑖𝑑~

𝑁(0, 𝜎2)

Para poder realizar el análisis estadístico se inicia con la partición de la varianza

∑∑(𝑦𝑖𝑗 − �̅�)2

𝑗𝑖

= 𝑛 ∑(�̅�𝑖. − �̅�)2

𝑖

+ ∑∑(𝑦𝑖𝑗 − �̅�𝑖.)2

𝑗𝑖

𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠 = 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 + 𝑆𝑆𝑒𝑟𝑟𝑜𝑟 , 𝑆𝑆 denota suma de cuadrados

Se definen los cuadrados medios como:

Cuadrado medio de tratamientos

𝑀𝑆𝑡𝑟𝑎𝑡 =𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜

𝑡 − 1 (1.6.4)

Cuadrado medio del error

𝑀𝑆𝑒𝑟𝑟𝑜𝑟 =𝑆𝑆𝑒𝑟𝑟𝑜𝑟

𝑛 − 𝑡 (1.6.5)

Con algunas particularidades de los cuadrados medios

E[𝑀𝑆𝑡𝑟𝑎𝑡] = 𝜎2 + 𝑛 ∑𝜏2

𝑖

𝑡 − 1𝑖

E[𝑀𝑆𝑒𝑟𝑟𝑜𝑟] = 𝜎2

Características sobre las sumas de cuadrados

𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠𝜎2⁄ ~𝜒2

𝑛−1

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠𝜎2⁄ ~𝜒2

𝑡−1|bajo H0 (1.6.6)

𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝜎2⁄ ~𝜒2

𝑛−𝑡 (1.6.7)

Sin embargo, las tres sumas de cuadrados no necesariamente son independientes,

ya que la suma de 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 y 𝑆𝑆𝑒𝑟𝑟𝑜𝑟 es 𝑆𝑆𝑇𝑜𝑡𝑎𝑙. Afortunadamente el teorema

de Cochran (Apéndice A.3) establece la independencia de 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 y 𝑆𝑆𝑒𝑟𝑟𝑜𝑟,

Page 41: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

21

la cual es indispensable para poder utilizar el estadístico 𝐹 en el análisis de varianza.

El teorema de Cochran se extiende tanto para diseño completamente al azar como

para los diseños de bloques completos al azar y cuadrado latino.

Ahora tenemos la siguiente prueba de hipótesis

H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0 Vs 𝐻1: ∃𝜏𝑖diferente

El cuadro de análisis de varianza se muestra en el Cuadro 1.6.2.

Cuadro 1.6.2. Anova diseño completamente al azar

Fuente de

variación

Suma de

cuadrados

Grados de

libertad

Cuadrado

medio 𝑭𝟎

Tratamientos 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝑡 − 1 𝑀𝑆𝑡𝑟𝑎𝑡 𝑀𝑆𝑡𝑟𝑎𝑡𝑀𝑆𝑒𝑟𝑟𝑜𝑟

Error 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 𝑛 − 𝑡 𝑀𝑆𝑒𝑟𝑟𝑜𝑟

Total 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑛 − 1

Fuente: Montgomery (2004)

𝐹0 =𝑀𝑆𝑡𝑟𝑎𝑡

𝑀𝑆𝑒𝑟𝑟𝑜𝑟 1.6.8

Por los teoremas del Apéndice A.3 y A.4 se tiene que la ecuación 1.6.8 tiene una

distribución 𝐹𝑡−1,𝑛−𝑡. Por lo tanto, se deberá rechazar H0 y concluirse que hay

diferencias en las medias de los tratamientos si 𝐹0 > 𝐹𝛼,𝑡−1,𝑛−𝑡. En la parte del

Apéndice A.5.1 se presenta como obtener el cálculo del p valor para este diseño.

Page 42: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

22

1.6.2 Diseño en bloques completamente aleatorizados

Cuando el factor es conocido y controlable, puede usarse la técnica de diseños

llamada formación de bloques para eliminar de manera sistemática su efecto sobre

las comparaciones estadísticas entre los tratamientos.

Hay una observación por tratamiento en cada bloque, y el orden en que se corren

los tratamientos dentro de cada bloque es aleatorio. Como la aleatorización de los

tratamientos es exclusivamente dentro de cada uno de los bloques, entonces los

bloques representan una restricción sobre la aleatorización

Suponga que se tienen 𝑡 tratamientos que van a compararse y 𝑏 bloques. El diseño

de bloques completos aleatorizados se muestra en la Figura 1.6.1.

El modelo de medias para el diseño de bloques al azar se expresa

𝜇𝑖𝑗 = 𝜇𝑖𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑏

(1.6.9)

Donde 𝜇𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝛽𝑗 Los efectos de los tratamientos y efecto de bloque se

consideran como desviaciones de la media global, por lo que

Fuente: Elaboración propia

Figura 1.6.1 Diseño con bloques aleatorizados

Page 43: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

23

∑∑𝜇𝑖𝑗

𝑗𝑖

= 𝑡𝑏𝜇 + 𝑏 ∑𝜏𝑖

𝑖

+ 𝑡 ∑𝛽𝑗

𝑗

Se considera a 𝜇 como una media global, el cálculo de esta es

𝜇 =∑ ∑ 𝜇𝑖𝑗𝑗𝑖

𝑡𝑏⁄

Lo anterior implica ∑ 𝜏𝑖𝑖 = 0 y ∑ 𝛽𝑗𝑗 = 0

El modelo estadístico para diseños de bloques aleatorizados puede escribirse

mediante el modelo de efectos y queda como sigue:

𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝛽𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑏

(1.6.10)

Donde 𝜇 es la media global, 𝜏𝑖 es el efecto del 𝑖-ésimo tratamiento, 𝛽𝑗 efecto 𝑗-ésimo

bloque. Al igual que los casos anteriores los tratamientos y los bloques son

considerados fijos.

Enseguida se mencionan los supuestos a considerar para poder emplear este tipo

de diseño de experimento

𝑦𝑖𝑗𝑖𝑖𝑑~

𝑁(𝜇 + 𝜏𝑖 + 𝛽𝑗 , 𝜎2)

휀𝑖𝑗𝑖𝑖𝑑~

𝑁(0, 𝜎2)

La prueba de hipótesis para el modelo 1.6.10 es el mismo que en el diseño

completamente al azar

H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0 Vs 𝐻1: ∃𝜏𝑖diferente

Algunas expresiones

𝑦𝑖. = ∑𝑦𝑖𝑗

𝑗

𝑖 = 1, 2, … , 𝑡

𝑦.𝑗 = ∑𝑦𝑖𝑗

𝑖

𝑗 = 1, 2, … , 𝑏

Page 44: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

24

𝑦.. = ∑∑𝑦𝑖𝑗

𝑖𝑗

= ∑𝑦.𝑗

𝑗

= ∑𝑦𝑖.

𝑖

De manera similar para el promedio

�̅�𝑖. =𝑦𝑖.

𝑏⁄ �̅�.𝑗 =𝑦.𝑗

𝑡⁄ �̅�.. =𝑦..

𝑛⁄ 𝑛 = 𝑡𝑏

La partición de la varianza queda

∑∑(𝑦𝑖𝑗 − �̅�..)2

𝑗

= 𝑏 ∑(�̅�𝑖. − �̅�..)2

𝑖

+ 𝑡

𝑖

∑(�̅�.𝑗 − �̅�..)2

𝑗

+ ∑∑(𝑦𝑖𝑗 − �̅�𝑖. − �̅�.𝑗 + �̅�..)2

𝑗𝑖

De manera simbólica lo anterior se puede expresar

𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠 = 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 + 𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒 + 𝑆𝑆𝑒𝑟𝑟𝑜𝑟

Los grados de libertad en relación a la ecuación anterior que particionada de la

manera siguiente

𝑛 − 1 = (𝑡 − 1) + (𝑏 − 1) + (𝑡 − 1)(𝑏 − 1) para 𝑛 = 𝑡𝑏

Se definen los cuadrados medios como:

Cuadrado medio de los tratamientos

𝑀𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 =𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜

𝑡 − 1 (1.6.11)

Cuadrado medio de los bloques

𝑀𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠 =𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠

𝑏 − 1 (1.6.12)

Cuadrado medio del error

𝑀𝑆𝑒𝑟𝑟𝑜𝑟 =𝑆𝑆𝑒𝑟𝑟𝑜𝑟

(𝑡 − 1)(𝑏 − 1) (1.6.13)

Con algunas particularidades de los cuadrados medios

E[𝑀𝑆𝑡𝑟𝑎𝑡] = 𝜎2 + 𝑏 ∑𝜏2

𝑖

𝑡 − 1𝑖

Page 45: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

25

E[𝑀𝑆𝑏𝑙𝑜𝑞] = 𝜎2 + 𝑡 ∑𝛽2

𝑖

𝑏 − 1𝑖

E[𝑀𝑆𝑒𝑟𝑟𝑜𝑟] = 𝜎2

Características sobre las sumas de cuadrados

𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠𝜎2⁄ ~𝜒2

𝑛−1 (1.6.14)

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠𝜎2⁄ ~𝜒2

𝑡−1|bajo H0 (1.6.15)

𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠

𝜎2⁄ ~𝜒2𝑏−1

(1.6.16)

𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝜎2⁄ ~𝜒2

(𝑡−1)(𝑏−1) (1.6.17)

La tabla de análisis de varianza se muestra en el Cuadro 1.6.3.

Cuadro 1.6.3. Anova para el diseño de bloques aleatorizados.

Fuente de

variación

Suma de

cuadrados

Grados de

libertad

Cuadrado

medio 𝑭𝟎

Tratamientos 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝑡 − 1 𝑀𝑆𝑡𝑟𝑎𝑡 𝑀𝑆𝑡𝑟𝑎𝑡

𝑀𝑆𝑒𝑟𝑟𝑜𝑟⁄

Bloque 𝑆𝑆𝐵𝑙𝑜𝑞𝑢𝑒 𝑏 − 1 𝑀𝑆𝑏𝑙𝑜𝑞

Error 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 (𝑡 − 1)(𝑏 − 1) 𝑀𝑆𝑒𝑟𝑟𝑜𝑟

Total 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑛 − 1

Fuente (Montgomery, 2004)

Entonces, para probar la igualdad de las medias de los tratamientos se usa el

estadístico de prueba, que consiste en dividir la ecuación 1.6.11 por la ecuación

1.6.13.

Page 46: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

26

𝐹0 =𝑀𝑆𝑡𝑟𝑎𝑡

𝑀𝑆𝑒𝑟𝑟𝑜𝑟⁄ 1.6.18

Por los teoremas de los Apéndices A.2 y A.3 se tiene que la ecuación posee una

distribución 𝐹(𝑡−1),(𝑡−1)(𝑏−1). Por lo tanto, se deberá rechazar H0 y concluirse que hay

diferencias en las medias de los tratamientos si 𝐹0 > 𝐹𝛼,𝑡−1,(𝑡−1)(𝑏−1). En la parte del

Apéndice A.5.2 se presenta como obtener el cálculo del p valor para este diseño.

1.7 Comparaciones de pares de medias

Después del análisis de varianza, cuando se ha rechazado la hipótesis de la

igualdad de las medias de los tratamientos, quieren probarse todas las

comparaciones de medias por pares para saber cuáles difieren estadísticamente, el

contraste de hipótesis es el siguiente:

H0: 𝜏𝑖 = 𝜏𝑗 = 0

H1: 𝜏𝑖 ≠ 𝜏𝑗

Respecto a la prueba de hipótesis anterior puede notarse que el número de

comparaciones a realizar dependen del número de tratamientos a considerar.

Suponga que se tienen (𝑡2) = 𝑚 comparaciones, el Cuadro 1.7.1 muestra los

posibles resultados al realizar 𝑚 pruebas de hipótesis como la anteriormente

mencionada.

Cuadro 1.7.1. Ilustración de posibles rechazos falsos o no en m pruebas

𝑇𝑒𝑠𝑡 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑎𝑑𝑎

𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑡𝑒

𝑇𝑒𝑠𝑡 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑎𝑑𝑎

𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑡𝑒

𝑇𝑜𝑡𝑎𝑙

𝐻𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 𝑛𝑢𝑙𝑎 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎

𝐻0 𝐹 𝑚0 − 𝐹 𝑚0

𝐻𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎

𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 𝐻1 𝑇 𝑚1 − 𝑇 𝑚1

Page 47: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

27

𝑇𝑜𝑡𝑎𝑙 𝑆 𝑚 − 𝑆 𝑚

Fuente (Bejamini & Hochberg, 1995).

Donde:

𝑚: Número total de pruebas de hipótesis realizadas

𝑚0: Número de hipótesis nulas verdaderas

𝑚1: Número de hipótesis alternativas verdaderas

𝐹: Número de falsos positivos, este el error tipo I.

𝑇: Número de verdaderos positivos, hipótesis alternativa rechazada correctamente.

𝑚0 − 𝐹: Número de verdaderos negativos

𝑚1 − 𝑇: Número de falsos negativo (error tipo II)

𝑆: Número de hipótesis nulas rechazadas (pruebas significativas),

independientemente si son ciertas o falsas.

𝑚 − 𝑆: Número de hipótesis alternativas rechazadas (pruebas no significativas),

independientemente si son ciertas o falsas.

La tasa de rechazos falsos (FPR) es la sigla en inglés de False positive rate es la

probabilidad de cometer el error tipo I, y dado el Cuadro 1.7.1. Se tienen que

(Bejamini & Hochberg, 1995)

𝐹𝑃𝑅 =𝐹

𝑚0

El FDR por sus siglas en inglés False discovery rate es la probabilidad de que la

hipótesis nula sea cierta a pesar de haber sido rechazada, de acuerdo a la tabla

anterior se calcula de la siguiente manera (Bejamini & Hochberg, 1995):

Page 48: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

28

𝐹𝐷𝑅 =𝐹

𝑆

1.7.1 Family Wise Error Rate (FWER)

Cuando se realiza una prueba 𝑡 de muestras independientes o dependientes se

trabaja con el valor 𝛼 que es la probabilidad de cometer error tipo I (False positive

rate). La probabilidad de que al menos una prueba rechace la hipótesis nula de

forma incorrecta aumenta conforme aumenta el número de comparaciones.

Considere un valor 𝛼 = 0.05 para un experimento que tiene 5 tratamientos, suponga

que el ANOVA resulta significativo, entonces se realizan comparaciones por pares.

Se tiene un total de (52) = 10 comparaciones. Si se realizan las 10 comparaciones

independientes, la probabilidad de que al menos ocurra un falso positivo es mayor

al 0.05. A la probabilidad de que ocurra al menos un falso positivo se denomina

family wise error y si fuera independientes y se realizan todas las comparaciones

por pares se calcula mediante la fórmula siguiente:

𝐹𝑊𝐸𝑅 = 1 − (1 − 𝛼)(𝑡2)

𝑡: Equivale al número de tratamientos.

Entonces, para 10 comparaciones se tiene que 𝐹𝑊𝐸𝑅 ≈ 0.40. Enseguida se

muestra una gráfica (Figura 1.7.1) donde se ilustra lo anteriormente dicho.

Page 49: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

29

Entonces, cuando el número de comparaciones son demasiado FWER tiende a 1

lim(𝑡2)→∞

𝐹𝑊𝐸𝑅 = lim(𝑡2)→∞

[1 − (1 − 𝛼)(𝑡2)] = 1

Enseguida se presentan algunos métodos para realizar pruebas de hipótesis de

pares de medias. En el caso de diferencia significativa, es una prueba que no

protege el FWER, sin embargo, se reduce el FWER si se realiza solo cuando se

encuentra significancia en el ANOVA. Además puede ajustar el valor del 𝑝 valor

para evitar el problema de falsos positivos. Tukey es un método similar al de

diferencia mínima significativa, con la variante de que esta prueba protege el FWER

(Hsu, 1996).

Diferencia mínima significativa

Este procedimiento fue propuesto por Fisher en 1935 y consiste en una prueba de

hipótesis por parejas basada en la distribución 𝑡. Este método, para generar

intervalos de confianza emplea el estadístico siguiente (Dean & Voss, 1999):

0.05

0.0975

0.142625

0.18549375

0.226219063

0.264908109

0.301662704

0.336579569

0.36975059

0.401263061

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0 2 4 6 8 10 12

FWER

Numero de pruebas por pares

Fuente Elaboración propia.

Figura 1.7.1 Crecimiento del FWER respecto al número de comparaciones

Page 50: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

30

(𝑦𝑖.− 𝜇𝑖) − (𝑦

𝑗.− 𝜇𝑗)

√𝑆𝑟𝑒𝑠2 (

1

𝑛𝑖+

1

𝑛𝑗)

~𝑡𝑓

𝑃

[

𝑄0 ≤(𝑦

𝑖.− 𝜇𝑖) − (𝑦

𝑗.− 𝜇𝑗)

√𝑆𝑟𝑒𝑠2 (

1

𝑛𝑖+

1

𝑛𝑗)

≤ 𝑄1

]

= 1 − 𝛼 1.7.1

De la ecuación 1.7.1 se tiene lo siguiente:

𝑃 [𝑄0√𝑆𝑟𝑒𝑠2 (

1

𝑛𝑖+

1

𝑛𝑗) ≤ (𝑦

𝑖.− 𝑦

𝑗.) − (𝜇𝑖 − 𝜇𝑗) ≤ 𝑄1√𝑆𝑟𝑒𝑠

2 (1

𝑛𝑖+

1

𝑛𝑗)] = 1 − 𝛼

𝑃 [(𝑦𝑖. − 𝑦𝑗.) − 𝑄1√𝑆𝑟𝑒𝑠2 (

1

𝑛𝑖+

1

𝑛𝑗) ≤ 𝜇𝑖 − 𝜇𝑗 ≤ (𝑦𝑖. − 𝑦𝑗.) − 𝑄0√𝑆𝑟𝑒𝑠

2 (1

𝑛𝑖+

1

𝑛𝑗)] = 1 − 𝛼

Para que cumpla con la probabilidad 1 − 𝛼 se tiene que 𝑄1 = 𝑡𝛼2⁄, 𝑓 y 𝑄0 = −𝑡𝛼

2⁄, 𝑓

Entonces, si el intervalo contiene al cero muestra que no hay diferencia significativa

entre los tratamientos, por lo que los pares de medias 𝜇𝑖 y 𝜇𝑗 se declaran

significativamente diferentes si:

|𝑦𝑖.− 𝑦

𝑗.| > 𝑡𝛼

2⁄ ,𝑓√𝑀𝑆𝐸 (1

𝑛𝑖+

1

𝑛𝑖)

𝑆𝑟𝑒𝑠2 es el estimador insesgado de la varianza, en diseños de experimentos el

estimador equivalentes es el cuadrado medio del error 𝑀𝑆𝐸.

Si el diseño es balaceado y completamente al azar, entonces

𝐿𝑆𝐷 = 𝑡𝛼2⁄ ,𝑛−𝑡√

2𝑀𝑆𝐸

𝑛𝑖

Cuando el diseño es incompletamente el LSD es

Page 51: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

31

|�̅�𝑖. − �̅�𝑗.| > 𝑡𝛼2⁄ ,𝑛−𝑡√𝑀𝑆𝐸 (

1

𝑛𝑖+

1

𝑛𝑗)

Mientras que para el de completos al azar es

|�̅�𝑖. − �̅�𝑗.| > 𝑡𝛼2⁄ ,(𝑡−1)(𝑏−1) √

2𝑀𝑆𝐸

𝑏

Una problemática que presenta este método es que para un número grande de

tratamientos el número de posibles falsos positivos de la hipótesis nula puede ser

elevado, aun cuando no existen diferencias reales.

Reajuste del 𝒑 valor “método de Bonferroni”

Este es un método sencillo para el reajustar el valor 𝑝, el cual rechaza la hipótesis

𝐻𝑖 cuando el 𝑝 valor 𝑝𝑖 correspondiente es menor que 𝛼

𝑚, donde 𝛼 es el FWER y 𝑚

es el número de pruebas de hipótesis. El ajuste viene dado por

𝑝 = min (𝑚 ∗ 𝑝𝑖, 1)

Entonces, el rechazo se tiene cuando 𝑝 ≤ 𝛼

La protección del FWER es el interés del método de Bonferroni y se muestra a

continuación

𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 H𝑖|H0𝐶) = 𝑃( min

1≤𝑖≤𝑚𝑝𝑖 ≤

𝛼

𝑘|H0

𝐶) ≤ ∑𝑃(𝑝𝑖

𝑚

𝑖

≤ 𝛼𝑚⁄ |H0

𝐶)

Suponiendo que todos los 𝑝𝑖 valores se distribuyen como 𝑈[0,1], bajo su respectiva

hipótesis H0𝑖 , el límite superior es 𝑚 ∗

𝛼

𝑚= 𝛼. La notación |H0

𝐶 significa “dado que H0𝐶

que todos las H0𝑖 son verdaderas”. Se tienen un grupo de 𝑚 comparaciones por

pares H𝑖: H0𝑖 Vs H1

𝑖 . El método de Bonferroni es extremadamente conservador para

distribuciones muestrales continuas con colas ligeras, mientras que con colas

pesadas se vuelve anti conservador (Westfall & Young, 1993).

Page 52: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

32

Ejemplo 1.7.1. Considere que se tienen 4 tratamientos y se realizan comparaciones

por pares (LSD Fisher), de manera que las combinaciones y sus respectivos 𝑝

valores se muestran en el Cuadro 1.7.2., de igual forma se muestra el ajuste del 𝑝

valor mediante Bonferroni.

Cuadro 1.7.2. . P valor ajustado mediante el método de Bonferroni

Comparaciones 1 y 2 1 y 3 1 y 4 2 y 3 2 y 4 3 y 4

P valor 0,003 0.01 0.1 0.0002 0.003 0.01

P ajustado 0.018 0.06 0.6 0.0012 0.018 0.06

Fuente Elaboración propia

Prueba Tukey

Para toda 𝑖 ≠ 𝑗, Tukey propuso un procedimiento para probar hipótesis en las que

la FWR es menor o igual a 𝑝 (Hsu, 1996) cuando los tamaños muestras iguales.

Esta prueba se vuele muy conservadora conforme el número de comparaciones

aumenta, de hecho presenta el mismo problema que Bonferroni, una alternativa es

el método de Benjamini y Hochber (FDR).

Este método emplea la distribución del estadístico del rango studentizado

𝑦𝑖,𝑚𝑎𝑥

𝑖=1,2,…,𝑡−

𝑦𝑖,𝑚𝑖𝑛

𝑖=1,2,…,𝑡

√�̂�2𝑛𝑖

~𝑞𝑡,𝑓 1.7.2

Donde 𝑦𝑚𝑎𝑥

y 𝑦𝑚𝑖𝑛

son las medias muestrales mayor y menor, respectivamente,

sacadas de 𝑡 medias muestrales. En la parte de anexo se agrega la tabla de 𝑞𝛼(𝑡, 𝑓),

los puntos porcentuales 𝛼 superiores de 𝑞, donde 𝑓 es el número de grados de

libertad asociados con �̂�2. Adelante se emplea 𝑀𝑆𝐸 como estimador insesgado de

la varianza (Dean & Voss, 1999).

Page 53: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

33

Tomando en cuenta la ecuación 1.7.2 es claro ver que se cumple lo siguiente

(𝑦𝑖,𝑚𝑎𝑥

− 𝜇𝑖) − (𝑦𝑗,𝑚𝑖𝑛

− 𝜇𝑗)

√𝑀𝑆𝐸𝑛𝑖

~𝑞𝑡,𝑓

𝑃

[

𝑄1 ≤(𝑦

𝑖,𝑚𝑎𝑥− 𝜇𝑖) − (𝑦

𝑗,𝑚𝑖𝑛− 𝜇𝑗)

√𝑀𝑆𝐸𝑛𝑖

≤ 𝑄1

]

= 1 − 𝛼

Para muestras iguales se rechaza H0: 𝜏𝑖 = 𝜏𝑗 = 0 si

|𝜇𝑖 − 𝜇𝑗| > 𝑞𝛼(𝑡, 𝑓)√𝑀𝑆𝐸

𝑛𝑖 1.7.3

Cuando se trata de un diseño completamente al azar la ecuación 1.7.3 queda

|�̅�𝑖. − �̅�𝑗.| > 𝑞𝛼(𝑡, 𝑛 − 𝑡)√𝑀𝑆𝐸

𝑛𝑖

Mientras que cuando se trata de un diseño con bloques al azar la ecuación 1.7.3 es

|�̅�𝑖. − �̅�𝑗.| > 𝑞𝛼(𝑡, (𝑡 − 1)(𝑏 − 1))√𝑀𝑆𝐸

𝑏

Cuando los tamaños de las muestras no son iguales la metodología se denomina

Tukey Cramer, entonces H0: 𝜏𝑖 = 𝜏𝑗 se rechaza si:

|�̅�𝑖. − �̅�𝑗.| >𝑞𝛼(𝑡, 𝑓)

√2√𝑀𝑆𝐸 (

1

𝑛𝑖+

1

𝑛𝑗)

Page 54: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 1

34

1.7.2 FDR

El método de ajuste del 𝑝 valor mediante Bonferroni y Tukey trabajan protegiendo

el FWER, a continuación se presenta un método que se encarga de controlar el

FDR. Un concepto de este se dio al principio de este apartado, adicionalmente:

Otras definiciones equivalentes del FDR:

Es la proporción de pruebas significativas que realmente no lo son.

La proporción esperada de falsos positivos de entre las pruebas consideras

como significativas.

El objetivo de controlar el FDR es establecer un límite de significancia para un

conjunto de pruebas, de manera que de entre todas las pruebas consideradas como

significativas, la proporción de hipótesis nulas verdaderas (falsos positivos) no

supere un determinado valor (Bejamini & Hochberg, 1995). A continuación se

muestra el método de Bejamini y Hochberg (BH).

FDR Bejamini y Hochberg

Benjamini y Hochberg en 1995 desarrollaron una aproximación para controlar el

FDR. La metodología sugiere que si en un estudio con 𝑚 comparaciones se desea

controlar que el FDR no supere un porcentaje 100 ∗ (𝛼), entonces se debe realizar

lo siguiente (Bejamini & Hochberg, 1995):

1) Ordenar las 𝑚 pruebas de menor a mayor 𝑝 valor 𝑝(1), 𝑝(2), … , 𝑝(𝑚).

2) Se define 𝑘 como la última posición para la que se cumple que 𝑝(𝑖) ≤ 𝑑 ∗𝑖

𝑚.

3) Se consideran significativos todos los 𝑝 valores hasta la posición 𝑘

(𝑝(1), 𝑝(2), … , 𝑝(𝑘)).

Este método es más potente conforme el número de comparaciones aumenta;

además, es una prueba conservativa, debido a que cuando estima el número de

hipótesis nulas erróneamente consideradas falsas asume que todas las hipótesis

nulas son ciertas.

Page 55: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Definiciones y conceptos básicos

35

Ejemplo 1.7.2. Considere que se desea un FDR 0.05 y se tienen las siguientes

pruebas con sus respectivos 𝑝 valores después de realizar una prueba 𝑡. Prueba 1

(0.030), prueba 2 (0.002), prueba 3 (0.001), prueba 4 (0.028), prueba 5 (0.1) y

prueba 6 (0.2).

Cuadro 1.7.3.Control del FDR método de Benjamini y Hochberg

Prueba I p-valor BH

3 1 0.001 0.0083

2 2 0.002 0.0166

4 3 0.028 0.0250

1 4 0.030 0.0333

5 5 0.100 0.0416

6 6 0.200 0.0500

Fuente. Elaboración propia.

Como se puede notar en el Cuadro 1.7.3., los 𝑝 valores ordenados y el valor 𝑘, cuya

posición cumple que 𝑝(𝑖) ≤ 𝑑 ∗𝑖

𝑚 es 𝑘 =4, eso quiere decir que todos los 𝑝 valores

inferiores a 0.030 son significativos. Se puede observar que en la posición 𝑖 = 3 no

resulta significativo, ya que 0.028>0.025, sin embargo, también esa prueba resulta

ser significativa, ya que el 𝑝 valor máximo que cumpla ser menor a 𝑑 ∗𝑖

𝑚 es 0.030.

Page 56: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

36

Capítulo 2 2 Pruebas de permutación en

diseños experimentales

2.1 Pruebas de permutación

En muchos escritos las pruebas de permutación son consideradas como métodos

no paramétricos, debido a que una prueba de permutación no especifica una

distribución para las observaciones (Gleason, 2013). Otros las clasifican dentro del

grupo de pruebas denominadas métodos de remuestreo (Rodgers, 1999). En el

Cuadro 2.1.1. Se clasifican los métodos de remuestreo de acuerdo al tamaño de la

muestra y el mecanismo de muestreo.

Cuadro 2.1.1. Clasificación de los métodos de remuestreo

Tamaño de la muestra

Mecanismo

del

muestreo

Tamaño menor Tamaño igual

Sin reasignación Jacknife Pruebas de permutación

Con reasignación

Bootstrap

Fuente (Rodgers, 1999)

Respecto a lo escrito anteriormente, se puede notar que las pruebas de permutación

tienen diferentes denominaciones, pero a pesar de todas las denominaciones que

se les pueda dar, es indudable que las pruebas de permutación son pruebas con un

paradigma computacional, ya que sin el desarrollo de las computadoras las pruebas

de permutación serían viables solo con tamaños de muestra muy pequeños.

Page 57: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

37

Los métodos de permutación son muy flexibles y pueden ser aplicados en muchas

otras situaciones, simplemente identificado el reordenamiento de los datos que son

igualmente probables bajo la hipótesis nula. El cálculo del coeficiente de correlación,

regresión lineal simple y regresión lineal múltiple son ejemplos de aplicaciones que

ya han sido desarrolladas.

El término de permutación en el nombre de las pruebas puede generar confusiones,

debido a que en la prueba se esperaría generar todas las permutaciones posibles;

en lugar de eso, lo que se realiza son asignaciones aleatorias de las observaciones

a los tratamientos combinaciones y no propiamente permutaciones. Entonces,

proponer que las pruebas de permutación se deberían denominar pruebas

aleatorizadas tendría mucho sentido.

De acuerdo con Ernst (2004), las pruebas de permutación y las pruebas

aleatorizadas son similares en cuanto a la metodología, solo que la primera es útil

para diseños muestrales y la segunda es útil para diseños experimentales. La

interpretación en una prueba de permutación es diferente a una prueba

aleatorizada, pero en este trabajo la prueba de aleatorización se denominará prueba

de permutación enfocada a los datos experimentales.

Independientemente si se está trabajando con un diseño experimental comparativo

simple (apartado 2.2) o con diseños más elaborados (apartados 2.3 y 2.4), las

asignaciones aleatorias de las observaciones a los tratamientos en cada diseño

experimental pueden ser diferentes, pero al final de cuentas la prueba realizará el

cálculo del 𝑝 valor mediante asignaciones aleatorias.

Existen algunos autores que no brindan una distinción explícita entre pruebas de

permutación y pruebas de aleatorización. Por ejemplo, Noreen (1989) denomina a

pruebas de permutación como pruebas aleatorizadas, e inclusive menciona que en

pruebas aleatorizadas los datos no necesariamente provienen de la muestra

aleatoria de una población.

Page 58: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

38

Concepto .2.1.1. Prueba de permutación en diseños experimentales. Es una prueba

de significancia estadística para determinar si la hipótesis nula (igualdad de

tratamientos) es razonable ante una situación. Un estadístico 𝑆 elegido para medir

hasta qué punto los datos muestran el patrón en cuestión. El valor 𝑠 de 𝑆 para los

datos observados es comparado con la distribución de 𝑆, que es obtenida mediante

la asignación aleatoria de los datos (posible por el principio de intercambiabilidad),

asumiendo la hipótesis nula como verdadera. Los datos observados son solo una

asignación igualmente probable y 𝑠 debería aparecer como un valor típico de la

distribución permutación (aleatorización) de 𝑆. Si esto no es el caso, entonces la

hipótesis nula es desacreditada y la hipótesis alternativa es más razonable

La intercambiabilidad para una prueba de permutación/aleatorizada, bajo la

hipótesis nula, todas las posibles asignaciones aleatorias (permutaciones) de los

datos son igualmente probable (Good P. , 2000). Este supuesto es necesario ya que

el cálculo del valor p utilizado en la prueba de aleatorización da igual peso a cada

permutación de los datos. En el apéndice B.1 se exponen aspectos de variables

intercambiables.

Las pruebas de permutación las podemos dividir en dos grupos: estos son las

pruebas exactas y las aproximadas. En las pruebas exactas las pruebas de

permutación realizan todas las posibles asignaciones de manera que la probabilidad

de cometer error tipo I es 𝛼, estas útiles para muestras pequeñas. Las aproximadas

solo realizan una muestra de todas las posibles asignaciones, esto es, probabilidad

de cometer error tipo I es ≤ 𝛼. Las pruebas aproximadas emplean la distribución de

Monte Carlo para llevarse a cabo, esta útiles para muestras medianas y grandes.

En este trabajo a las pruebas de permutación se les da un uso dirigida a los diseños

experimentales (pruebas aleatorizadas). En los diseños experimentales las

unidades experimentales pueden ser una muestra aleatoria de una población, pero

esto por lo general es poco posible en determinadas áreas de estudio, de manera

que un diseño experimental se eligen los individuos no por un proceso aleatorio sino

que se trabaja con los que se tienen al alcance.

Page 59: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

39

Limitaciones de una prueba de permutación

Las pruebas de permutación tienen limitaciones en cuanto su uso, ya que estas son

pruebas que únicamente pueden ser empleadas para probar hipótesis que

involucren comparaciones entre dos o más grupos/tratamientos (donde la

permutación involucra asignar las observaciones entre los grupos), o hipótesis que

mencione que las observaciones para un grupo son en un orden aleatorio (donde la

permutación involucra generar alternativas de ordenes aleatorios) (Manly, 2007). De

hecho pruebas aleatorizadas permuta los datos en una manera que es consistente

con el procedimiento de asignación aleatoria, por lo que los resultados obtenidos

son válidos cuando la asignación aleatoria ha sido inicialmente usada en el estudio

Fisher desarrolló una prueba denominada Fisher´s one-sample randomization test

para probar la hipótesis acerca de parámetros de una población, sin embargo, la

idea en esta prueba ya no coincide con la permutación como la presentada en este

trabajo. En las pruebas de permutación o pruebas aleatorizadas sus inferencias son

válidas para la muestra.

2.2 Diseños experimentales comparativos simples

En este apartado se presentan las pruebas de permutación en diseños

experimentales comparativos simples. Estos diseños son los casos más simples del

diseño completamente al azar y el caso más simple del diseño de bloques al azar.

Se describen las características de cada una de ellas para llevarse a cabo.

2.2.1 Comparación de dos poblaciones independientes

En esta sección se expone el diseño experimental completamente al azar para un

diseño comparativo simple, este se caracteriza por solo tener dos tratamientos

(grupos); además de que el estadístico de prueba es la diferencia de medias de los

tratamientos uno y dos, es decir, diferencia de medias de los dos grupos.

Se tienen observaciones 𝑋1, 𝑋2, … , 𝑋𝑛1 y 𝑌1, 𝑌2, … , 𝑌𝑛2

.

Page 60: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

40

Supuestos:

Las variables 𝑋′𝑠 y 𝑌′𝑠 son independientes e idénticamente distribuidas. Se

asume independencia entre las dos muestras. Las variables aleatorias 𝑋 y 𝑌 son

intercambiables. Las dos muestras tienen igual distribución de probabilidad e

igual varianza.

Sea 𝐹1 la distribución correspondiente al tratamiento 1 y 𝐹2 la distribución

correspondiente al tratamiento 2. La hipótesis nula se muestra a continuación.

H0: 𝐹1(𝑠) = 𝐹2(𝑠) = 𝐹 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑠

Por lo que la hipótesis nula que de la siguiente manera:

H0: 𝜇1 = 𝜇2 = 0 𝑜 H0: 𝜏1 = 𝜏2 = 0

Donde 𝜏1: efecto del tratamiento 1 y 𝜏2: efecto del tratamiento 2. Debido a que en

estos experimentos se compara un modificado contra un estándar, el subíndice 𝑚

hace referencia modificada y el subíndice 𝑒 al estándar.

H0: 𝜏𝑚 = 𝜏𝑒 = 0

La hipótesis nula afirma que las medias de las poblaciones son iguales, o

equivalente a que el tratamiento no tiene efecto.

Todas las posibles pruebas de hipótesis son las siguientes:

1) Prueba unilateral de cola izquierda

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 < 𝜏2

2) Prueba unilateral de cola derecha

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 > 𝜏2

3) Prueba bilateral

Page 61: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

41

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 ≠ 𝜏2

Enseguida se proporciona un ejemplo para las pruebas de hipótesis enumeradas

anteriormente. El diagrama de flujo de una prueba con permutación sistemática se

muestra en el Apéndice B.2.

“En una prueba de permutación para comparar medias de dos tratamientos, se

realizan todas las combinaciones posibles, y se calcula un estadístico de prueba

para cada una de las asignaciones generada de los datos, estos valores definen

la distribución de referencia para la prueba, finalmente la proporción de datos

con un valor del estadístico al menos tan extremo que el valor del estadístico de

los datos experimentales determinan el 𝑝 valor. Cuando se trabaja con el

conjunto de todas las posibles asignaciones la prueba de permutación se

denomina sistemática y cuando se trabaja con un subconjunto de todas las

combinaciones la prueba de permutación se denomina aleatoria” (Edgington,

1995).

Prueba unilateral de cola izquierda

El estadístico 𝑇(𝑧) = 𝑦𝜏1

− 𝑥𝜏2 es el estadístico a calcular para el arreglo que se

presenta en el Cuadro 2.2.1.

Cuadro 2.2.1. Arreglo de un experimento aleatorizado

Población

𝜏 1" 𝜏2

𝑦1 𝑥1

𝑦2 𝑥2

⋮ ⋮

𝑦𝑛1 𝑥𝑛2

*Este cuadro denota el arreglo 𝑧, es decir, el arreglo experimental. Cada una de las posibles asignaciones genera el arreglo 𝑧 , que tendrá la misma estructura que se muestra en este

cuadro.

El número de asignaciones se obtiene de la siguiente manera: se tienen 𝑛1 + 𝑛2

elementos totales, estos se van a dividir en dos grupos uno de tamaño 𝑛1 que le

Page 62: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

42

corresponde a 𝜏1 y 𝑛2 que corresponde a 𝜏2, entonces respecto a lo explicado

previamente en el apartado 1.2 (ecuación 1.2.2), el número total de asignaciones

coincide con el número total de combinaciones es (𝑛1+𝑛2𝑛1 𝑛2

).

El estadístico a emplear para cada una de las asignaciones es 𝑇𝑘(𝑧) = 𝑦𝑘

𝜏1− 𝑥

𝑘𝜏2

para 𝑘 = 1, 2, … , (𝑛1+𝑛2𝑛1 𝑛2

). Esto genera la distribución de referencia que proviene de

la asignación aleatoria de los elementos disponibles a los tratamientos. Es

importante recalcar que 𝑇(𝑧) está considerado en algunos de los 𝑇𝑘(𝑧) = 𝑦𝑘

𝜏1−

𝑥𝑘𝜏2

para 𝑘 = 1, 2, … , (𝑛1+𝑛2𝑛1 𝑛2

), esto porque 𝑧 es una de las (𝑛1+𝑛2𝑛1 𝑛2

) asignaciones

posibles denotadas por 𝑧. Cada uno de los arreglos 𝑧 tiene una estructura similar al

Cuadro 2.2.1.

De manera que el cálculo del 𝑝-valor se obtiene como se muestra en la ecuación de

abajo:

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Π

(𝑛1+𝑛2𝑛1 𝑛2

)

Donde

𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] Probabilidad de que 𝑇𝑘(𝑧) al menos tan extremo como 𝑇(𝑧) bajo

H0

Π Es el conjunto de todas las posibles asignaciones (combinación). La cardinalidad

de este conjunto es (𝑛1+𝑛2𝑛1 𝑛2

).

𝐴: 𝑅 × 𝑅 → {0,1} donde 𝐴 toma el valor de uno si 𝑇𝑘(𝑧)es al menos tan extremo

como 𝑇(𝑧) y toma el valor de cero si ocurre lo contrario

Como se puede notar en la ecuación de arriba, el valor de 𝑝 aumenta para cada

valor 𝑇𝑘(𝑧) igual o más extremo que 𝑇(𝑧).

Page 63: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

43

Para hacer más clara la idea de esta prueba se expone un ejemplo a

continuación.

Ejemplo 2.2.1. Un nuevo tratamiento (modificado) para recuperación postquirúrgica

se compara con un tratamiento estándar, observando el tiempo de recuperación

(días) de los pacientes en cada tratamiento. En el Cuadro 2.2.2 se muestran los

resultados obtenidos.

Cuadro 2.2.2. Valores obtenidos en el experimento del ejemplo 2.2.1

𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 𝑚𝑜𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟

19 23

22 33

25 40

26

El contraste de hipótesis se muestra enseguida. La hipótesis alternativa se refiere a

que si el nuevo tratamiento disminuye el tiempo de recuperación.

H0: 𝜏𝑚 = 𝜏𝑒 = 0

H1: 𝜏𝑚 < 𝜏𝑒

El estadístico de prueba es 𝑇(𝑧) = �̅�𝑚𝑜𝑑𝑖𝑓𝑐𝑎𝑑𝑜 − �̅� 𝑒𝑠𝑡.

El valor de 𝑇(𝑧) = −9 días, indicando una posible disminución en los tiempos de

recuperación.

Si la hipótesis nula es verdadera y no hay diferencia entre los tratamientos, entonces

los tiempos de recuperación de cada uno de los sujetos serían los mismos,

independientemente de que tratamiento recibe.

La base para construir la distribución para 𝑇(𝑧) viene de la distribución aleatoria de

los individuos disponibles a los tratamientos, bajo la condición de que 𝐹𝑚𝑜𝑑𝑖𝑓𝑐𝑑𝑜 =

𝐹𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟. Esta aleatorización resulta de asignar 𝑛1 = 4 individuos a la población de

nuevo tratamiento y 𝑛2 = 3 individuos a la población de tratamiento estándar. La

Page 64: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

44

asignación presentada arriba solo es una de las (𝑛1 + 𝑛2

𝑛1 𝑛2) asignaciones igualmente

posibles. La distribución de permutación se construye calculando 𝑇𝑘(𝑧) =

�̅�𝑚𝑜𝑑𝑖𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 − �̅�𝑒𝑠𝑡 para 𝑘 = 1, 2, … , (7

4 3) = 35. La probabilidad de cada una de

estas asignaciones es 1 35⁄ .

Por lo que el valor resulta que el 𝑝 valor es:

𝑃H0[𝑇(𝑧) ≤ T(𝑧)] =

∑ 𝟏[𝑇𝑘(𝑧)≤T(z)]35𝑘=1

35=

∑ 𝟏[𝑇𝑘(𝑧)≤−9)]35𝑘=1

35= 3

35⁄

En el Cuadro 2.2.3 se muestran las combinaciones que brindan valores 𝑇(𝑧) ≤ T(𝑧).

Cuadro 2.2.3. Combinaciones más extremas que 𝑇(𝑧) = −9

N 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑥3 𝑇𝑖(𝑧)

1 19 22 25 26 23 33 40 -9.0

2 19 22 23 25 26 33 40 -10.7

3 19 22 23 26 25 33 40 -10.1

*Los valores enmarcados de color rojo son los datos experimentales

Para este caso, 3 son los valores que son al menos tan extremos como 𝑇(𝑧) = −9

(valor del estadístico de la muestra original), entonces el 𝑝 valor es 3

35≈ 0.0857.

Como conclusión podemos decir que con un nivel de significancia del 𝛼 = 0.05, que

no hay evidencia para el rechazo de la hipótesis nula.

En la Figura 2.2.1 se puede percibir que aproximadamente 3 son las valores al

menos tan extremos como −9, de la misma manera, se puede ver que los valores

de 𝑘 que brindan un prueba exacta son para 𝑘 =

1, 2, 3, 4, 5, 6, 7, 9, 10, 12, 14, 16, 19, 20, 22, 23, 24, 26, 27, 28, 30, 31, 33, 34 𝑦 35.

Page 65: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

45

La Prueba unilateral de cola derecha respecto al problema presentado en el ejemplo

2.2.1 es

H0: 𝜏𝑚 = 𝜏𝑒 = 0

H1: 𝜏𝑚 > 𝜏𝑒

Prueba bilateral

La prueba de hipótesis

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 ≠ 𝜏2

La metodología de la prueba de permutación es la misma que la del apartado

anterior, la única diferencia es que el estadístico de prueba es el siguiente:

𝑇(𝑧) = |𝑦𝜏1

− 𝑥𝜏2| Para el arreglo experimental

Y 𝑇𝑘(𝑧) = |𝑦𝑘

𝜏1− 𝑥

𝑘𝜏2

| Para 𝑘 = 1, 2, … , (𝑛1+𝑛2𝑛1 𝑛2

) para cada asignación.

Por lo que el cálculo del 𝑝 valor se obtiene como se muestra en la ecuación de abajo

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧)≥𝑇(𝑧)]𝜋𝜖Π

(𝑛1+𝑛2𝑛1 𝑛2

)

Figura 2.2.1 Histograma del estadístico 𝑇𝑘(𝑧)

Page 66: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

46

Para este ejemplo se retoman los datos del ejemplo 2.2.1 cuya prueba de hipótesis

bilateral es

H0: 𝜏𝑚 = 𝜏𝑒 = 0

H1: 𝜏𝑚 ≠ 𝜏𝑒

En ese ejemplo el valor del estadístico para los datos experimentales fue 𝑇(𝑧) = −9,

entonces ahora en la prueba bilateral se tiene:

𝑇𝑘(𝑧) ≥ | − 9| Para 𝑘 = 1, 2, … , (7

4 3) = 35

Cuadro 2.2.4. Tabla con 𝑇𝑘|(𝑧)| ≥ | − 9|.

N 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑥3 𝑇𝑘(𝑧)

1 19 22 25 26 23 33 40 9.0

2 19 22 23 25 26 33 40 10.7

3 19 22 23 26 25 33 40 10.1

4 25 26 33 40 19 11 23 9.6

*Los valores enmarcados de color rojo son los datos experimentales

El cálculo del 𝑝 valor es

𝑃H0[𝑇(𝑧) ≥ T(𝑧)] =

∑ 𝟏[𝑇𝑘(𝑧)≥T(z)]35𝑘=1

35= 4

35⁄ = 0.114

Entonces, con un nivel de significancia del 𝛼 = 0.05, no no hay evidencia para el

rechazo de la hipótesis nula.

2.2.2 Pruebas exactas

Teorema 2.3.1. Si el nivel de significancia es 𝛼 =𝑠

(𝑛1+𝑛2𝑛1 𝑛2

) y si toma como región crítica

(−∞, 𝑇(𝑧)𝑠] la prueba de permutación es exacta, esto es,

𝑃H0(rechazar H0| H0) = 𝛼

En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠 − é𝑠𝑖𝑚𝑜 más pequeño en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}

Page 67: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

47

Demostración:

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0)

Suponiendo que𝑇(𝑧) < 0

= 𝑃 (∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π

(𝑛1+𝑛2𝑛1 𝑛2

)≤ 𝛼|H0) = 𝑃 (

∑ 1[𝑇𝑘(𝑧)≤𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤ 𝛼|H0)

= 𝑃 (∑ 1[𝑇𝑘(𝑧)≤𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤ 𝑠

(𝑛1+𝑛2𝑛1 𝑛2

)⁄|H0)

= 𝑃

(

∑ 1[𝑇𝑘(𝑧)≤𝑇(𝑧)]

( 𝑛𝑛1 𝑛2

)

𝑘=1

≤ 𝑠|H0

)

= 𝑠(𝑛1+𝑛2

𝑛1 𝑛2)⁄

Como la distribución de aleatorización es discreta, entonces el 𝑝 valor debe ser un

múltiplo de 1

(𝑛1 + 𝑛2

𝑛1 𝑛2)

⁄ , sin embargo, no todos los múltiplos son posibles. Entonces

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠

(𝑛1 + 𝑛2

𝑛1 𝑛2)⁄

= 𝛼

Si 𝑠 es un múltiplo de 𝛼 se cumple la igualdad de arriba, pero si 𝑠 no es múltiplo

de 𝛼 se tiene lo siguiente:

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠

(𝑛1 + 𝑛2

𝑛1 𝑛2)⁄

< 𝛼

Lema 2.2.1 Si el nivel de significancia es 𝛼 =𝑠

(𝑛1+𝑛2𝑛1 𝑛2

) y si toma como región crítica

[ 𝑇(𝑧)𝑠, + ∞) la prueba de permutación es exacta, esto es,

𝑃H0(rechazar H0| H0) = 𝛼

En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠 − é𝑠𝑖𝑚𝑜 más grande en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}

Page 68: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

48

Teorema 2.2.2. Si el nivel de significancia es 𝛼 =𝑠1+𝑠2

(𝑛1+𝑛2𝑛1 𝑛2

) y si toma como región crítica

(−∞, 𝑇(𝑧)𝑠1] y [ 𝑇(𝑧)𝑠1

, + ∞), tal que 𝑠1 = 𝑠2 y cumplen ser son enteros positivos.

Entonces la prueba de permutación es exacta, esto es,

𝑃H0(rechazar H0| H0) = 𝛼

En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠1 − é𝑠𝑖𝑚𝑜 más pequeño y 𝑠2 − é𝑠𝑖𝑚𝑜 más grande

en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}.

Demostración:

Sea 𝑇(𝑧) = |𝑦𝜏1

− 𝑥𝜏2|

𝑃 (∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π

(𝑛1+𝑛2𝑛1 𝑛2

)≤ 𝛼|H0) = 𝑃 (

∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)] ó [𝑇𝑘(𝑧)≥𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤ 𝛼|H0)

= 𝑃 (∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤

1

2𝛼|H0) + 𝑃 (

∑ 1[𝑇𝑘(𝑧)≥𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤

1

2𝛼|H0)

= 𝑃 (∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤

𝑠1

(𝑛1+𝑛2𝑛1 𝑛2

)|H0) + 𝑃 (

∑ 1[𝑇𝑘(𝑧)≥𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

(𝑛1+𝑛2𝑛1 𝑛2

)≤

𝑠2

(𝑛1+𝑛2𝑛1 𝑛2

)|H0)

= 𝑃

(

∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

≤ 𝑠1|H0

)

+ 𝑃

(

∑ 1[𝑇𝑘(𝑧)≥𝑇(𝑧)]

(𝑛1+𝑛2𝑛1 𝑛2

)

𝑘=1

≤ 𝑠2H0

)

=𝑠1

(𝑛1+𝑛2𝑛1 𝑛2

)+

𝑠2

(𝑛1+𝑛2𝑛1 𝑛2

)=

𝑠1 + 𝑠2

(𝑛1+𝑛2𝑛1 𝑛2

)=

2𝑠2

(𝑛1+𝑛2𝑛1 𝑛2

)

Entonces

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) =2𝑠2

(𝑛1 + 𝑛2

𝑛1 𝑛2)⁄

= 𝛼

Page 69: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

49

Si 𝑠 es un múltiplo de 𝛼 se cumple la igualdad de arriba, pero si 𝑠 no es múltiplo

de 𝛼 se tiene lo siguiente:

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) =2𝑠2

(𝑛1 + 𝑛2

𝑛1 𝑛2)

⁄ < 𝛼

2.2.3 Distribución Monte Carlo en el diseño aleatorizado

Cuando se trabaja con muestras de tamaño grande, realizar el análisis del diseño

experimental con permutación sistemática no resulta viable, debido a que las

cantidades de cálculos de asignaciones suelen ser gigantescos. Por ejemplo,

considere un diseño experimental donde las asignaciones a generar son ( 3015 15

) =

155,117,520, realizar esa cantidad de combinaciones no resulta viable para

cualquier computadora. Entonces, para evitar esa problemática se presenta la

prueba permutación con uso de distribución Monte Carlo denominado también

prueba de permutación con permutaciones aleatorias.

En una prueba de permutación con permutaciones sistemáticas se trabajan con

todas las posibles asignaciones (𝑛1+𝑛2𝑛1 𝑛2

), sin embargo, en una prueba de

permutación con distribución Monte Carlo, únicamente se trabaja con una muestra

aleatoria de la población de todas las asignaciones (𝑛1+𝑛2𝑛1 𝑛2

) posibles e igualmente

probables.

El cálculo del 𝑝 valor para una prueba de permutación con distribución Monte Carlo

es obtenido mediante la siguiente ecuación.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)] + 1𝜋𝜖Ω

𝐵 + 1=

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝐵𝑘=1 + 1

𝐵 + 1≤ 𝛼

Donde:

Ω: Denota el conjunto que contiene todas las asignaciones realizadas de manera

aleatoria de la población de todas las posibles asignaciones (𝑛1+𝑛2𝑛1 𝑛2

). La cardinalidad

de este conjunto es 𝐵.

Page 70: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

50

𝐴:𝑅 × 𝑅 → {0,1} Donde 𝐴 toma el valor de uno si 𝑇𝑘(𝑧) es igual o más extremo que

𝑇(𝑧) y toma el valor de cero si ocurre lo contrario. En la elaboración del diagrama

de flujo de los algoritmos a ∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω se denomina 𝑛𝑔𝑒.

Los principios de la prueba de permutación realizada con distribución Monte Carlo,

son los mismos que las de permutaciones sistemáticas, la única diferencia es que

aquella trabaja con el conjunto Ω tal que Ω ⊂ Π. Para ilustrar esta parte, enseguida

se muestra un ejemplo.

Ejemplo 2.3.1. Un ingeniero industrial que labora en una fábrica de cemento creó

una fórmula de cemento que supuestamente presenta mejor fuerza de tensión de

adhesión, comparada con una formulación estándar. El ingeniero realiza el

experimento y los datos se presentan en el Cuadro 2.2.5.

La prueba de hipótesis que se quiere realizar es la bilateral

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 ≠ 𝜏2

Esto es,

H0: 𝜇 𝑚𝑜𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 = 𝜇sin 𝑚𝑜𝑑

H1: 𝜇𝑚𝑜𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 ≠ 𝜇𝑠𝑖𝑛 𝑚𝑜𝑑

Cuadro 2.2.5. Datos de la fuerza de la tensión de adhesión del experimento de la formulación del cemento.

Escriba aquí la ecuación. Cemento modificado Cemento sin modificar

𝑗 𝑦𝑗 𝑥𝑗

1 16.85 17.50

2 16.40 17.63

3 17.21 18.25

4 16.35 18.00

5 16.52 17.86

Page 71: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

51

6 17.04 17.75

7 16.96 18.22

8 17.15 17.90

9 16.59 17.96

10 16.57 18.18

Fuente (Montgomery, 2004).

Resultado con la prueba de permutaciones sistemática:

𝑃H0[|𝑇(𝑧)| ≥ |T(𝑧)|] =

∑ 𝟏[|𝑇𝑘(𝑧)|≥|T(z)|]184,756𝑘=1

184,756= 0.000001082

El resultado con la prueba de permutación con distribución Monte Carlo es:

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =

∑ 𝐴[|𝑇𝑘(𝑧)|,|𝑇(𝑧)|] + 1𝜋𝜖Ω

𝐵 + 1=

∑ 𝟏[|𝑇𝑘(𝑧)|≥|T(z)|] + 120,000𝑘=1

20,000 + 1

= 0.000004999

El diagrama de flujo de una prueba de permutación con distribución Monte

Carlos se muestra en el capítulo 3 figura 3.1.2, de igual manera en ese mismo

capítulo sección 3.2 se proporciona la validación de la distribución Monte carlo.

2.2.4 Diseño de comparaciones de parejas aleatorizadas

De manera similar que el apartado de muestras pareadas, en este apartado se

estudia a esta misma pero desde el punto de vista de pruebas de permutación.

Para los experimentos con observaciones pareadas, la prueba de permutación es

construida de manera un poco diferente. En este caso, al igual se consideran dos

tratamientos 𝜏1 y 𝜏2, y cada una de las réplicas del experimento se realiza de manera

pareada. En el Cuadro 2.2.6 se ilustra el diseño de parejas aleatorizadas

denominadas, debido a que el tratamiento se asigna de manera aleatoria al

tratamiento 1 o tratamiento 2.

Page 72: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

52

Cuadro 2.2.6. Arreglo de un diseño experimental con observaciones pareadas

𝑃𝑎𝑟𝑒𝑗𝑎 𝑖 𝜏1 𝜏2

1 𝑋1 𝑌1 2 𝑋2 𝑌2

⋮ ⋮ ⋮ 𝑛 𝑋𝑛 𝑌𝑛

* Para para la pareja aleatorizada 𝑖 si la unidad experimental se asigna a 𝜏1, entonces 𝜏2 se

asigna la unidad experimental que es pareja correspondiente a la asignada a 𝜏1 o viceversa.

Supuestos:

La distribución de donde provienen los datos debe ser simétrica.

Cada una de las 𝑑𝑖 , definidas más adelante, son independientes e idénticamente

distribuidas, es decir, son intercambiables.

Donde:

𝑥𝑖: denota la observación i − ésima en el tratamiento 𝜏1

𝑦𝑖: denota la observación i − ésima en el tratamiento 𝜏2

(𝑥𝑖, 𝑦𝑖): denota la i − ésima observación pareada

El estadístico de prueba para el arreglo original mostrado en el Cuadro 2.2.6 es:

𝑑(𝑧) = 𝑑

𝑑 =1

𝑛∑𝑑𝑖

𝑖

Donde

Y 𝑑𝑖 = 𝑦𝑖 − 𝑥𝑖

𝑛 denota el número de observaciones pareadas

𝑖 denota la − ésima observación pareada

Para este diseño de observaciones pareadas, la manera en que se generan las

asignaciones es muy simple y un tanto diferente al diseño estudiado en el diseño

aleatorizado. Debido a que las observaciones se realizan en partes de una misma

unidad o ejemplar, entonces 𝑥𝑖 tiene únicamente una 𝑦𝑖 correspondiente, entonces

Page 73: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

53

para la 𝑖 − é𝑠𝑖𝑚𝑜 unidad, las asignaciones posibles son:(𝑥𝑗 , 𝑦𝑗) o (𝑦𝑗 , 𝑥𝑗). Por lo

anterior, se puede inferir que para 𝑛 réplicas se tienen 2𝑛 posibles permutaciones.

Para la 𝑗 − é𝑠𝑖𝑚𝑎 permutación, el estadístico de prueba es el siguiente:

𝑑𝑘(𝑧) = 𝑑 𝑃𝑎𝑟𝑎 𝑘 = 1, 2, … , 2𝑗

Este último nos genera la distribución de aleatorización que es la distribución de

referencia, la cual proviene de la aleatorización de los elementos disponibles de los

tratamientos. El valor de 𝑑(𝑧) coincide con al menos un valor de 𝑑𝑘(𝑧), ya que la

muestra original es 𝑧, una posible combinación de las 2𝑗 posibles 𝑧. Cada uno de los

arreglos 𝑧 tiene una estructura similar al Cuadro 2.2.6.

El contraste de hipótesis es el siguiente:

H0: 𝜇𝑑 = 0

H1: 𝜇𝑑 ≠ 0

Que es equivalente a la prueba de hipótesis equivalente

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 ≠ 𝜏2

El cálculo del 𝑝-valor es de la manera siguiente:

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[|𝑑𝑘(𝑧)|, |𝑑(𝑧)|] =

∑ 𝐴[|𝑑𝑘(𝑧)|,|𝑑(𝑧)|]𝜋𝜖Π

2𝑗

De manera similar que en el diseño completamente al azar, el valor 𝑝 aumenta para

cada valor |𝑑𝑘(𝑧)| que sea igual o más extremo que |𝑑(𝑧)|. En el Apéndice B.2 se

muestra el diagrama de flujo para esta prueba. Para entender este diseño de

comparaciones con parejas aleatorizadas, enseguida se muestra un ejemplo.

Ejemplo 2.4.2. Considere una máquina para medir la dureza de barras de metales.

Esta máquina trabaja de la siguiente manera: presiona una barra de metal con una

punta afilada sobre un ejemplar de prueba de metal con una fuerza conocida. Al

Page 74: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

54

medir la profundidad de la depresión producida por la punta, se determina la dureza

del ejemplar. En esta máquina pueden instalarse dos puntas diferentes y aun

cuando la precisión de las mediciones hechas con las dos puntas parece ser la

misma, se sospecha que una de las puntas produce diferentes lecturas de la dureza

que la otra.

El ingeniero a cargo selecciona al azar 20 ejemplares de metal. Al inicio el ingeniero

se plantea el diseño experimental completamente al azar para probar las puntas. La

mitad de los ejemplares de prueba se prueban con la punta 1 y el resto con la punta

2. La asignación exacta de los ejemplares de prueba se determina de manera

aleatoria.

En el diseño experimental planteado por el ingeniero se puede percibir que el diseño

completamente al azar no es la mejor opción, suponiendo que los ejemplares de

prueba de metal se cortaron de barras diferentes que se fabricaron a temperaturas

diferentes o que no fueran homogéneas en cualquier otra situación que afectara su

dureza. Esta falta de homogeneidad entre los ejemplares de prueba contribuye a

que los efectos perturbadores aumenten, haciendo más difícil detectar las

diferencias reales entre las puntas. Entonces, para evitar este problema se toman

10 ejemplares de pruebas de tamaño suficiente como para ser cortado a la mitad,

una punta se prueba en una mitad y la otra punta en la mitad restante. Los datos de

este ejemplo se presentan en el Apéndice B.3. En la Figura 2.2.2 se proporciona

una gráfica donde se plasman los datos observados de la dureza del ejemplar

medido en la punta 1 y punta 2.

Page 75: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

55

Recuerde que la prueba de hipótesis es:

H0: 𝜏1 = 𝜏2 = 0

H1: 𝜏1 ≠ 𝜏2

Que equivale a escribirlo de la manera siguiente:

H0: La media de las mediciones de la dureza realizadas por la punta 1 es igual a la punta 2.

H1: La media de las mediciones de la dureza realizadas por la punt 1 y punta 2 son diferentes

|𝑑(𝑧)| = |1

𝑛∑ 𝑑𝑗𝑗 | Donde 𝑑𝑗 = 𝑦𝑗 − 𝑥𝑗 y en este caso |𝑑(𝑧)| = 0.1.

Bajo la hipótesis nula, considerando las 10 observaciones pareadas de la dureza

obtenida por la punta 1 y punta 2, entonces se tienen 210 = 1024 arreglos

(asignaciones) posibles e igualmente probables. De manera que, para probar la

hipótesis nula debería compararse |𝑑(𝑧)| = 0.1 con las otras |𝑑𝑘(𝑧)| para 𝑗 =

1,2, . . , 1024. Resulta que las 1024 diferencias obtenidas en el proceso de

aleatorización dan valores iguales o más extremos a 0.1.

Fuente: Elaboración propia.

*En el ejemplar 2, 5 y 8 las puntas midieron igual medida de la dureza Figura 2.2.2 Puntos comparativo de la dureza medida con punta 1 y punta 2.

Page 76: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

56

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑑𝑘(𝑧) ≥ 𝑑(𝑧)] =

∑ 𝟏{𝑑𝑘(𝑧)≥d(z)}1024𝑘=1

1024= 1024

1024⁄

El cálculo del 𝑝 valor = 1. Por lo tanto, con un nivel de significancia 𝛼 = 0.05 no

existe evidencia para rechazar la hipótesis nula. En la Figura 2.2.3 se muestra el

histograma del estadístico.

2.2.5 Prueba exacta

Lema 3.2.1. Si el nivel de significancia es 𝛼 =𝑠1+𝑠2

2𝑗 y si toma como región crítica

(−∞, 𝑑(𝑧)𝑠1] y [ 𝑑(𝑧)𝑠1

, + ∞), tal que 𝑠1 = 𝑠2 y cumplen con ser enteros positivos.

Entonces la prueba de permutación es exacta, esto es,

𝑃H0(rechazar H0| H0) = 𝛼

La prueba de permutación es exacta, esto es

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) =𝑠1 + 𝑠2

2𝑗= 𝛼

En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠1 − é𝑠𝑖𝑚𝑜 más pequeño y 𝑠2 − é𝑠𝑖𝑚𝑜 más

grande en {𝑑𝑘(𝑧): 𝑧 𝜖 Π}.

Figura 2.2.3 . Histograma del estadístico 𝑑𝑘(𝑧).

Page 77: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

57

2.3 Diseño experimental completamente al azar

En este apartado se estudia las pruebas de permutación orientadas al diseño

experimental completamente al azar. Se proporciona una definición de este diseño

desde la perspectiva de una prueba de permutación, supuestos, prueba con

permutaciones aleatorias y un método de comparación múltiple cuando el ANOVA

de permutación detecta diferencia entre los tratamientos. Por último, se presenta un

ejemplo para hacer más ilustrativo esta metodología.

2.3.1 Permutaciones sistemáticas en un diseño completamente al azar

De acuerdo a Ernst (2004), Rodgers (1999) y Good (1993) se define una prueba de

permutación para un diseño unifactorial con permutación sistemática de la manera

siguiente:

Definición 2.3.1. Una prueba de permutación 𝑇 de nivel 𝛼 para el contraste

H0(igualdad) Vs H1(diferencia), consiste en un arreglo bidimensional de 𝑡 columnas

(tratamientos) con 𝑛𝑗 renglones (réplicas) para cada uno de las 𝑡 columnas, con 𝑗 =

1, 2, … , 𝑡, cuyo arreglo es denotada por 𝑧, un estadístico 𝑇(𝑧) y un criterio de

aceptación 𝐴: 𝑅 × 𝑅 → {0,1} donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al menos tan

extremo como 𝑇(𝑧) y toma el valor de cero si ocurre lo contrario.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π

( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!

)≤ 𝛼

Donde

Π Es el conjunto de todas las posibles asignaciones (combinación). La cardinalidad

de este conjunto es ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

).

𝑇(𝑧) Denota el estadístico computado para la muestra original.

𝑇𝑘(𝑧) Denota el estadístico computado para la 𝑘 − é𝑠𝑖𝑚𝑎 asignación.

Page 78: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

58

Cuadro 2.3.1. Tabla diseño completamente al azar cuyo arreglo tiene por 𝑧

Tratamientos

1 2 … 𝑡

𝑥11 𝑥21 … 𝑥𝑡1

𝑥12 𝑥22 … 𝑥𝑡2

⋮ ⋮ … ⋮

𝑥1𝑛1 𝑥2𝑛2

… 𝑥𝑡𝑛𝑡

Volviendo la atención a la definición 2.3.1., se puede percatar que dicha definición

no ofrece una descripción clara de una prueba de permutación, para hacer

entendible esta prueba enseguida se proporciona una descripción explícita de dicha

prueba.

“En una prueba de permutación en el diseño experimental completamente al azar,

se realizan todas las asignaciones ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

) posibles, y se calcula un

estadístico de prueba para cada una de las asignaciones generada de los datos,

estos valores definen la distribución de referencia para la prueba, finalmente la

proporción de datos con un valor del estadístico al menos tan extremo que el valor

del estadístico de los datos experimentales determinan el 𝑝 valor” (Edgington,

1995).

El número de asignaciones se obtiene de la siguiente manera: se tienen 𝑛 = 𝑛1 +

𝑛2 + ⋯+ 𝑛𝑡 observaciones totales, estas se van a dividir en grupos de tamaño 𝑛1

que le corresponde a 𝜏1, 𝑛2 que le corresponde a 𝜏2 … 𝑛𝑡 que le corresponde a 𝜏𝑡.

EL estadístico a emplear es el siguiente:

𝑇(𝑧) =

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜

𝑡−1𝑆𝑆𝑒𝑟𝑟𝑜𝑟

𝑛−𝑡

2.3.1

Por lo que el estadístico para cada una de las asignaciones es

Page 79: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

59

𝑇𝑘(𝑧) =𝑆𝑆𝐾

𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1

𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟

𝑛−𝑡

Para 𝑘 = 1, 2, … , ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

) 2.3.2

Esto genera la distribución de referencia que proviene de la asignación aleatoria de

las observaciones disponibles a los tratamientos. Es importante recalcar que 𝑇(𝑧)

está considerado en algunos de los 𝑇𝑘(𝑧) =𝑆𝑆𝐾

𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1

𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟

𝑛−𝑡

para 𝑘 =

1, 2, … , ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!

), esto porque 𝑧 es una de las ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

) combinaciones

posibles denotadas por 𝑧. Cada uno de los arreglos 𝑧 tiene una estructura similar a

la presentada en el Cuadro 2.3.1.

Las sumas de cuadrados requeridos se calculan de la siguiente manera:

𝑆𝑆𝑇 = ∑∑𝑦2𝑖𝑗

𝑛𝑖

𝑗

𝑡

𝑖

−𝑦2

..

𝑛

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =1

𝑛𝑖∑ 𝑦2

𝑖.

𝑡

𝑖

−𝑦2

..

𝑛

𝑆𝑆𝑒𝑟𝑟𝑜𝑟 = 𝑆𝑆𝑇 − 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠

De manera que el cálculo del 𝑝-valor se obtiene como se muestra en la ecuación

de abajo:

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Π

( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!

)=

∑ 𝟏[𝑇(𝑧)≥T(z)]

( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!)

𝑘=1

( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!

)

=

∑ 𝟏[

𝑆𝑆𝐾𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜

𝑡−1

𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟

𝑛−𝑡

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1

𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝑛−𝑡

]

( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!)

𝑘=1

( 𝑛𝑛1! 𝑛2!…𝑛𝑡−1!

)

Page 80: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

60

Como se puede notar en la ecuación de arriba, el valor 𝑝 aumenta para cada valor

𝑇𝑘(𝑧) que sea igual o más extremo que 𝑇(𝑧).

Esta prueba es exacta y enseguida se muestra el lema.

Lema 2.3.1 Si el nivel de significancia es 𝛼 =𝑠

( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!)

y si toma como región

crítica [ 𝑇(𝑧)𝑠, + ∞), la prueba de permutación es exacta, esto es,

𝑃H0(rechazar H0| H0) = 𝛼

En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠 − é𝑠𝑖𝑚𝑜 más grande en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}

Como la distribución de aleatorización es discreta entonces el 𝑝 valor debe ser un

múltiplo de 1( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

)⁄ , sin embargo, no todos los múltiplos son posibles.

Entonces

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

)⁄= 𝛼

Si 𝑠 es un múltiplo de 𝛼 se cumple la igualdad de arriba, pero si 𝑠 no es múltiplo

de 𝛼 se tiene lo siguiente:

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

)⁄< 𝛼

Desafortunadamente esta prueba de permutación sistemática, es difícil en la

práctica, aun con muestras pequeñas por lo que se trabaja con permutación

empleando la distribución Monte Carlo.

Supuestos de un prueba de permutación en el diseño completamente al azar

Las pruebas de permutación cumplen determinados supuestos para llevarse a cabo.

Considerar como apoyo el Cuadro 2.3.1 para entender mejor los supuestos. Los

datos consisten de 𝑛 = ∑ 𝑛𝑖𝑡𝑖=1 observaciones, con 𝑛𝑖 observaciones del 𝑖 𝑡ℎ

tratatamiento 𝑖 = 1,2, … , 𝑡.

Page 81: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

61

Supuesto. Las 𝑡 ∗ 𝑛𝑖 variables aleatorias {𝑋11, 𝑋12, … , 𝑋1𝑛1, …𝑋𝑖1,

𝑋𝑖2, … , 𝑋𝑖𝑛𝑖, … , 𝑋𝑡1, 𝑋𝑡2, … , 𝑋𝑡𝑛𝑡

}, 𝑖 = 1, … , 𝑡, son mutuamente independientes e

idénticamente distribuidas. Lo anterior quiere decir que las 𝑡 ∗ 𝑛𝑖 variables son

variables aleatorias intercambiables.

Las funciones de distribuciones 𝐹1, … , 𝐹𝑡 son conectadas a través de la relación

𝐹𝑖(𝑠) = 𝐹(𝑠 − 𝜏𝑖), −∞ ≤ 𝑠 ≤ ∞

Para 𝑖 ∈ {1,… , 𝑡}, donde 𝐹 es una función de distribución para una distribución

continua con media desconocida, 𝜃 y 𝜏𝑖 es el efecto del tratamiento para la 𝑖 𝑡ℎ

población. Por lo que la hipótesis nula de interés es:

H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0

El razonamiento de pruebas de permutación es que los resultados obtenidos en el

experimento, como se muestra en la tabla de arriba, solo es una de las

( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

) posibles permutaciones bajo H0. Donde H0: no hay diferencia entre

las medias de los tratamientos.

2.3.2 Distribución Monte Carlo en un diseño completamente al azar

En una prueba de permutación con permutaciones sistemáticas se trabaja con todas

las posibles asignaciones ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!

), sin embargo, en una prueba de

permutación con distribución Monte Carlo únicamente trabaja con una muestra

aleatoria con remplazo de la población de todas las asignaciones ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!

)

posibles. El cálculo del 𝑝 valor para una prueba de permutación con distribución

Monte Carlo es obtenido mediante la siguiente ecuación.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), T(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω + 1

𝐵 + 1=

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝐵𝑘=1 + 1

𝐵 + 1≤ 𝛼

Donde:

Page 82: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

62

Ω: Denota el conjunto que contiene todas las asignaciones realizadas de manera

aleatoria de todas las posibles asignaciones ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!

). La cardinalidad de este

conjunto es 𝐵.

𝐴:𝑅 × 𝑅 → {0,1} Donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al menos tan extremo como

𝑇(𝑧) y toma el valor de cero sí ocurre lo contrario. En el diagrama de flujo de los

algoritmos a ∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω se denomina 𝑛𝑔𝑒. El arreglo 𝑧 es similar al cuadro

2.3.1.

El estadístico 𝑇(𝑧) empleado en este apartado para el arreglo experimental es el

que tiene por ecuación 2.3.1, mientras que el estadístico dado por la ecuación 2.3.2

es empleado para cada una de las combinaciones extraídas de manera aleatoria.

La metodología para el diseño completamente al azar con distribución Monte Carlo

se muestra enseguida (Edgington, 1995) y en capítulo 3 se muestra su diagrama de

flujo.

1. Calcular el estadístico 𝑇(𝑧) para el arreglo original mostrado en el Cuadro

2.3.1.

2. Realizar la asignación 𝑘.

El total de las 𝑛 = ∑ 𝑛𝑖𝑡𝑖=1 observaciones las lleva a una urna, entonces,

extraer una por una. Las primeras 𝑛1 extracciones aleatorias son asignadas

al tratamiento 1, las segundas 𝑛2 extracciones aleatorias son asignadas al

tratamiento 2…, las últimas restantes 𝑛𝑡 extracciones son asignadas al

tratamiento 𝑡, de manera que se obtiene un arreglo similar al del Cuadro

2.3.1.

3. Calcular el estadístico 𝑇(𝑧) para la asignación obtenida en el paso 2. La cual

se denota 𝑇𝑘(𝑧).

4. Si 𝑇𝑘(𝑧) ≥ 𝑇(𝑧) entonces incrementar 1 la variable 𝑛𝑔𝑒.

5. Se repite el paso 2, 3 y 4 𝐵 veces.

Page 83: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

63

6. Dividir el valor de la variable 𝑛𝑔𝑒 + 1 por 𝐵 + 1 para calcular la probabilidad

de obtener un valor de 𝑇𝑘(𝑧) igual o más extremo como 𝑇(𝑧) bajo la hipótesis

nula. Este valor es denominado el 𝑝 valor.

7. Rechazar la hipótesis nula si 𝑝 ≤ 𝛼.

Ejemplo 2.3.1. Se tiene una investigación donde se quiere saber si leer rápido es

afectado por el tipo de letra del texto. Para esto, 15 individuos fueron asignados

aleatoriamente a uno de los tres tipos de texto con determinada tipo letra y su

velocidad de lectura fue anotada en el Cuadro 2.3.2. (Ernst, 2004).

Cuadro 2.3.2. Tabla comparativa de los tipos de texto

Estilo del texto

1 2 3

135 175 105

91 130 147

111 514 159

87 283 107

122 . 194

𝑦𝑡 109 275.5 142.4

Fuente (Ernest, 2004)

*En el cuadro solo se tomaron 14 datos, debido a que en un individuo no se pudo realizar el experimento por causa ajenas a este.

En la Figura 2.3.1. Se presenta una gráfica comparativa donde se muestra la

velocidad de lectura respecto a cada tipo de texto.

Page 84: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

64

Con 𝐵 = 9999 el 𝑝 valor para la prueba de hipótesis se muestra a continuación.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 1𝜋𝜖Ω

𝐵 + 1=

∑ 𝟏[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 19999𝑘=1

9999 + 1

= 0.0109

Este resultado es similar al 𝑝 obtenido para el mismo ejercicio con el método de

Monte Carlo presentado en el artículo de permutation methods (Ernst, 2004).

Entonces, con un nivel de significancia del 0.05 existe evidencia en contra la

hipótesis nula.

2.4 Diseño experimental de bloques completamente al azar (bca)

En la definición 1.1.14 se proporciona la definición clara y sencilla del diseño

experimental de bloques al azar. Los bloques son empleados para reducir la

influencia de efectos perturbadores. Un bloque crea condiciones homogéneas para

comparar los tratamientos.

Fuente Elaboración propia

Figura 2.3.1 Comparación de velocidades de lectura.

Page 85: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

65

2.4.1 Permutaciones sistemáticas en un diseño (bca)

De acuerdo a Montgomery (2004) y Good (1993), una prueba de permutación para

un diseño unifactorial con bloques al azar con permutación sistemática se puede

definir de la manera siguiente:

Definición 2.4.1. Una prueba de permutación 𝑇 de nivel 𝛼 para el contraste

H0(igualdad) Vs H1(diferencia). Consiste en una matriz de 𝑡 columnas (tratamientos)

por 𝑏 renglones (bloques) cuyo arreglo es denotada por 𝑧, un estadístico 𝑇(𝑧) y un

criterio de aceptación 𝐴: 𝑅 × 𝑅 → {0,1} donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al

menos tan extremo como 𝑇(𝑧) y toma el valor de cero sí ocurre lo contrario.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 =∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π

𝑡!𝑏≤ 𝛼

En este diseño los tratamientos son aleatorizados dentro de bloques, por lo que los

bloques representan una restricción sobre la aleatorización.

Donde

Π Es el conjunto de todas las posibles asignaciones. La cardinalidad de este

conjunto es 𝑡!𝑏.

𝑇(𝑧) Denota el estadístico computado para la muestra original.

𝑇𝑘(𝑧) Denota el estadístico computado para la 𝑘 − é𝑠𝑖𝑚𝑎 asignación.

Page 86: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

66

Volviendo la atención a la definición 2.4.1, se puede percatar que dicha definición

no brinda una descripción clara de una prueba de permutación. Para hacer más

entendible esta prueba, enseguida se proporciona una descripción explícita de

dicha prueba.

“En una prueba de permutación para el diseño experimental de bloques

completamente al azar, se realizan todas las asignaciones 𝑡!𝑏 posibles, y se calcula

un estadístico de prueba para cada una de las asignaciones (permutaciones)

generada de los datos, estos valores definen la distribución de referencia para la

prueba, finalmente la proporción de datos con un valor del estadístico al menos tan

extremo que el valor del estadístico de los datos experimentales determinan el 𝑝

valor” (Edgington, 1995).

En este diseño se tienen 𝑛 = 𝑏𝑡 observaciones totales. Para el arreglo original se

tienen 𝑏 bloques, los cuales son heterogéneos entre sí, pero dentro de cada uno de

estos se crea una condición homogénea para probar todos los tratamientos.

Entonces, en cada uno de los 𝑏 bloques, a cada tratamiento se le asigna en forma

aleatoria. Bajo la hipótesis nula en el bloque 𝑖 se tienen 𝑡! maneras asignar cada

observación a los distintos tratamientos (generar asignación dentro del bloque) y

como se tienen 𝑏 bloques entonces se tendrán 𝑡!𝑏 asignaciones.

Fuente. Elaboración propia

Figura 2.4.1 Diseño de bloques completamente al azar.

Page 87: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

67

El estadístico a emplear es el siguiente:

𝑇(𝑧) =

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜

𝑡−1𝑆𝑆𝑒𝑟𝑟𝑜𝑟

𝑏−1

2.4.1

Por lo que el estadístico para cada una de las combinaciones es:

𝑇𝑘(𝑧) =𝑆𝑆𝐾

𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1

𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟

𝑏−1

Para 𝑘 = 1, 2, … , 𝑡!𝑏 2.4.2

Esto genera la distribución de referencia que proviene de la asignación aleatoria de

las observaciones disponibles a los tratamientos. Es importante recalcar que 𝑇(𝑧)

esta considerado en algunos de los 𝑇𝑘(𝑧) =𝑆𝑆𝐾

𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1

𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟

𝑏−1

para 𝑘 = 1, 2, … , 𝑡!𝑏, esto

porque 𝑧 esta es una de las 𝑡!𝑏 combinaciones posibles denotadas por 𝑧. Cada uno

de los arreglos 𝑧 tiene una estructura similar a lo mostrado en la Figura 2.4.1.

Las sumas de cuadrados requeridos se calculan de la siguiente manera:

𝑆𝑆𝑇 = ∑∑𝑦2𝑖𝑗

𝑏

𝑗

𝑡

𝑖

−𝑦2

..

𝑛

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =1

𝑏∑𝑦2

𝑖.

𝑡

𝑖

−𝑦2

..

𝑛

𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠 =1

𝑡∑𝑦2

.𝑗

𝑏

𝑗

−𝑦2

..

𝑛

𝑆𝑆𝑒𝑟𝑟𝑜𝑟 = 𝑆𝑆𝑇 − 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 − 𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠

De manera que el cálculo del 𝑝-valor se obtiene como se muestra en la ecuación

de abajo:

Page 88: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

68

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Π

𝑡!𝑏=

∑ 𝟏[𝑇(𝑧)≥T(z)]𝑡!𝑏

𝑘=1

𝑡!𝑏

=

∑ 𝟏[

𝑆𝑆𝐾𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜

𝑡−1𝑆𝑆𝑘

𝑒𝑟𝑟𝑜𝑟𝑏−1

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1

𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝑏−1

]

𝑡!𝑏

𝑘=1

𝑡!𝑏

Como se puede notar en la ecuación de arriba, el valor 𝑝 aumenta para cada valor

𝑇𝑘(𝑧) que sea igual o más extremo que 𝑇(𝑧).

Supuestos de una prueba de permutación en el diseño bloques completamente al azar

Los datos consisten en 𝑛 = 𝑡 ∗ 𝑏 observaciones, en cada bloque hay una y solo

una observación de cada tratamiento, es decir, el diseño es balanceado y en el

bloque 𝑗 se tienen 𝑖 observaciones para 𝑖 = 1, 2, … , 𝑡 y 𝑗 = 1, 2, … , 𝑏.

Supuestos. Las 𝑛 variables aleatorias 𝑋1𝑗, 𝑋2𝑗, 𝑋3𝑗, … ,𝑋𝑡𝑗, son independiente e

idénticamente distribuidas, esto es, las variables aleatorias dentro de cada

bloque son variables aleatorias intercambiables y entre bloques no son

intercambiables.

Cada valor fijo (𝑖, 𝑗), con variables 𝑋𝑖𝑗 𝑖 = 1, 2, … , 𝑡 y 𝑗 = 1, 2, … , 𝑏 son variables

aleatorias de una muestra de una distribución continua con distribución 𝐹𝑖𝑗 .

Las funciones de distribución son 𝐹11, … , 𝐹𝑡1, … , 𝐹1𝑏 , … , 𝐹𝑡𝑏 están conectadas a

través de la relación:

𝐹𝑖𝑗(𝑠) = 𝐹(𝑠 − 𝛽𝑗 − 𝜏𝑖) , − ∞ < 𝑠 < ∞

Para 𝑖 = 1, 2, … , 𝑡 y 𝑗 = 1, 2, … , 𝑏. 𝐹 es una función de distribución con media

desconocida 𝜃, 𝛽𝑗 es el efecto aditivo desconocido del bloque 𝑗 ésimo y 𝜏𝑖 es el

efecto aditivo desconocido por el tratamiento 𝑖 ésimo.

Por lo que la hipótesis nula es:

Page 89: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

69

H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0

2.4.2 Distribución Monte Carlo en un diseño bca

En una prueba de permutación con permutaciones sistemáticas se trabajan con

todas las 𝑡!𝑏 posibles asignaciones, sin embargo, en una prueba de permutación

con distribución Monte Carlo, únicamente se trabaja con una muestra aleatoria de

la población de todas las asignaciones 𝑡!𝑏 posibles e igualmente probables.

El cálculo del 𝑝 valor para una prueba de permutación con distribución Monte Carlo

es obtenido mediante la siguiente ecuación.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), T(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω + 1

𝐵 + 1=

∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝐵𝑘=1 + 1

𝐵 + 1≤ 𝛼

Donde:

Ω: Denota el conjunto que contiene todas las asignaciones realizadas de manera

aleatoria de todas las posibles combinaciones 𝑡!𝑏. La cardinalidad de este conjunto

es 𝐵.

𝐴:𝑅 × 𝑅 → {0,1} Donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al menos tan extremo como

𝑇(𝑧)y toma el valor de cero sí ocurre lo contrario. En la elaboración del diagrama de

flujos de los algoritmos a ∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω se denomina 𝑛𝑔𝑒. El arreglo 𝑧 es similar a

la figura 2.4.1.

El estadístico 𝑇(𝑧) empleado en este apartado (ecuación 2.4.1) y para las

combinaciones, es el que tiene por ecuación 2.4.2 del mismo apartado. La

metodología para el diseño completamente al azar con distribución Monte Carlo se

muestra enseguida (Edgington, 1995).

1. Calcular el estadístico 𝑇(𝑧) para el arreglo original mostrado en la Figura

2.4.1.

2. Generar la combinación 𝑘.

Page 90: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

70

3. Calcular el estadístico 𝑇(𝑧) para la combinación obtenida en el paso 2. La

cual se denota 𝑇𝑘(𝑧).

4. Si 𝑇𝑘(𝑧) ≥ 𝑇(𝑧) entonces incrementar 1 la variable 𝑛𝑔𝑒.

5. Se repite el paso 2, 3 y 4 𝐵 veces.

6. Dividir el valor de la variable 𝑛𝑔𝑒 + 1 por 𝐵 + 1, para calcular la probabilidad

de obtener un valor de 𝑇𝑘(𝑧) igual o más extremo como 𝑇(𝑧) bajo la hipótesis

nula. Este valor es denominado el 𝑝 valor.

7. Rechazar la hipótesis nula si 𝑝 ≤ 𝛼.

El diagrama de flujo de dicha distribución se muestra en el Capítulo 3.

Ejemplo 2.4.1. Considere un experimento que cuenta con tres tratamientos y 10

bloques, se cree que existe diferencia entre los tratamientos pero que se realiza un

análisis de los datos verificar la existencia de alguna diferencia.

Cuadro 2.4.1. Datos del experimento del ejemplo 2.4.1.

Tratamiento

Bloque 1 2 3

1 6 7 8

2 7 6 7

3 4 8 9

4 5 9 7

5 7 5 8

6 3 4 10

7 5 6 7

8 8 8 9

Page 91: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

71

9 7 7 10

10 6 5 7

Con 𝐵 = 9999 el 𝑝 valor para la prueba de hipótesis se muestra a continuación.

𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =

∑ 𝐴[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 1𝜋𝜖Ω

𝐵 + 1=

∑ 𝟏[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 19999𝑘=1

9999 + 1

= 0.0034

Entonces, con un nivel de significancia del 0.05, existe evidencia contra la hipótesis

nula. El 𝑝 valor obtenido con el anova paramétrico es 0.0050.

En el caso de pruebas de permutación el diseño de bloques para tamaños de

muestra pequeños el análisis conjunto mantiene buena potencia excepto para

prueba de pares de medias, donde no es capaz de detectar diferencias.

2.5 Comparación de pares de medias

De manera similar que en la sección 1.7, en este apartado se proporcionan métodos

de comparaciones de pares de medias empleando el principio de pruebas de

permutación. Se exponen los métodos equivalentes al LSD de Fisher, reajuste del

𝑝 valor con el método de Bonferroni, método de Tukey, y el método de Benjamini y

Horchberg. Cada uno de los métodos anteriores será expuesto para el diseño

experimental completamente al azar y bloques al azar.

2.5.1 Diferencia mínima significativa de Fisher

La prueba de permutación equivalente a la diferencia mínima de Fisher se realiza

mediante la aplicación de las pruebas 𝑡 de permutación. La prueba 𝑡 de permutación

para dos poblaciones independientes es empleada para comparar pares de medias

en un diseño completamente aleatorizado (expuesta en la sección 2.2.1), mientras

que parejas aleatorizadas es empleada para comparar parejas de medias en un

diseño de bloques completamente al azar (expuesta en la sección 2.2.4). El número

Page 92: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

72

de comparaciones son (𝑡2), donde 𝑡 denota el número de tratamientos. Las pruebas

de hipótesis a considerar usando la prueba bilateral se muestra enseguida.

H0: 𝜏𝑖 = 𝜏𝑗 = 0

H0: 𝜏𝑖 ≠ 𝜏𝑗

Para 𝑖 ≠ 𝑗 y 𝑖, 𝑗 = 1, 2, 3, … , (𝑡2).

Para ilustrar esta metodología en un diseño completamente al azar, considere el

ejemplo 2.3.1. Se tiene una investigación donde se quiere saber si leer rápido es

afectado por el tipo de letra del texto. El 𝑝 valor del ANOVA de permutación en

dicho ejemplo resulta ser 0.0109, entonces con un nivel de significancia del 0.05

existe evidencia para el rechazo de la hipótesis nula. Ahora surgen preguntas como

¿Qué tipo de texto (con determinado tipo de letra) es el que más afecta en la

velocidad de lectura? ¿Cuáles son diferentes o iguales? Para resolver esta pregunta

será necesario recurrir a pruebas mediante pares de medias.

Se tiene 𝑡 = 3, por lo que hay (32) comparaciones. Enseguida se proporciona las (3

2)

comparaciones con sus respectivos 𝑝 valores.

Cuadro 2.5.1. Comparación de pares de medias con su respectivo p valor.

Comparaciones de

texto

Texto 1 Vs

Texto 2

Texto 1 Vs

Texto 3

Texto 2 Vs

Texto 3

𝒑 valor obtenido

de una prueba 𝒕 de

permutación

0.0159 0.127 0.0794

Respecto a los 𝑝 valores proporcionados por la prueba 𝑡 de permutación se

concluye que con un nivel de significancia del 0.05, únicamente el texto 1 y 2 difieren

estadísticamente.

Page 93: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

73

2.5.2 Ajuste del 𝑝 valor por el método de Bonferroni

Este método se explica de manera explícita en la sección 1.7, por lo que en este

apartado únicamente se menciona como ajustar el 𝑝 valor. El ajuste viene dado por:

𝑝 = min (𝑚 ∗ 𝑝𝑖, 1)

El rechazo se tiene cuando 𝑝 ≤ 𝛼 (Westfall & Young, 1993).

En al Cuadro 2.5.1 se muestra que con un nivel de significancia del 0.05, únicamente

el texto 1 y texto 2 tienen diferencia estadística significativa.

Para el diseño de bloques la metodología del ajuste del 𝑝 valor vía Bonferroni se

obtiene después de realizar las (𝑡2) comparaciones de pares de tratamientos,

obteniendo el mismo número de 𝑝 valores empleando la metodología descrita en la

sección 2.2 (parejas aleatorizadas). A cada uno de esos 𝑝 valores se multiplica por

(𝑡2) y estos son los ajustes del 𝑝.

Cuadro 2.5.2. Ajuste del P valor mediante el método de Bonferroni

Comparaciones de

texto

Texto 1 Vs

Texto 2

Texto 1 Vs

Texto 3

Texto 2 Vs

Texto 3

𝒑 valor ajustado

0.0476

0.0159*

0.2381

0.127*

0.381

0.0794*

*Los valores marcados con asterisco son los 𝑝 valores no ajustados.

2.5.3 Prueba de Tukey

El método permutación que a continuación se presenta es el equivalente al método

de Tukey expuesto en la sección 1.7. Este declara diferentes a dos tratamientos si

sus medias difieren por más que el valor crítico 𝐶𝛼. 𝐶𝛼 Es percentil con un valor 𝛼

Page 94: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

74

de cola derecha de la distribución max1≤𝑖≤𝑗≤𝑡

|𝑌𝑖 − 𝑌𝑗|. El método realiza comparaciones

múltiples controlando el FWER mediante el valor 𝐶𝛼 (Ernst, 2004).

𝑃 [ max1≤𝑖≤𝑗≤𝑡

|𝑌𝑖 − 𝑌𝑗| ≥ 𝐶𝛼|H0] = 𝛼 2.5.1

Asumiendo la hipótesis nula, que establece en cada una de las ( 𝑛𝑛1 𝑛2… 𝑛𝑡

) o 𝑡!𝑏

asignaciones aleatorias de un diseño completamente al azar y un diseño de bloques

al azar respectivamente, la probabilidad de la ecuación 2.5.1 es simplemente la

proporción de permutaciones para la cual se consideran significativas las

diferencias en las medias de los tratamientos. Eligiendo 𝐶𝛼 de manera que la

probabilidad de cola derecha sea 𝛼, es como se controla el error tipo I.

La manera de estimar 𝐶𝛼 es sencilla, se calculan las (𝑡2) diferencias de medias de

tratamientos, se elige la diferencia más grande, esto se realiza para cada una de las

permutaciones; posteriormente, con estas diferencias se genera una distribución de

diferencias 𝑚á𝑥(𝑌𝑖) − 𝑚í𝑛(𝑌𝑗). Por último, encontrar el cuantil 1 − 𝛼 de dicha

distribución (Ernst, 2004). El cálculo de �̂�𝛼, se hace obteniendo la distribución Monte

Carlo. Esta metodología es útil tanto para el diseño completamente al azar como

para el diseño de bloques al azar.

Para el ejemplo 3.1.1 se tienen 3 medias 𝑋𝑡𝑒𝑥𝑡𝑜 1 = 109.2, 𝑋𝑡𝑒𝑥𝑡𝑜 2 = 275.5 y

𝑋𝑡𝑒𝑥𝑡𝑜 3 = 142.4. El valor de �̂�0.05 = 142.15. Si se obtienen las diferencias |𝑋𝑡𝑒𝑥𝑡𝑜 1

𝑋𝑡𝑒𝑥𝑡𝑜 2| = 166.3, |𝑋𝑡𝑒𝑥𝑡𝑜 1

− 𝑋𝑡𝑒𝑥𝑡𝑜 3| = 33.2 y |𝑋𝑡𝑒𝑥𝑡𝑜 2

− 𝑋𝑡𝑒𝑥𝑡𝑜 3| = 133.1. La única

diferencia de medias que supera a �̂�0.05 es la diferencia de media del texto 1 y texto

2, entonces únicamente esas dos medias presentan diferencias estadísticas

significativas.

Page 95: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

75

2.5.4 FDR Bejamini y Hochberg

Este último método, a diferencia de los dos últimos, trabaja controlando el FDR.

Para más detalle se puede consultar la sección 1.7. Continuando con el ejemplo

2.3.1, enseguida se presenta este método.

De manera general, este método ordena los 𝑝 valores obtenidas por comparaciones

de pares de menor a mayor (𝑝(1), 𝑝(2), … , 𝑝(𝑛)), posteriormente se verifica que 𝑝𝑖 ≤

𝛼∗𝑖

(𝑡2)

. El valor máximo 𝑖 (𝑖 denota la comparación 𝑖), tal que 𝑝𝑖 cumple la desigualdad

anterior se le denomina 𝑝𝑘, entonces todos 𝑝𝑖′𝑠 menores al 𝑝𝑘 resultan pruebas

significantes con un nivel de significancia 𝐹𝐷𝑅 = 𝛼. En el Cuadro 2.5.3 se ilustra el

ejemplo 2.3.1 que es un diseño completamente al azar.

Cuadro 2.5.3. Método de Benjamini y Hochberg con una 𝐹𝐷𝑅 = 0.05

Compa

P valor (test

de

permutación)

𝒊 𝟎. 𝟎𝟓 ∗𝒊

(𝟑𝟐)

Método

BH

Texto 1 Vs

Texto 2 0.0159

1 0.0167 Significancia

Texto 2 Vs

Texto 3 0.0794

2 0.0333

No

significancia

Texto 1 Vs

Texto 2 0.127

3 0.05

No

significancia

Para el diseño de bloques, la metodología de Benjamini y Hochberg se obtiene

después de realizar las (𝑡2) comparaciones de pares de tratamientos, obteniendo el

mismo número de 𝑝 valores empleando la metodología descrita en la sección 2.2

Page 96: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

76

de parejas aleatorizadas. A cada uno de esos 𝑝 se ordenan de menor a mayor,

posteriormente se verifica que 𝑝𝑖 ≤𝛼∗𝑖

(𝑡2)

. El valor máximo 𝑖 tal que 𝑝𝑖 cumple la

desigualdad anterior se le denomina 𝑝𝑘, entonces todos 𝑝𝑖′𝑠 menores al 𝑝𝑘 resultan

pruebas significantes.

En el Apéndice B.4 se presentan los resultados de las comparaciones de pares

de medias del ejemplo 2.4.1, proporcionado en la sección de bloques al azar,

empleado en cada una de las metodologías anteriores de comparaciones

múltiples.

2.6 Histogramas y diagramas de cajas

Al llevar a cabo una prueba de permutación se debe cumplir que la varianza entre

grupos sean iguales, la distribución de probabilidad de las observaciones para cada

uno de los grupos es la misma con varianza igual a excepción sus medias. La

independencia de las observaciones, intercambiabilidad de las observaciones, se

da por hecho debido a la aleatorización.

Para hacer ilustrativo lo dicho en el párrafo anterior considere los siguientes datos :

tratamiento 1 (4.628, 4.378,4.009, 4.716, 4.994, 4.191, 4.840, 4.205, 4.359, 4.413,

4.571, 4.897) y un tratamiento 2 (2.584, 3.106, 2.990, 2.791, 2.977, 2.991, 2.694,

3.223, 2.508, 3.337, 3.114, 3.168). Para estos dos grupos el cálculo del 𝑝 valor

resulta ser 0.0001, entonces existe evidencia fuerte en contra la hipótesis nula. El

histograma nos proporciona idea sobra la distribución de los grupos, de esta manera

se verifica si los grupos tienen distribución semejante. Enseguida se proporciona el

histograma para el tratamiento modificado y tratamiento control.

Page 97: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

77

Como se puede ver en el gráfico Figura 2.6.1 las distribución de probabilidad para

el tratamiento 1 y el tratamiento 2 son semejantes, y claramente proporciona

también idea de la localización de las medias, es decir, se puede notar que la media

del tratamiento 1 es superior a la media del tratamiento 2.

Fuente: Elaboración propia

Fuente: Elaboración propia

Figura 2.6.1 Histograma del tratamiento 1 y tratamiento 2.

Figura 2.6.2 Diagrama de cajas del tratamiento 1 y tratamiento 2.

Page 98: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

78

El diagrama de cajas nos proporciona de manera gráfica la variabilidad presentada

por los dos grupos, y respecto a la información que muestra el gráfico figura 2.6.2

se puede observar que la varianza del tratamiento mejorado y el tratamiento control

son muy similares. De la misma manera se prosigue con los diseños experimentales

con al menos tres tratamientos. En el programa elaborado en python se proporciona

una opción para graficar los histogramas y diagramas de cajas, ambos se

proporcionan para el caso de un experimento comparativo simple (diseño

aleatorizado) mientras que para los diseños con más de dos tratamiento solo se

proporciona el diagrama de cajas.

2.7 Anova de permutación Vs anova paramétrico

En este apartado se compara la prueba de permutación con una prueba de análisis

paramétrico en el diseño experimental completamente al azar, en una situación

donde los supuestos se cumplen para la prueba paramétrica. Los datos a considerar

se muestran en la tabla 2.7.1.

Cuadro 2.7.1. Cuadro con los resultados de un determinado experimento

Replica

15 7 7 15 11 9

20 12 17 12 18 18

25 19 25 22 19 23

Paramétrica:

El 𝑝 obtenido: 0.0002, entonces con un nivel de significancia de 0.05 hay fuerte

evidencia en contra la hipótesis nula. Entonces se realizan las comparaciones de

pares de medias, se muestran en el cuadro 2.7.2:

Page 99: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

79

Cuadro 2.7.2. Resultados de las comparaciones múltiples paramétricos.

Comparaciones

Método 15 Vs 20 15 Vs 25 20 Vs 25

Tukey Diferencia Diferencia Diferencia

𝒕 de Fisher Diferencia Diferencia Diferencia

* Los tratamientos resultan significativos con un 𝛼 = 0.05

Anova de permutación:

El 𝑝 obtenido: 0.0003, entonces con un nivel de significancia de 0.05 hay fuerte

evidencia en contra la hipótesis nula. Entonces se realizan las comparaciones de

pares de medias, se muestran en el cuadro 2.7.3:

Cuadro 2.7.3. Resultados de comparaciones múltiples de permutación.

Comparaciones

Método 15 Vs 20 15 Vs 25 20 Vs 25

Tukey de

permutación

No diferencia Diferencia No diferencia

𝒕 de permutación Diferentes Diferentes Diferentes

* Los tratamientos resultan significativos con un 𝛼 = 0.05

Como puede notar el 𝑝 valor obtenido con la metodología paramétrica (anova) y la

metodología de prueba de permutación (anova de permutación) fueron similares.

Las comparaciones de pares de medias mediante la prueba de Tukey resulto ser

Page 100: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

80

más conservadora con la metodología de pruebas de permutación, mientras que la

prueba de diferencia mínima significativa proporcionó resultados semejantes a la

prueba de 𝑡 de permutación, dichos resultados se proporcionan en las tablas 2.7.2

y 2.7.3.

2.8 Simulación de la función potencia de la prueba.

A continuación se presentan simulaciones de la función potencia de la prueba, para

el caso de la prueba permutación comparada con la prueba paramétrica.

Considerando la prueba de hipótesis siguiente

H0: 𝜇1 = 𝜇2 𝑉𝑠 H0: 𝜇1 ≠ 𝜇2 2.8.1

Tomando en consideración la definición de la función potencia de la prueba

proporcionada en la definición 1.4.8, entonces se construye la función de potencia

para la prueba de hipótesis anterior y se tiene:

𝛽(𝜇1 − 𝜇2) = 𝑃{Rechazar H0|𝜇1 − 𝜇2} = {𝑃{Rechazar H0|𝜇1 − 𝜇2 = 0}

𝑃{Rechazar H0|𝜇1 − 𝜇2 ≠ 0} 2.8.2

Se consideraron muestras de poblaciones normales con varianzas iguales (𝜎2 = 9)

y el tamaño de muestra 𝑛 = 10. Enseguida se muestra el cuadro 2.8.1 los valores

obtenidos tras simular ecuación 2.8.2 para cada tipo de prueba.

Cuadro 2.8.1. Valores de la función de potencia

Dif. medias Prueba de permutación Prueba paramétrica

0 0.05 0.06

1 0.1 0.11

2 0.29 0.27

3 0.52 0.54

4 0.79 0.8

5 0.95 0.94

6 1 1

La grafica de la función potencia respecto al cuadro 2.8.1 se ilustra en la figura 2.8.1

Page 101: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 2

81

Cuando el supuesto de varianza constante en una prueba paramétrica no se

mantiene, la función de potencia de la prueba es pobre. Lo mismo ocurre con la

prueba de permutación. Se realizan tres simulaciones para cada tipo de prueba. Las

simulaciones se llevan a partir de muestras de poblaciones normales muestra 1 con

𝑁(𝜇1, 92) y muestra 2 𝑁(𝜇2, 102), cambiando la media de la muestra 2. A

continuación se presentan los resultados tras realizar las tres simulaciones de la

ecuación 2.8.2

Cuadro 2.8.2. Valores de la función potencia tras realizar tres simulaciones.

Dif. medias Permutación Paramétrica

Simulación Simulación

1 2 3 1 2 3

0 0.12 0.07 0.04 0.11 0.05 0.01

1 0.05 0.08 0.06 0.05 0.07 0.06

2 0.11 0.17 0.13 0.1 0.11 0.1

3 0.19 0.2 0.2 0.14 0.18 0.18

4 0.22 0.22 0.2 0.2 0.18 0.19

5 0.29 0.37 0.31 0.29 0.29 0.25

Las gráficas de los datos del cuadro 2.8.2 se muestran en las figuras 2.8.2 y 2.8.3

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0 1 2 3 4 5 6 7

P(r

ech

azar

H0

)

Espacio paramétrio

Funcion de potencia de laprueba (permutacion)

funcon de potencia de laprueba (parametrica)

Figura 2.8.1 Función potencia de pruebas de diferentes metodologías.

Page 102: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Pruebas de permutación en diseños experimentales

82

Como puede notar las pruebas de permutación pierden poder de manera similar

que las pruebas paramétricas cuando las diferencia entre las varianzas es grande.

El código de la simulación puede verificarse en el apéndice B.5.

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0 1 2 3 4 5 6

P(R

ech

azar

H0

)

Espacio paramétrico

Prueba de permutación

Simulación 2

Simulación 1

Simulación 3

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0 1 2 3 4 5 6

P(R

ech

azar

H0

)

Espacios paramétrico

Prueba paramétrica

simulación 2

Simulación 1

Simulación 3

Figura 2.8.2 Función potencia respecto al cuadro 2.8.2 (permutación).

Figura 2.8.3 Función potencia respecto al cuadro 2.8.2 (Paramétrica).

Page 103: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

83

Capítulo 3 3 Distribución Monte Carlo en

metodologías computacionales

3.1 Distribución Monte Carlo en pruebas de permutación

En este capítulo se estudian aspectos importantes sobre la distribución Monte Carlo.

Enseguida se muestra el diagrama de flujo del método de Monte Carlo.

Fuente (Noreen, 1989)

Figura 3.1.1 Diagrama de flujo del método de Monte Carlo

Page 104: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

84

La importancia de conocer aspectos acerca de esta distribución es debido a que se

utiliza para elaborar las pruebas de permutación en el diseño experimental

completamente al azar y el diseño de bloques al azar.

Como se puede notar en la Figura 3.3.1, el método de simulación Monte Carlo exige

tener la población. En el caso de una prueba de permutación con la metodología de

Monte Carlo, la población completa está constituida por cada una de las posibles

combinaciones, dependiendo del diseño experimental. El Método de Monte Carlo

requiere una muestra original de la población, entonces pruebas de permutación

llevadas a cabo con la metodología anterior, como muestra original se considera a

las observaciones obtenidas a partir del experimento. Además, el método de

simulación Monte Carlo exige extraer muestras aleatorias con remplazo de la

población,

Con respecto al párrafo anterior surge la siguiente pregunta ¿Cómo desarrollar una

prueba de permutación con el método de Monte Carlo, no es viable obtener todas

las permutaciones?

Para responder a la pregunta anterior se verifica que la probabilidad de extraer con

remplazo cualquier permutación de manera aleatoria de la población de todas las

permutaciones, es igual a la probabilidad de seleccionar la muestra como si todas

las observaciones se llevaran a una urna y extraer una por una y realizar la

asignación correspondiente, hasta generar la respectiva combinación. Este caso

corresponde al de un diseño completamente al azar, de manera similar se

argumentaría para un diseño de bloques.

Suponga un experimento con dos tratamientos de manera que en el experimento 𝜏1

se tienen 𝑛1 observaciones del tratamiento 1 y en 𝜏2 𝑛2 observaciones del

tratamiento 2. Entonces, todas las posibles combinaciones son (𝑛1+𝑛2𝑛1𝑛2

), cada una

de estas combinaciones son igualmente probables de ocurrir.

Page 105: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

85

Considere una permutación donde una observación que se le asigna a 𝜏1 es alguna

observación del tratamiento 𝜏2 y el resto de 𝑛1 − 1 asignaciones son las mismas.

Entonces, una permutación posible es como se ilustra en el cuadro 3.1.1:

Cuadro 3.1.1. Asignación aleatoria

𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠

𝜏1 𝜏2

𝑥21 𝑥22

𝑥12 𝑥23

⋮ ⋮

𝑥1𝑛1 𝑥2𝑛2

Denotemos al arreglo del cuadro 3.1.1 como 𝑧, entonces:

𝑃(𝑧) = 1(𝑛1+𝑛2

𝑛1𝑛2)⁄ =

1(𝑛1+𝑛2)!

𝑛1! 𝑛2!

=𝑛1! 𝑛2!

(𝑛1 + 𝑛2)!

La ecuación anterior nos brinda la probabilidad de extraer la combinación 𝑧 de la

población de todas las poblaciones posibles. Sin embargo, esto no es posible debido

a que no se tiene la población de todas posibles combinaciones. Ahora supongamos

que las observaciones 𝑛1 + 𝑛2 las llevan a una urna, y se extraen de una por una.

Las primeras 𝑛1 observaciones son asignadas al tratamiento 𝜏1 y las restantes a 𝜏2.

Entonces, la probabilidad de obtener el arreglo 𝑧 pero con este último tipo de

extracción es:

𝑃(𝑧) = 𝑃{(𝑥21, 𝑥12, 𝑥13, … , 𝑥1𝑛1), (𝑥22, 𝑥23, 𝑥24, … , 𝑥2𝑛2

)} = 𝑃(𝑥21, 𝑥12, 𝑥13, … , 𝑥1𝑛1)

= 𝑃(𝑥21)𝑃(𝑥12|𝑥21)𝑃(𝑥13|𝑥21𝑥12)…𝑃(𝑥1𝑛1|𝑥21𝑥12 …𝑥1𝑛1−1)

= (𝑛2

(𝑛1 + 𝑛2)⁄ ) (

𝑛1(𝑛1 + 𝑛2 − 1)⁄ ) (

(𝑛1 − 1)(𝑛1 + 𝑛2 − 2)⁄ )…(

(𝑛1 − (𝑛1 − 1))

(𝑛1 + 𝑛2 − ((𝑛1 − 1) + 1))⁄ )

= (𝑛2

(𝑛1 + 𝑛2)⁄ ) (

𝑛1(𝑛1 + 𝑛2 − 1)⁄ ) (

(𝑛1− 1)

(𝑛1 + 𝑛2 − 2)⁄ )… (1 𝑛2

⁄ )

Page 106: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

86

=𝑛2(𝑛1)(𝑛1 − 1)(𝑛1 − 2)…1

(𝑛1 + 𝑛2)(𝑛1 + 𝑛2 − 1)(𝑛1 + 𝑛2 − 2)…𝑛2=

𝑛1! 𝑛2

(𝑛1 + 𝑛2)(𝑛1 + 𝑛2 − 1)(𝑛1 + 𝑛2 − 2)…𝑛2

=𝑛1! 𝑛2

(𝑛1 + 𝑛2)(𝑛1 + 𝑛2 − 1)(𝑛1 + 𝑛2 − 2)… 𝑛2

((𝑛2 − 1)(𝑛2 − 2)… 1

(𝑛2 − 1)(𝑛2 − 2)… 1) =

𝑛1! 𝑛2!

(𝑛1 + 𝑛2)!

La probabilidad de elegir el arreglo 𝑧 del conjunto de todas las permutaciones dadas

por (𝑛1+𝑛2𝑛1𝑛2

) es la misma como si 𝑧 fuera generada simulando extracciones de una

urna.

Fuente (Noreen, 1989)

Figura 3.1.2 Distribución Monte Carlo prueba de permutación.

Page 107: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

87

3.2 Validez de la distribución Monte Carlo

En esa sección en lugar de preocuparnos en proporcionar una definición de la

distribución Monte Carlo, aquí se muestra la validez de la distribución Monte Carlo

y por consecuencia la validez de una prueba de permutación.

Una prueba de hipótesis se dice que es válida cuando se cumple lo siguiente

(Noreen, 1989):

𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) ≤ 𝛼 3.2.1

Donde 𝛼 es el nivel de significancia.

Se dice que la prueba es exactamente válida cuando la ecuación 3.2.1 cumple la

igualdad. En este apartado se prueba la validación del método de Monte Carlo y se

demuestra que cumple la propiedad declarada por la ecuación 3.2.1, además se

demuestra que la distribución Monte Carlo es una prueba aproximada. La validez

se lleva a cabo mediante el apoyo de una variable aleatoria auxiliar.

Prueba. La prueba es extraída del libro Computer Intensive Methods for Testing

Hypotheses (Noreen, 1989).

Sea 𝑡 una función de la matriz 𝑋, la cual tiene una distribución conocida bajo H0. El

método de Monte Carlo consiste en crear 𝐵 muestras independientes 𝑋1, 𝑋2, … , 𝑋𝐵

de la distribución bajo H0. Cada una de las 𝑋𝑖 son combinaciones de la forma

(𝑛1+𝑛2𝑛1𝑛2

).

Por conveniencia, suponer que las 𝐵 muestras son ordenadas de la manera

siguiente:

𝑡(𝑋1) ≥ 𝑡(𝑋2) ≥ ⋯ ≥ 𝑡(𝑋𝐵) 3.2.2

Definir 𝑛𝑔𝑒:𝑚𝑎𝑥{𝑒𝑛𝑡𝑒𝑟𝑜 𝑘| 𝑡(𝑋𝑘) ≥ 𝑡(𝑋0) 𝑝𝑎𝑟𝑎 𝑘 = 0, 1, … , 𝐵}

𝑋0 Es la combinación original de los datos y 𝑡(𝑋0) es el correspondiente estadístico

de prueba. La variable 𝑛𝑔𝑒 es el número de veces que la estadística de prueba con

Page 108: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

88

los datos simulados es al menos tan extremo que el valor de estadístico para los

datos originales. La hipótesis nula es rechazada si [(𝑛𝑔𝑒 + 1)

(𝐵 + 1)⁄ ] < 𝛼.

Entonces lo que se desea probar es 𝑃 {[(𝑛𝑔𝑒 + 1)

(𝐵 + 1)⁄ ] ≤ 𝛼} ≤ 𝛼.

Se generan 𝐵 + 1 variables aleatorias auxiliares 휀0, 휀1, … , 휀𝐵, estas son

uniformemente distribuidas en intervalos pequeños (−𝛿, 𝛿). Este intervalo es

elegido para ser tan pequeño que tenga el efecto de romper los empates entre los

estadísticos de la ecuación 3.2.2. 𝛿 < 𝑚𝑖𝑛{|𝑡(𝑋𝑖) − 𝑡(𝑋𝑗)| > 0}.

Transformando los estadísticos de prueba y sumándoles a estos la perturbación

aleatoria se tiene:

𝑡′(𝑋𝑖) = 𝑡(𝑋𝑖) + 휀𝑖 𝑝𝑎𝑟𝑎 𝑖 = 0, 1, … , 𝐵

De manera que la ecuación 2.4.1 queda

𝑡′(𝑋1) > 𝑡′(𝑋2) > … > 𝑡′(𝑋𝐵)

Transformando el valor del estadístico de los datos originales (𝑡′(𝑋0)) debe caer en

unos de los 𝐵 + 1 intervalos:

(−∞, 𝑡′(𝑋𝐵)],… , (𝑡′(𝑋2) , 𝑡′(𝑋1)], (𝑡

′(𝑋1) ,∞)

Bajo H0, el valor observado del estadístico de prueba 𝑡′(𝑋0) para los datos originales

es una muestra de tamaño uno de una distribución que es independiente e idéntica

a la distribución de 𝑡′(𝑋𝑖), para toda 𝑖. Bajo H0 la probabilidad que 𝑡′(𝑋0) caiga en

cualquier intervalo específico es 1 (𝐵 + 1)⁄ . La variable aleatoria 𝑛𝑔𝑒′ es definida de

la siguiente manera:

𝑛𝑔𝑒′ = 𝑚𝑎𝑥{𝑒𝑛𝑡𝑒𝑟𝑜 𝑘|𝑡′(𝑋𝑘) ≥ 𝑡′(𝑋0) 𝑝𝑎𝑟𝑎 𝑘 = 0, 1, … , 𝐵}

𝑛𝑔𝑒′. Es el número de veces que 𝑡′(𝑋𝑘) está contenida en el intervalo [𝑡′(𝑋0),∞).

Entonces, 𝑛𝑔𝑒′ puede tomar cualquier valor entero de 0 a 𝐵 y cada uno de estos

Page 109: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

89

valores igualmente probable bajo H0. Dado una región de rechazo de nivel 𝛼, si 𝐵

es seleccionado de manera que 𝛼𝐵 es un entero, entonces

𝑃{(𝑛𝑔𝑒 + 1) ≤ 𝛼(𝐵 + 1)} = 𝛼(𝐵 + 1)(𝐵 + 1)⁄ 3.2.3

La ecuación 3.2.3 es equivalente a:

𝑃𝑟𝑜𝑏 {𝑛𝑔𝑒 + 1

𝐵 + 1≤ 𝛼} = 𝛼

De este modo se demuestra que si 𝐵 es seleccionado de manera que 𝛼𝐵 es un

entero y la aleatorización auxiliar es llevada a cabo para asegurar que no hay

empates entre los estadísticos de prueba, entonces la prueba de Monte Carlo es

una prueba válida. Los niveles de significancia más comunes son 0.05, 0.01 y 0.10.

Si 𝛼 es restringida a este conjunto de valores, entonces 𝐵 = 100𝑘 − 1, donde 𝑘 es

cualquier número entero positivo, por lo que satisface la condición que 𝛼𝐵 es un

entero.

3.3 Pruebas de permutación elaborados en Python

En esta sección se proporcionan los códigos de las pruebas de permutación

expuestas en los capítulos anteriores. Se presentan primeramente las pruebas de

los diseños experimentales comparativos simples, en el caso del diseño

aleatorizado se presenta el código para una prueba de permutación con

permutación sistemática, así como con la distribución Monte Carlo. Para el diseño

de comparación de parejas aleatorizadas, el código corresponde a una prueba de

permutación sistemática. El diseño experimental completamente al azar y el diseño

experimental de bloques completos al azar son generalización de los primeros, se

muestra el código elaborado en Python, empleando la distribución Monte Carlo. Los

programas se ejecutaron en Python 2.7.13 (Anaconda2 4.3.0) y fueron escritos en

el IDE Spyder.

Permutación sistemática

Page 110: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

90

Nota: las letras de azul indican que son funciones que se manda a llamar

externamente, de igual manera será para los códigos siguientes. Numpy y

matplot.pylot son paquetes cargados en Python. Por otra parte t0_alea, perm_ale

son funciones creada mostradas en el Apéndice C.1.

print '\n'

print '#########PRUEBAS DE PERMUTACION ENFOCADAS A DISEÑOS EXPERIMENTALES###########'

print '\n'

print 'DISEÑOS COMPARATIVOS SIMPLES'

print '1) Diseño aleatorizado'

print '2) Diseño con observaciones pareadas'

print 'ANOVA DE PERMUTACIÓN'

print '3) Diseño completamente aleatorizado'

print '4) Diseño de bloques completamente aleatorizado'

print '5) Grafica boxplot e histograma '

prueba=int(raw_input('Indique el analisis que desea realizar: '))

while prueba<1 or prueba >5:

prueba=int(raw_input('Indicar nuevamnete el analisis que desea realizar : '))

if prueba==1:

eleccion=int(raw_input('Prueba exacta(1) o aproximada(2): '))

if eleccion==1:

from t0_alea import t0_alea

from perm_ale import perm_ale

import numpy as np

import matplotlib.pyplot as plt

lista=[]

Page 111: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

91

cont=0

a=[]

b=[]

f=int(raw_input('Tipo de prueba: 0 bilateral, 1 unilateral derecha y 2 unilateral izquierda: '))

for i in range(2):

if i==0:

n=int(raw_input('numero de replicas tratamiento interes: '))

nt=n

for j in range(n):

lista.append(float(raw_input('observacion %d para el tratamiento interes: '%(j+1))))

else:

print'\n'

n=int(raw_input('numero de replicas control: '))

nc=n

for j in range(n):

lista.append(float(raw_input('observacion %d para el control: '%(j+1))))

print '\n'

print 'rep','\t','trat','\t','control'

if nt>nc:

for i in range(nt):

if i<nc:

print i+1,'\t',lista[i],'\t',lista[i+nt]

else:

print i+1,'\t',lista[i],'\t','no_rep'

Page 112: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

92

else:

for i in range(nc):

if i<nt:

print i+1,'\t',lista[i],'\t',lista[i+nt]

else:

print i+1,'\t','no_rep','\t',lista[i+nt]

tcal=t0_alea(lista,nt,nc)

c=perm_ale(range(len(lista)),nt)

if f==0:

for i in c:

for j in i:

a.append(lista[j])

tperm=t0_alea(a,nt,nc)

b.append(tperm)

a=[]

if abs(tperm) >= abs(tcal):

cont+=1

t_valor=abs(tcal)

elif f==1:

for i in c:

for j in i:

a.append(lista[j])

tperm=t0_alea(a,nt,nc)

b.append(tperm)

a=[]

Page 113: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

93

if tperm >= tcal:

cont+=1

t_valor=tcal

elif f==2:

for i in c:

for j in i:

a.append(lista[j])

tperm=t0_alea(a,nt,nc)

b.append(tperm)

a=[]

if tperm <= tcal:

cont+=1

t_valor=tcal

print '#################################SALIDA########################'

c1=np.array(b)

plt.hist(c1,8,normed=False,histtype='bar',rwidth=0.8,color="blue",alpha=0.9)

plt.title("Histograma prueba aleatorizada completamente al azar",fontsize=12)

plt.xlabel('valores de t de cada permutacion', fontsize=12)

plt.ylabel('Frecuencias', fontsize=15)

p_valor=float(cont)/len(c)

print '\n'

print 'Valor del estadistico de los datos experimentales es',t_valor

print 'El p-valor computado es',p_valor

Page 114: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

94

else:

from tcal import t0_cal

from rem import rem

import numpy as np

import matplotlib.pyplot as plt

print '\n'

remuestras=int(raw_input('numero de asignaciones aleatorias: '))

lista=[]

lis=[]

n1=0

g=[]

b=[]

for i in range(2):

if i==0:

n=int(raw_input('numero de replicas tratamiento interes: '))

nt=n

for j in range(n):

lista.append(float(raw_input('observacion %d para el tratamiento interes: '%(j+1))))

lis.append(lista)

lista=[]

else:

print'\n'

n=int(raw_input('numero de replicas control: '))

nc=n

Page 115: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

95

for j in range(n):

lista.append(float(raw_input('observacion %d para el control: '%(j+1))))

lis.append(lista)

lista=[]

print '\n'

print 'rep','\t','trat','\t','control'

if nt>nc:

for i in range(nt):

if i<nc:

print i+1,'\t',lis[0][i],'\t',lis[1][i]

else:

print i+1,'\t',lis[0][i],'\t','no_rep'

else:

for i in range(nc):

if i<nt:

print i+1,'\t',lis[0][i],'\t',lis[1][i]

else:

print i+1,'\t','no_rep','\t',lis[1][i]

t_obt=t0_cal(lis)

p=0

i=0

while i<remuestras:

perm=rem(lis,False)

Page 116: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

96

g.append(perm)

t_rem=t0_cal(perm)

b.append(t_rem)

if abs(t_rem) >=abs( t_obt):

p+=1

i+=1

print '#######################################SALIDA#################################'

c1=np.array(b)

plt.hist(c1,8,normed=False,histtype='bar',rwidth=0.8,color="blue",alpha=0.9)

plt.title("Histograma prueba aleatorizada completamente al azar",fontsize=12)

plt.xlabel('valores de t de cada permutacion aleatoria', fontsize=12)

plt.ylabel('Frecuencias', fontsize=15)

p_valor=float((p)+1)/(remuestras+1)

print ' el valor del estadistico de prueba para el arreglo experimental es:', abs(t_obt)

print 'El P-valor = ',p_valor

elif prueba==2:

import numpy as np

import matplotlib.pyplot as plt

from permu_par import permuta

from cambio import cambio

t=int(raw_input('numero de replicas : '))

lis=[]

Page 117: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

97

lista=[]

dif1=[]

cont=1

for j in range(2):

if j==0:

for i in range(t):

lista.append(float(raw_input('observacio %d para el trat interes: '%(i+1))))

lis.append(lista)

lista=[]

print '\n'

else:

for i in range(t):

lista.append(float(raw_input('observacio %d para el trat control: '%(i+1))))

lis.append(lista)

lista=[]

print '\n'

print 'rep','\t','trat','\t','control'

for i in range(t):

print i+1,'\t',lis[0][i],'\t',lis[1][i]

print '\n'

for j in range(t):

d=lis[0][j]-lis[1][j]

dif1.append(d)

tcal=(float(sum(dif1))/t)

p=permuta(t)

Page 118: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

98

c=cambio(lis,p,t)

for i in c:

if abs(i) >= abs(tcal):

cont+=1

print '##########################################SALIDA##################################'

p_valor=float(cont)/(len(c)+1)

c1=np.array(c)

plt.hist(c1,8,normed=False,histtype='bar',rwidth=0.9,color="blue",alpha=0.5)

plt.title("Histograma prueba con observaciones paredas",fontsize=14)

plt.xlabel('valores de t de cada permutacion', fontsize=12)

plt.ylabel('Frecuencias', fontsize=12)

print 'Valor del estadistico de los datos experimentales es',abs(tcal)

print 'El p-valor computado es',p_valor

elif prueba==3:

from fcal import f0

from t0_alea import t0_alea

from perm_ale import perm_ale

from rem import rem

import numpy as np

from itertools import combinations

import matplotlib.pyplot as plt

from tukey_perm import tukey_perm

print '\n'

a=int(raw_input('numero de tratamientos: '))

Page 119: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

99

remuestras=int(raw_input('numero de asignaciones aleatorias: '))

y=int(raw_input('balanceado(1) o desbalanceado(0): '))

lista=[]

lis=[]

n1=0

g=[]

b=[]

if y==1:

n1=int(raw_input('numero de replicas: '))

print '\n'

for j in range(a):

for i in range(n1):

lista.append(float(raw_input('observacio %d para el trat %d: '%(i+1,j+1))))

lis.append(lista)

lista=[]

print '\n'

elif y==0:

for j in range(a):

print '\n'

n=int(raw_input('numero de replicas para el trat %d: '%(j+1)))

n1+=n

for i in range(n):

lista.append(float(raw_input('observacio %d para el trat %d: '%(i+1,j+1))))

lis.append(lista)

lista=[]

Page 120: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

100

print '\n'

alpha=float(raw_input('nivel de significancia: '))

f_obt=f0(lis, a-1,n1*a-a)

p=0

i=0

while i<remuestras:

perm=rem(lis,False)

g.append(perm)

f_rem=f0(perm,a-1,n1*a-a)

b.append(f_rem)

if f_rem >= f_obt:

p+=1

i+=1

print '\n'

print '##########################################SALIDA##################################'

c1=np.array(b)

plt.hist(c1,30,normed=False,histtype='bar',rwidth=0.8,color="blue",alpha=0.9)

plt.title("Histograma prueba aleatorizada completamente al azar",fontsize=12)

plt.xlabel('valores de F de cada permutacion', fontsize=12)

plt.ylabel('Frecuencias', fontsize=15)

p_valor=float((p)+1)/(remuestras+1)

print 'anova'

print 'el valor del estadistico experimental', f_obt

print 'El P-valor = ',p_valor

Page 121: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

101

print '\n'

if p_valor<=alpha:

print 'comparacion de pares de medias'

z=range(a)

y=list(combinations (z,2))

m=[]

m1=[]

w=[]

for i in y:

dif=abs(float(sum(lis[i[0]]))/len(lis[i[0]])-float(sum(lis[i[1]]))/len(lis[i[1]]))

lista=lis[i[0]]+lis[i[1]]

tcal=t0_alea(lista,len(lis[i[0]]),len(lis[i[1]]))

c=perm_ale(range(len(lista)),len(lis[i[0]]))

cont=0

m0=[]

for g0 in c:

for j in g0:

w.append(lista[j])

tperm=t0_alea(w,len(lis[i[0]]),len(lis[i[1]]))

w=[]

if abs(tperm) >= abs(tcal):

cont+=1

p_valor=float(cont)/len(c)

m0.append(p_valor)

m0.append(list(i))

m0.append(dif)

Page 122: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

102

m1.append(m0)

tuk=tukey_perm(g,a)

dif_tukey=np.percentile(tuk,(1-alpha)*100)

for i in range(a):

print 'media tratamiento',i+1,'es', float(sum(lis[i])/len(lis[i]))

m1.sort()

m3=[]

h=1

print 'comparaciones','\t','\t','p valor t de perm','\t','métod BH','\t','Bonferroni','\t','Tukey'

for i in m1:

if dif_tukey < i[2]:

print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t','significancia'

h+=1

else:

print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t',' ','N0 significancia'

h+=1

print '*BH: denota el método de Benjamin y Hochberg (1995)'

elif prueba==4:

Page 123: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

103

from f0_bloq import f0_bloq

from itertools import combinations

from rem_bloq import rem_bloq

from trans import trans

import numpy as np

from permu_par import permuta

from cambio import cambio

from tukey_perm_bloq import tukey_perm

print '\n'

a=int(raw_input('numero de tratamientos: '))

bloq=int(raw_input('numero de bloques: '))

remuestras=int(raw_input('numero de remuestras: '))

alpha=float(raw_input('nivel de significancia: '))

lista=[]

lis=[]

print '\n'

for j in range(bloq):

for i in range(a):

lista.append(float(raw_input('observacio en el bloque %d trat %d: '%(j+1,i+1))))

print '\n'

lis.append(lista)

lista=[]

f_obt=f0_bloq(lis, a-1,(a-1)*(bloq-1),a,bloq)

p=0

i=0

g=[]

Page 124: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

104

while i<remuestras:

perm=rem_bloq(lis,False)

g.append(perm)

f_rem=f0_bloq(perm,a-1,(a-1)*(bloq-1),a,bloq)

if f_rem >= f_obt:

p+=1

i+=1

p_valor=(float(p)+1)/(remuestras+1)

print '##########################################SALIDA##################################'

print 'anova'

print 'el valor de estadistico experimental',f_obt

print 'el p_valor =',p_valor

if p_valor<alpha:

print 'comparacion de medias'

z=range(a)

y=list(combinations(z,2))

lis_t=trans(lis)

m1=[]

for i in y:

dif1=[]

x=[lis_t[i[0]]]+[lis_t[i[1]]]

dif=abs((float(sum(x[0]))/bloq)-(float(sum(x[1]))/bloq))

for j in range(len(x[0])):

d=x[0][j]-x[1][j]

dif1.append(d)

Page 125: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

105

tcal=(float(sum(dif1))/len(x[0]))

p=permuta(bloq)

c=cambio(x,p,bloq)

cont=1

m0=[]

for j in c:

if abs(j) >abs(tcal):

cont+=1

p_valor=float(cont)/(len(c)+1)

m0.append(float(p_valor))

m0.append(list(i))

m0.append(dif)

m1.append(m0)

tuk1=[]

for k in g:

tuk=tukey_perm(trans(k),a)

tuk1.append(tuk)

dif_tukey=np.percentile(tuk1,(1-alpha)*100)

print'estadistica descriptiva'

for i in range(a):

lis_t=trans(lis)

print 'media tratamiento',i+1,'es', float(sum(lis_t[i]))/len((lis_t[i]))

m1.sort()

h=1

m3=[]

Page 126: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

106

print 'comparaciones','\t','\t','p valor t de perm','\t','métod BH','\t','Bonferroni','\t','Tukey'

for i in m1:

if dif_tukey < i[2]:

print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t','significancia'

h+=1

else:

print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t',' ','N0 significancia'

h+=1

print '*BH: denota el método de Benjamin y Hochberg (1995)'

print 'el valor C de tukey es',dif_tukey

elif prueba==5:

import matplotlib.pyplot as plt

import matplotlib.pyplot as pyplot

import matplotlib.patches as mpatches

import numpy as np

a=int(raw_input('numero de tratamientos: '))

lis=[]

n1=0

g=[]

b=[]

for i in range(a):

Page 127: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Capítulo 3

107

lista=[]

n=int(raw_input('numero de replicas tratamiento %d : '%(i+1)))

for j in range(n):

lista.append(float(raw_input('observacio %d para el trat %d: '%(j+1,i+1))))

lis.append(lista)

print '\n'

print '#########################Grfica boxplot#######################'

print '#############################Salida###########################'

s=''

u=[]

u1=[]

for i in range(len(lis)):

u1.append(lis[i])

i+=1

u.append(i)

s=s+str(i)

nt=[]

for i in s:

nombre='trat'+' '+i

nt.append(nombre)

if a==2:

plt.boxplot(u1,sym='ko',whis=1.5)

plt.xticks(u,nt,size='larger',color='k')

plt.ylabel('variabilidad de v.respuesta')

Page 128: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Distribución Monte Carlo en metodologías computacionales

108

plt.xlabel('tratamientos')

plt.title('Grafico Boxplot')

plt.figure()

m=lis[0]

n=lis[1]

mo=pyplot.hist(m,alpha=.3,rwidth=.9,color='red')

m1=pyplot.hist(n,alpha=.3,rwidth=.9,color='blue')

plt.ylabel('frecuencia',size='larger')

plt.title('histograma de los tratamientos')

trat1= mpatches.Patch(color='red', label='tratamiento 1',alpha=.3)

trat2= mpatches.Patch(color='blue', label='tratamiento 2',alpha=.3)

plt.legend(handles=[trat1,trat2])

plt.show()

if a>2:

plt.boxplot(u1,sym='ko',whis=1.5)

plt.xticks(u,nt,size='larger',color='k')

plt.ylabel('variabilidad de v.respuesta')

plt.xlabel('tratamientos')

plt.title('Grafico Boxplot')

Page 129: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Conclusiones

109

Conclusiones

El objetivo principal, exponer de manera clara y sencilla las pruebas de permutación

enfocadas al diseño experimental unifactorial y proporcionar una alternativa de

análisis de diseños experimentales unifactoriales, se ha cumplido. Prueba de

permutación es una metodología de análisis con un paradigma más computacional

que trabaja con supuestos más relajados a la pruebas paramétricas y muy parecidas

a las no paramétricas.

También, se ha proporcionado un programa elaborado en el software python para

llevar acabo el análisis de datos de un experimento con el enfoque de pruebas de

permutación, con esto también se da extensión practica a estas pruebas que suelen

ser desconocidas.

Finalmente, estamos convencidos que este trabajo es un buen material de apoyo

didáctico para quien este interesado en la aplicación de pruebas de permutación o

conocer una alternativa de análisis de experimentos unifactoriales.

Page 130: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

110

Apéndice A A.1 Teorema

Teorema. Sean 𝑍 y 𝜒2𝑛𝑣. 𝑎 independientes con distribución normal estándar y Ji

cuadrada con 𝑛 grados de libertad, respectivamente. Entonces,

𝑍

√𝜒2

𝑛

𝑛

~𝑡𝑛

A.2 Teorema

A.2.1

H0: 𝜇1 = 𝜇2 Vs H1: 𝜇1 ≠ 𝜇2

Cuando el estadístico de prueba es 𝑡0 entonces

𝑝 − valor = 𝑝(𝑡𝑛1+𝑛2−2 ≥ |𝑡0|) = 1 − 𝑝(𝑡𝑛1+𝑛2−2 < |𝑡0|)

= 2[1 − 𝑝(𝑡𝑛1+𝑛2−2 ≤ 𝑡0)]Prueba no pareada

A.2.2

H0: 𝜇𝑑 = 0 Vs H1: 𝜇𝑑 ≠ 0

Cuando el estadístico de prueba es 𝑡0 entonces

𝑝 − valor = 𝑝(𝑡𝑛−1 ≥ |𝑡0|) = 1 − 𝑝(𝑡𝑛−1 < |𝑡0|)

= 2[1 − 𝑝(𝑡𝑛−1 < 𝑡0)]Prueba pareada

A.3 Teorema

Teorema. Sea𝑍𝑖𝑖𝑖𝑑~

𝑁(0,1)para 𝑖 = 1, 2, 3, … , 𝑣 y

∑𝑍2𝑖

𝑣

𝑖=1

= 𝑄1 + 𝑄2 + ⋯+ 𝑄𝑠

Page 131: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

111

Donde 𝑠 ≤ 𝑣 y 𝑄𝑖 tiene𝑣𝑖 grados de libertad (𝑖 = 1, 2, … , 𝑠 ). Entonces 𝑄1, 𝑄2, . . , 𝑄𝑠

son variables aleatorias Ji-cuadrada independientes con 𝑣1, 𝑣2, … , 𝑣𝑠 grados de

libertad, respectivamente, si y solo si

𝑣 = 𝑣1 + 𝑣2 + ⋯+ 𝑣𝑠

A.4 Teorema

Teorema. Sean𝜒2𝑚

y𝜒2𝑛variables aleatorias independientes con distribución ji

cuadrada con 𝑛 y 𝑚 grados de libertad, respectivamente. Entonces,

𝐹 =𝜒2

𝑛

𝜒2𝑚

Tiene una distribución 𝐹 con 𝑛 y 𝑚 grados de libertad en el numerador y

denominador, respectivamente.

A.5 Calculo del 𝑝 valor para los distintos diseños experimetntales.

H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑎 = 0 Vs 𝐻1: ∃𝜏𝑖diferente

Cuando el estadístico de prueba es 𝐹0 entonces

A.5.1

𝑝 − valor = 𝑝(𝐹𝑎−1,𝑁−𝑎 > 𝐹0)diseños completamente al azar

A.5.2

𝑝 − valor = 𝑝(𝐹𝑎−1,(𝑎−1)(𝑏−1) > 𝐹0)diseños de bloques completamente

al azar

Page 132: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

112

A.6 Estadísticos equivalentes

𝐸𝑠𝑡𝑎𝑑𝑖𝑠𝑡𝑖𝑐𝑜𝑠 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑡𝑒𝑠

𝑡 =𝑦

1− 𝑦

2

𝑆𝑝√1

𝑛1+

1

𝑛2

𝑦 𝑡 = 𝑦1− 𝑦

2

𝑡 =𝑑

𝑆𝑑

√𝑛⁄

𝑦 𝑡 = 𝑑

𝐹 =𝑀𝑆𝑡𝑟𝑎𝑡

𝑀𝑆𝑒𝑟𝑟𝑜𝑟 𝑦 𝐹 = ∑ 𝑛𝑖

𝑡

𝑖=1|

𝑦𝑖

2 𝑑𝑜𝑛𝑑𝑒 𝑦

𝑖= ∑

𝑦𝑖𝑗

𝑛𝑖

𝑛𝑖

𝑗=1

Page 133: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

113

Apéndice B B.1 Más sobre el principio de intercambiabilidad.

Sea 𝑋1, 𝑋2, … , 𝑋𝑛 una muestra aleatoria simple entonces la colección de 𝑛 variables

es intercambiable.

La función de distribución conjunta de las variables aleatorias de la muestra

aleatoria simple es la siguiente:

𝑓(𝑋1, 𝑋2, … , 𝑋𝑛) = ∏𝑓(𝑋𝑖)

𝑛

𝑖=1

La función de densidad conjunta para cualesquier permutación es la siguiente:

𝑓(𝑋𝑟(1), 𝑋𝑟(2), … , 𝑋𝑟(𝑛)) = ∏𝑓(𝑋𝑟(𝑖))

𝑛

𝑖=1

Sea 𝑟(𝑖) hace que la colección de variables aleatorias genere la permutación.

Entonces

∏𝑓(𝑋𝑖)

𝑛

𝑖=1

= ∏𝑓(𝑋𝑟(𝑖))

𝑛

𝑖=1

El concepto de intercambiabilidad es más débil que el concepto de

independencia. El siguiente ejemplo muestra que estos términos no son

equivalente.

Supongamos que tres v.a 𝑋1, 𝑋2, 𝑋3 cada una de las cuales puede tomar el valor

de 0 y 1 con función masa definida de la siguiente manera:

𝑃( 𝑋1 = 0, 𝑋2 = 1, 𝑋3 = 1) = 𝑃(a 𝑋1 = 1, 𝑋2 = 0, 𝑋3 = 1)

= 𝑃(a 𝑋1 = 1, 𝑋2 = 1, 𝑋3 = 0) = 13⁄

Cualquier otra combinación de los valores tiene probabilidad cero, tanto de las

tres en bloque como de dos o de una de las variables. La colección (𝑋1, 𝑋2, 𝑋3)

es intercambiable por que cumple la definición, sin embargo no son intendentes

𝑃( 𝑋1 = 0, 𝑋2 = 1, 𝑋3 = 1) = 13⁄

Pero

𝑃( 𝑋1 = 0)𝑃( 𝑋2 = 1)𝑃( 𝑋3 = 1) = 0

Page 134: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

114

B.2. Diagrama de flujo para pruebas de permutación sistemática del diseño

completamente aleatorizado y parejas aleatorizadas.

NO

SI

SI

NO

Salir

Calcular 𝑝

𝑛𝑔𝑒𝑘⁄

¿𝑇(𝑖) Es más extremo que

𝑇?

Calcular el estadístico 𝑇(𝑖)

Para 𝑖 en Π

Generar el conjunto de todas las

combinaciones denotado como Π

Calcular 𝑘 es el número de permutaciones:

(𝑛

𝑛1 𝑛2) 𝑜 2𝑟é𝑝𝑙𝑖𝑐𝑎𝑠

Mostrar los datos

Seleccionar el

estadístico 𝑇

Calcular el valor del

estadístico para los

datos experimentales 𝑇

Sumar 1 a 𝑛𝑔𝑒

Page 135: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

115

B3. Datos del ejemplo 2.4.2

Ejemplar Punta 1 Punta 2

1 7 6

2 3 3

3 3 5

4 4 3

5 8 8

6 3 2

7 2 4

8 9 9

9 5 4

10 4 5

Datos del experimento de la prueba de la dureza.

Page 136: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

116

B.4. Cuadro de comparaciones de pares de medias del ejemplo 2.4.1.

Comparaciones P valor 𝒕 de

permutación Método BH

Ajuste del 𝒑 valor Bonferroni

Tukey de permutación

Tratamiento 1 Vs tratamiento 3

0.001 0.0167 0.0029 Significancia

Tratamiento 2 Vs tratamiento 3

0.0127 0.0333 0.0381 No significancia

Tratamiento 1 Vs tratamiento 2

0.251 0.05 0.7529 No significancia

B.5. Código para realizar la simulación de la función potencia.

def simulacion(m0,m1,sigma0,sigma1):

j=1

rechazo=0

rechazo_para=0

while j <= 100:

x=[random.gauss(m0,sigma0) for _ in range(10)]

y=[random.gauss(m1,sigma1) for _ in range(10)]

lis=[x]+[y]

t_para=t0_parametrica(lis)

if abs(t_para) > 2.23:

rechazo_para+=1

t_obt=t0_cal(lis)

p=0

i=0

g=[]

b=[]

while i < 999:

perm=rem(lis,False)

g.append(perm)

t_rem=t0_cal(perm)

b.append(t_rem)

Page 137: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

117

if abs(t_rem) >=abs( t_obt):

p+=1

i+=1

p_valor=float((p)+1)/(999+1)

if p_valor <= 0.05:

rechazo+=1

j+=1

return rechazo, rechazo_para

Page 138: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

118

Apéndice C C.1 Códigos python del diseño completamente aleatorizado con permutación

sistemática

C.1.1

def t0_alea(x,y,z):

mediatra=float(sum(x[0:y]))/len(x[0:y])

mediacont=float(sum(x[y:y+z]))/len(x[y:y+z])

dif=mediatra-mediacont

return dif

C.1.2

from itertools import combinations... Es un paquete cargado en python

def perm_ale(x,n):

a=[]

cont=0

perm=[]

y=list(combinations (x,n))

for i in y:

for j in x:

if j not in list(i):

a.append(j)

cont+=1

if cont== len(x)-n:

cont=0

break

perm.append(list(i)+a)

a=[]

return perm

Page 139: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

119

C.2 Códigos python del diseño completamente aleatorizado con permutación

aleatoria

C.2.1

def t0_cal(x):

mediatra=float(sum(x[0]))/len(x[0])

mediacont=float(sum(x[1]))/len(x[1])

dif=mediatra-mediacont

return dif

C.2.2

from tam import tam.

from muestra import muestra

from urna import urn

def rem(x,y):

if y==True:

mues=[]

m=urn(x)

for i in tam(x):

a=muestra(m,i,True)

mues.append(a)

return mues

else:

mues=[]

m=urn(x)

for i in tam(x):

a=muestra(m,i,False)

mues.append(a)

return mues

C.2.2.1

def tam(x):

l=[]

for i in x:

Page 140: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

120

l.append(len(i))

return l

C.2.2.2

import random... Función cargada en python

def muestra(x,t,l):

while len(x)<t:

print 'error'

a=[]

c=0

if l==True:

while t>c:

i=random.randint(0,len(x)-1)

a.append(x[i])

c+=1

return a

else:

while t>c:

i=random.randint(0,len(x)-1)

a.append(x[i])

del x[i]

c+=1

return a

C.2.2.3

def urn(x):

urna=[]

for i in x:

for j in i:

urna.append(j)

return urna

Page 141: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

121

C.3 Códigos python del diseño de parejas aleatorizadas con permutación

sistemática

C.3.1

from agre import agregar

from cont import contar

import random

def permuta(t):

d=1

s=1

u=0

k=0

c=0

m=[]

g=[]

z=0

for l in contar(t):

while z<l:

a=True

while s<=t:

if a==True:

if t>d:

w=random.randint(0,1)

if w==1:

m.append(w)

u+=1

s+=1

if u==d:

a=False

opc=1

else:

m.append(w)

c+=1

s+=1

if c==(t-d):

Page 142: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

122

a=False

opc=0

else:

a=False

opc=0

s=s

else:

if opc==1:

w=0

m.append(w)

s+=1

else:

w=1

m.append(w)

s+=1

if agregar(m,g)==True:

g.append(m)

k+=1

z+=1

else:

g=g

k=k

z=z

c=0

u=0

s=1

m=[]

z=0

d+=1

k=0

return g

C.3.1.1

def agregar(x,y):

if x not in y:

Page 143: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

123

return True

else:

return False

C.3.1.2

from math import factorial Función precargada en python

def contar(x):

m=[]

for i in range(1,x+1):

a=factorial(x)/(factorial(i)*factorial(x-i))

m.append(a)

return m

C.3.2

def cambio(x,y,m):

g=[]

q=[]

dif1=[]

g1=[]

for i in range(len(y)):

for j in range(m):

if y[i][j]==1:

a=x[0][j]

b=x[1][j]

x[0][j]=b

x[1][j]=a

g.append(x[0][j])

g1.append(x[1][j])

x[0][j]=a

x[1][j]=b

else:

x[0][j]=x[0][j]

x[1][j]=x[1][j]

g.append(x[0][j])

Page 144: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

124

g1.append(x[1][j])

for j in range(m):

d=g[j]-g1[j]

dif1.append(d)

t0=float(sum(dif1)/m)

q.append(t0)

g=[]

g1=[]

dif1=[]

return q

C.4 Códigos python del diseño completamente al azar con permutación aleatoria

C.4.1

from ss import sstot

from sst import sstrat

def f0(x,y,z):

sum_e=sstot(x)-sstrat(x)

f0=(sstrat(x)/y)/(sum_e/z)

return f0

C.4.1.1

from cuadrado import cuad

def sstot(x):

sum0=0

sum1=0

l=0

lis=[]

for i in x:

l+=len(i)

a=cuad(i)

b=sum(a)

lis.append(b)

sum1+=sum(i)

sum0=sum(lis)

Page 145: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

125

sum_t = sum0-float((sum1*sum1))/l

return sum_t

La función cuad se muestral enseguida:

def cuad(x):

lis=[]

for i in x:

lis.append(i*i)

return lis

C.4.1.2

def sstrat(x):

sum1=0

l=0

lis=[]

for i in x:

l+=len(i)

a=sum(i)

b=float((a)*(a))/len(i)

lis.append(b)

sum1+=a

sum0=sum(lis)

sum_trat= sum0-float((sum1*sum1))/l

return sum_trat

C.4.2.

from itertools import combinations

def tukey_perm(x,y):

c=[]

d=[]

w=list(combinations(range(y),2))

for i in x:

for j in w:

m=list(j)

Page 146: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

126

s=abs(float(sum(i[m[1]]))/len(i[m[1]])- float(sum(i[m[0]]))/len(i[m[0]]))

c.append(s)

d.append(max(c))

c=[]

return d

También se utiliza la función t0_ale definida en C.1.1 y la función perm_ale

definida en C.1.2.

C.5 Códigos python del diseño completamente de bloques completamente al azar

con permutación aleatoria

C.5.1

from ss_bloq import sstot

from sstrat import sstrat

from ssbloq import ssbloq

def f0_bloq(x,y,z,a,b):

suma_e=sstot(x,a,b)-ssbloq(x,a,b)-sstrat(x,a,b)

f0=(sstrat(x,a,b)/y)/float(suma_e/z)

return f0

from cuadrado import cuad...Es mismo expuesto en la sección C.4.1.1

C.5.1.1

def sstot(x,a,b):

sum0=0

sum1=0

lis=[]

for i in x:

c=cuad(i)

d=sum(c)

lis.append(d)

sum1+=sum(i)

sum0=sum(lis)

sum_t = sum0-float((sum1*sum1))/(a*b)

return sum_t

Page 147: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

127

C.5.1.2

def ssbloq(x,a,b):

sum1=0

lis=[]

for i in x:

c=sum(i)

lis.append(c*c)

sum1+=sum(i)

sum0=float(sum(lis))/a

sum_bloq=sum0-float((sum1*sum1))/(a*b)

return sum_bloq

C.5.1.3

From trans import trans

def sstrat(x,a,b):

sum1=0

lis=[]

t_x=trans(x)

for i in t_x:

c=sum(i)

lis.append(c*c)

sum0=float(sum(lis))/b

for i in x:

sum1+=sum(i)

sum_trat=sum0-float((sum1*sum1))/(a*b)

return sum_trat

La función trans se muestral enseguida:

def trans(x):

x1=[]

for i in range(len(x[0])):

x1.append([0]*len(x))

for i in range(len(x1)):

for j in range(len(x1[0])):

x1[i][j]=x[j][i]

Page 148: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

128

return x1

C.5.3

from muestra import muestra

from urna_bloq import urna_bloq

def rem_bloq(x,y):

mues=[]

if y==True:

for i in x:

m=urna_bloq(i)

a=muestra(m,len(m),True)

mues.append(a)

return mues

else:

for i in x:

m=urna_bloq(i)

a=muestra(m,len(m),False)

mues.append(a)

return mues

C.5.3.1.

def urna_bloq(x):

urna=[]

for i in x:

urna.append(i)

return urna1

C.5.3.2.

Esta función aunque denomina igual que en el caso del diseño completamente al

azar el código no es el mismo para el diseño de bloques.

def tukey_perm(x,y):

c=[]

d=[]

w=list(combinations(range(y),2))

for j in w:

m=list(j)

Page 149: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

Apéndice

129

s=abs(float(sum(x[m[1]]))/len(x[m[1]])-float(sum(x[m[0]]))/len(x[m[0]]))

c.append(s)

d=(max(c))

return d

La función cambio también se emplea en esta prueba pero se muestra el apéndice

C.3.2 de la misma manera la función

Page 150: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

130

Literatura citada

Aponte, L. (2012). Propuesta de una prueba basada en permutaciones para la

igualad de K medias bajo heterocedasticidad. Bogotá: Tesis doctoral.

Universidad Nacional de Colombia.

Baustista, F., & Gómez, E. (2007). Una exploración de robustez de tres pruebas:

dos de permutacipon y la de Mann-Whitney. Revista Colombiana de

Estadística, 177.

Bejamini, Y., & Hochberg, Y. (1995). Controlling te False Discovery Rate: A

practical and Powerful Approach to Multiple Testing. Journal of the Royal

Statistical Society, 289-300.

Box, G. E., Hunter, J. S., & Hunter, W. G. (2008). Estadistica para investigadores.

España: Reverté.

Bradley, J. V. (1968). Distributions-free statistical tests. Englewood: Prentice-Hall.

Casella, G., & Berger, R. L. (2002). Statistical Inference. México: Duxbury

Thomson Learning.

Dean , A., & Voss, D. (1999). Design and Analysis of Experiments. New York :

Springer.

Edgington, E. S. (1995). Randomization Tests. New York: Marcel Dekker.

Edginton , E. S., & Onghena, P. (2007). Randomization Tests. New York:

Chapman y Hall/CRC.

Ernst, D. M. (2004). Permutation Methods: A Basis for Exact Inference. Statistical

Science, 676-685.

Gleason, J. (2013). Comparative Power o the Anova, Randomization Anova and

Kruskal Wallis Test. Detroit: Doctoral thesis. Wayne State University.

Page 151: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

131

Gleason, J. (2013). Comparative Power of the Anova Randomization Anova,

Kruskal-wallis Test. Wayney State University Dissertations, 658.

Good, P. (1993). Permutation Test. New York: Springer Series in Statistics.

Good, P. (2000). Permutation, Parametric and Bootstrap. New York: Springer

Series in Statistics.

Good, P. (2002). Extensions of the Concept of Exchangeability and Their

Applications . Journal of Modern Applied Statistical Methods, 243-247.

Hollander, M., & Wolfe, D. A. (1999). Noparametric Statistical Methods. New York:

John Wiley y Sons, INC.

Hsu, J. C. (1996). Multiple Comparisons (Theory and methods). New York:

CHAPMAN y HALL/CRC.

Ledesma, R. (2008). Introducción al Bootstrap. Tutorials in Quantitative Methods

for Psychology, 51-60.

Manly, B. F. (2007). Randomization, Bootstraping and Monte Carlo Methods in

Biology. New York: Chapman y Hall/CRC.

Montgomery, D. C. (2004). Diseños de Análisis de Experimentos. México: Limusa

Wiley.

Morales Reyes, L. (2010). Analsis de inferencia Estadística. Tesis de licenciatura.

Universidad Autonoma Chapingo.

Myles, H., & Douglas, A. (1999). Nonparametric Statstical Methods. New York:

Wiley.

Neave, H. R., & Worthington, P. L. (1988). Distribution free tests. London: Unwin

Hyman.

Noreen, E. W. (1989). Computer Intensive Methods for Testing Hypotheses An

Introduction. New York: John Wiley y Sons.

Page 152: Dedicatoriadicifo.chapingo.mx/pdf/tesislic/2017/Aguilar_López... · 2020. 1. 30. · I Dedicatoria Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste

132

Noreen, E. W. (1989). Computer Intensive Methods for Testing Hypotheses An

Introduction. New York: JOHN WILWY & SONS.

Ramírez, G. (1986). Supuestos del análisis de varianza. Texcoco: Tesis de

licenciatura. Universidad Autónom Chapingo.

Rizzo, M. L. (2008). Statistical Computing with R. New York: Chapman y Hall/CRC.

Rodgers, J. L. (1999). The Boststrap, the Jacknife and Randomization Test: A

sampling Taxonomy. Multivariate Behavioral Research, 441-4456.

Simon, J. L. (19 de Septiembre de 1997). Resampling Stats. Obtenido de

Resampling: The New Statistics: www.resample.com/introtext-online/

Westfall, P. H., & Young, S. S. (1993). Resampling Based Mutiple Testing.

Examples and methods for p value adjustment. New York: John Wiley y

Sons.