Muestras grandes: prueba de KarlPearson para ajuste de una distribución de probabilidades hipotética, discreta o continua (en hoja de cálculo o con paquete estadístico)

Pruebas uniformemente m´as potentes Al igual que las pruebas m´as potentes, se define en el caso de hip´otesis compuesta las pruebas uniformemente m´as potentes. 8 Pruebas de hip´otesis Definici´on 11 (Pruebas uniformemente m´as potentes) Sea una prueba Υ∗ para H0 : θ ∈ Θ0 contra H1 : θ ∈ Θ−Θ0, que se dice ser una prueba uniformemente m´as potente de tama˜no α si y s´olo si (i) supθ∈Θ0 πΥ∗(θ) = α. (ii) πΥ∗(θ) ≥ πΥ(θ) para toda θ ∈ Θ−Θ0 y para cualquier otra prueba Υ con tama˜no menor o igual a α. Una prueba Υ∗ es uniformemente m´as potente de tama˜no α si tiene tama˜no α y entre todas las pruebas de tama˜no menor o igual a α es la que tiene mayor potencia para todas los valores alternativos de θ. Al igual que el Lema de Neyman-Pearson para el caso simple, se puede obtener un teorema an´alogo, en el caso de la familia exponencial para pruebas de hip´otesis compuestas. Teorema 2 Sea X1, . . . , Xn una muestra aleatoria de f(x; θ), θ ∈ Θ, donde Θ es alg´un intervalo. Se asume que f(x; θ) = a(θ)b(x) exp[c(θ)d(x)], y un conjunto t(x1, . . . , xn) = ∑n i=1 d(xi). (i) Si c(θ) es mon´otona, creciente y si existe k ∗ tal que Pθ0 [t(x1, . . . , xn) > k∗ ] = α, entonces la prueba Υ∗ con regi´on cr´ıtica C ∗ = {(x1, . . . , xn) : t(x1, . . . , xn) > k∗} es una prueba uniformemente m´as potente de tama˜no α de H0 : θ ≤ θ0 contra H1 : θ > θ0 o de H0 : θ = θ0 contra H0 : θ > θ0. (ii) Si c(θ) es mon´otona, decreciente y si existe k ∗ tal que Pθ0 [t(x1, . . . , xn) < k∗ ] = α, entonces la prueba Υ∗ con regi´on cr´ıtica C ∗ = {(x1, . . . , xn) : t(x1, . . . , xn) < k∗} es una prueba uniformemente m´as potente de tama˜no α de H0 : θ ≤ θ0 contra H1 : θ > θ0 o de H0 : θ = θ0 contra H0 : θ > θ0. Cap´ıtulo 2 Pruebas de bondad de ajuste para distribuciones continuas Una familia param´etrica de funciones de distribuci´on es el conjunto de funciones que depende de un par´ametro θ; el par´ametro puede ser un n´umero real o un vector y la familia se denota como: F0 = {F(·; θ) : θ ∈ Θ}. Una prueba de bondad de ajuste es un problema de prueba (o contraste) de hip´otesis que se plantea como ”probar”H0 : F ∈ F0 vs. H1 : F ∈ (F − F0), donde F tiene dos posibilidades, es decir, es la familia no param´etrica de todas las distribuciones continuas (por ejemplo en R o R +), o es la familia no param´etrica de todas las distribuciones discretas (por ejemplo en {0, 1, 2, . . .}). En el supuesto que la familia no param´etrica F sea la de todas las distribuciones continuas, al problema se le llama prueba de bondad de ajuste continuo (o prueba de bondad de ajuste para distribuciones continuas) y para el caso que la familia no param´etrica F sea la todas las distribuciones discretas, al problema se le llama prueba de bondad de ajuste discreto (o prueba de bondad de ajuste para distribuciones discretas). Cuando en la prueba de bondad de ajuste el par´ametro θ es conocido al problema se le llama prueba de bondad de ajuste simple y cuando θ es desconocido se le llama prueba de bondad de ajuste compuesto o en presencia de par´ametros desconocidos. En las siguientes secciones se van a presentar diferentes pruebas de bondad de ajuste para las distribuciones continuas que se encuentran en literatura. 10 Pruebas de bondad de ajuste para distribuciones continuas 2.1. La prueba χ 2 (o X2 ) Caso simple (par´ametros conocidos) Sea x1, x2, · · · , xn una muestra aleatoria de F(x), y sea F0(x) una distribuci´on totalmente conocida. Se quiere probar H0 : F(x) = F0(x) vs. H1 : F(x) ̸= F0(x). En 1900 Karl Pearson propuso un m´etodo de soluci´on para el problema. Se considera que (a, b) es el recorrido natural de la variable aleatoria de inter´es; a y b no tienen restricciones; por ejemplo a = −∞ y/o b = ∞. Se toma k − 1 n´umero reales y1 < · · · < yk−1, que particionan al intervalo (a, b) en k subintervalos: (y0, y1], (y1, y2],· · ·, (yk−1, yk], donde a = y0 < y1 < y2 < · · · < yk−1 < yk = b. Enseguida se cuenta cuantos elementos de la muestra pertenecen a cada subintervalo (yi−1, yi ], a este n´umero se le denota ni . Se calcula la probabilidad bajo F0 de cada subintervalo; esta probabilidad se denota como pi , pi = F0(yi) − F0(yi−1), i = 1, · · · , k. Finalmente se define la estad´ıstica de prueba X2 de Pearson como X 2 = ∑ k i=1 (ni − npi) 2 npi , donde n es el tama˜no de la muestra y desde luego n = n1 + · · · + nk. Cuando la hip´otesis nula es verdadera la distribuci´on asint´otica de X2 converge a una distribuci´on ji-cuadrada (χ 2 ) con k−1 grados de libertad 1 . El procedimiento es rechazar H0 cuando X2 > χ2 k−1,1−α , donde χ 2 k−1,1−α es el percentil 1 − α de la distribuci´on ji-cuadrada con k − 1 grados de libertad, y α es el nivel de significancia elegido.

Comentarios