Muestras grandes: prueba de KarlPearson para ajuste de una distribución de probabilidades hipotética, discreta o continua (en hoja de cálculo o con paquete estadístico)
Pruebas uniformemente m´as potentes
Al igual que las pruebas m´as potentes, se define en el caso de hip´otesis compuesta las
pruebas uniformemente m´as potentes.
8 Pruebas de hip´otesis
Definici´on 11 (Pruebas uniformemente m´as potentes) Sea una prueba Υ∗
para H0 : θ ∈ Θ0 contra H1 : θ ∈ Θ−Θ0, que se dice ser una prueba uniformemente
m´as potente de tama˜no α si y s´olo si
(i) supθ∈Θ0
πΥ∗(θ) = α.
(ii) πΥ∗(θ) ≥ πΥ(θ) para toda θ ∈ Θ−Θ0 y para cualquier otra prueba Υ con tama˜no
menor o igual a α.
Una prueba Υ∗
es uniformemente m´as potente de tama˜no α si tiene tama˜no α y entre
todas las pruebas de tama˜no menor o igual a α es la que tiene mayor potencia para todas
los valores alternativos de θ.
Al igual que el Lema de Neyman-Pearson para el caso simple, se puede obtener un
teorema an´alogo, en el caso de la familia exponencial para pruebas de hip´otesis compuestas.
Teorema 2 Sea X1, . . . , Xn una muestra aleatoria de f(x; θ), θ ∈ Θ, donde Θ es alg´un
intervalo. Se asume que f(x; θ) = a(θ)b(x) exp[c(θ)d(x)], y un conjunto t(x1, . . . , xn) =
∑n
i=1 d(xi).
(i) Si c(θ) es mon´otona, creciente y si existe k
∗
tal que
Pθ0
[t(x1, . . . , xn) > k∗
] = α,
entonces la prueba Υ∗
con regi´on cr´ıtica C
∗ = {(x1, . . . , xn) : t(x1, . . . , xn) > k∗}
es una prueba uniformemente m´as potente de tama˜no α de H0 : θ ≤ θ0 contra
H1 : θ > θ0 o de H0 : θ = θ0 contra H0 : θ > θ0.
(ii) Si c(θ) es mon´otona, decreciente y si existe k
∗
tal que
Pθ0
[t(x1, . . . , xn) < k∗
] = α,
entonces la prueba Υ∗
con regi´on cr´ıtica C
∗ = {(x1, . . . , xn) : t(x1, . . . , xn) < k∗}
es una prueba uniformemente m´as potente de tama˜no α de H0 : θ ≤ θ0 contra
H1 : θ > θ0 o de H0 : θ = θ0 contra H0 : θ > θ0.
Cap´ıtulo 2
Pruebas de bondad de ajuste para
distribuciones continuas
Una familia param´etrica de funciones de distribuci´on es el conjunto de funciones que
depende de un par´ametro θ; el par´ametro puede ser un n´umero real o un vector y la
familia se denota como:
F0 = {F(·; θ) : θ ∈ Θ}.
Una prueba de bondad de ajuste es un problema de prueba (o contraste) de hip´otesis
que se plantea como ”probar”H0 : F ∈ F0 vs. H1 : F ∈ (F − F0), donde F tiene dos
posibilidades, es decir, es la familia no param´etrica de todas las distribuciones continuas
(por ejemplo en R o R
+), o es la familia no param´etrica de todas las distribuciones
discretas (por ejemplo en {0, 1, 2, . . .}). En el supuesto que la familia no param´etrica F
sea la de todas las distribuciones continuas, al problema se le llama prueba de bondad de
ajuste continuo (o prueba de bondad de ajuste para distribuciones continuas) y para el
caso que la familia no param´etrica F sea la todas las distribuciones discretas, al problema
se le llama prueba de bondad de ajuste discreto (o prueba de bondad de ajuste para
distribuciones discretas).
Cuando en la prueba de bondad de ajuste el par´ametro θ es conocido al problema se
le llama prueba de bondad de ajuste simple y cuando θ es desconocido se le llama prueba
de bondad de ajuste compuesto o en presencia de par´ametros desconocidos.
En las siguientes secciones se van a presentar diferentes pruebas de bondad de ajuste
para las distribuciones continuas que se encuentran en literatura.
10 Pruebas de bondad de ajuste para distribuciones continuas
2.1. La prueba χ
2
(o X2
)
Caso simple (par´ametros conocidos)
Sea x1, x2, · · · , xn una muestra aleatoria de F(x), y sea F0(x) una distribuci´on totalmente conocida. Se quiere probar
H0 : F(x) = F0(x) vs.
H1 : F(x) ̸= F0(x).
En 1900 Karl Pearson propuso un m´etodo de soluci´on para el problema. Se considera
que (a, b) es el recorrido natural de la variable aleatoria de inter´es; a y b no tienen restricciones; por ejemplo a = −∞ y/o b = ∞. Se toma k − 1 n´umero reales y1 < · · · < yk−1,
que particionan al intervalo (a, b) en k subintervalos: (y0, y1], (y1, y2],· · ·, (yk−1, yk], donde
a = y0 < y1 < y2 < · · · < yk−1 < yk = b.
Enseguida se cuenta cuantos elementos de la muestra pertenecen a cada subintervalo (yi−1, yi
], a este n´umero se le denota ni
. Se calcula la probabilidad bajo F0 de cada
subintervalo; esta probabilidad se denota como pi
,
pi = F0(yi) − F0(yi−1), i = 1, · · · , k.
Finalmente se define la estad´ıstica de prueba X2 de Pearson como
X
2 =
∑
k
i=1
(ni − npi)
2
npi
,
donde n es el tama˜no de la muestra y desde luego n = n1 + · · · + nk. Cuando la hip´otesis
nula es verdadera la distribuci´on asint´otica de X2
converge a una distribuci´on ji-cuadrada
(χ
2
) con k−1 grados de libertad 1
. El procedimiento es rechazar H0 cuando X2 > χ2
k−1,1−α
,
donde χ
2
k−1,1−α
es el percentil 1 − α de la distribuci´on ji-cuadrada con k − 1 grados de
libertad, y α es el nivel de significancia elegido.
Comentarios
Publicar un comentario