Prueba t de Student para muestras independientes
Supongamos que tenemos dos muestras aleatorias e independientes con medias de y y que queremos saber si estas dos medias son signifacativamente distintas a un nivel de . Esto es lo mismo que decir que si afirmamos que hay una diferencia entre las muestras tenemos un 95% de probabilidad de tener razón. Lo que tenemos que calcular, entonces, es la probabilidad de que las dos muestras pueder provenir de la misma distribución y que la diferencia que vemos es por varianza en esa población. En otras palabras: queremos saber si dos muestras con la diferencia observada () podrían tener provenir de la misma población.
Si sacamos un número significativo de muestras de una misma población la media de estas muestra va a tener una diferencia con la media de la población, en algunos casos más altos y en otros más bajos. Usamos este conocimiento para calcular el error estándar:
De la misma manera existe un error estándar de diferencias entre medias (SED por sus siglas en ingles).
Definición 7.1 (Error estándar de diferencia entre medias)
donde:
- y : las varianzas de las poblaciones 1 y 2
- y : es el número de observaciones en cada muestra.
Al igual que con el error estándar, a menudo desconocemos la varianza de la población, por lo cual lo estimamos de la muestra y la formula es la que vemos en la definición 7.2.
Definición 7.2 (Error estándar de diferencia entre medias estimado de muestras)
donde:
- y : las varianzas de las muestras 1 y 2
- y : es el número de observaciones en cada muestra.
Vimos en la sección 5.3 que para muestras relativamente pequeñas (N<30) la distribución de la muestra tiende a la distribución t de Student. Podemos valernos de esto para calcular la probabilidad de que nuestro SED esté en el rango requerido aplicando la formula de la definición
Si aplicamos la fórmula de la definición 7.3 nos sale un valor que podemos comparar con los valores críticos de la tabla del apendice A para determinar si rechazamos o no.
Volvemos ahora a nuestros datos de notas de dos grupos de estudiantes con diferentes metodologías pedagígicos. Queremos saber con un nivel de significanza de 0,05 si existe diferencia entre la media de los dos grupos. Nuestras hipótesis nula y alternativa son entonces:
,
.
Los datos son:
Grupo A: {15, 12, 11, 18, 15, 15, 9, 19, 14, 13, 11, 12, 18, 15, 16, 14, 16, 17, 15, 17, 13, 14, 13, 15, 17, 19, 17, 18, 16, 14} y
Grupo B: {11, 16, 14, 18, 6, 8, 9, 14, 12, 12, 10, 15, 12, 9, 13, 16, 17, 12, 8, 7, 15, 5, 14, 13, 13, 12, 11, 13, 11, 7}.
La media y desviación estándar:
.
Aplicando la fórmula de la definición 7.2 obtenemos:
y podemos calcular el valor de t aplicando la fórmula de la definición 7.3
Si buscamos este valor en el Apendix A para 29 grados de libertad (N-1), vemos que debemos rechazar y concluir que existe una diferencia estadísticamente significativa entre las dos muestras. Tenemos razón de creer que el método pedagógico influye en los resultados finales de los estudiantes.
Prueba de z
Existe también una prueba, llamada de z, que se puede usar para muestras más grandes. Se basa en el hecho de que cuando las muestras son más grandes tienden a una distribución normal y no una distribución t. Aparte de eso su concepto y mecánica es similar a la de la prueba t. Puede aplicarse cuando las muestras tienen más de 30 (N>30) observaciones y la principal diferencia de que es capaz de detectar diferencias más pequeñas en los datos lo que reduce el riesgo de un error tipo II.
Prueba de Shapiro-Wilks
En la sección 4.3 mencionamos que existen algunas maneras de estimar si una variable tiene una distribución normal o no. Nos basamos sobre todo en la forma de los polígonos de frecuencias (2.1). Ahora vamos a introducir un test más formal de normalidad.
El test de Shapiro-Wilks plantea la hipótesis nula que una muestra proviene de una distribución normal. Eligimos un nivel de significanza, por ejemplo 0,05, y tenemos una hipótesis alternativa que sostiene que la distribución no es normal.
Tenemos:
: La distribución es normal
: La distribución no es normal,
o más formalmente aún:
.
Prueba de Fisher
Al inicio del capítulo también vimos que uno de los requisitos para que una prueba estadística paramétrica sea válida es que las varianzas sean de similar magnitud. Para ello también existe un test, el test de Fisher18 que plantea las hipótesis:
,
Comentarios
Publicar un comentario