sábado, 4 de agosto de 2012

PRUEVAS ESTADISTICOS

Una investigación bien planificada debe incluir en su diseño referencias precisas acerca de las técnicas estadísticas que se utilizan en el análisis de los datos.
El análisis estadístico es el procedimiento objetivo por medio del cual se puede aceptar o rechazar un conjunto de datos como confirmatorios de una hipótesis, conocido el riesgo que se corre -en función de la probabilidad- al tomar tal decisión. En las últimas décadas, el desarrollo de las pruebas estadísticas se ha incrementado a tal grado que en la actualidad se cuenta con varias pruebas alternativas, las cuales se pueden usar para casi todo diseño experimental, de modo que el investigador se encuentra ante el dilema de seleccionar la más apropiada y económica, para las preguntas que, mediante la investigación, desea contestar.
Ante esa situación, es necesario tener una base racional, por medio de la cual se seleccione la prueba más apropiada. Esta selección constituye el punto crítico del análisis estadístico.
En la selección de una prueba estadística, se deben aplicar los criterios siguientes:
  1. Tipo de escala.
  2. Hipótesis.
  3. Potencia y eficiencia de la prueba.
  4. Características muestrales.
  5. Tendencia rectilínea o curvilínea del fenómeno.


Tipo de escala

En las observaciones de una investigación se puede dar una medición que en este campo consiste en asignar números a objetos y eventos de acuerdo con reglas de la lógica aceptables.
El sistema numérico es una creación altamente lógica, que ofrece múltiples posibilidades, para manifestaciones también de carácter lógico. Si se puede, de manera legítima, asignar números al describir características, objetos y eventos, será factible operar con ellos en todos sus modos permisibles y, de esas operaciones, derivar conclusiones aplicables a los fenómenos observados y medidos. Entonces, se justifica describir cosas reales por medio de números, siempre y cuando exista un grado de isomorfismo (semejanza de propiedades) entre las cosas reales y el sistema numérico, es decir, ciertas propiedades de los números deben tener paralelismo con los fenómenos observados, para que confiadamente se pueda asignar los números.
Tres propiedades fundamentales de los números permiten su aplicación en el campo de la investigación científica: identidad, ordinalidad y aditividad.
  • Identidad
    Cada número sólo es igual a sí mismo, de manera que ningún otro es igual a él, es decir, posee identidad y, por lo tanto, a cualquier objeto o evento diferenciable de los demás, que tenga identidad, se le podrá aplicar un número. Este carácter de identidad de los números de origen a la escala nominal, que es un método para identificar cualitativamente los distintos objetos y eventos, y resulta obvio que no se le puede dar ningún significado cuantitativo, por ejemplo: si en un modelo experimental se cuenta una serie de clases, en las cuales se consignan sus frecuencias, éstas revelan un conjunto de cada clase.
    Grupo de 200 niños con y sin estrabismo.
    Bajo el contexto de la tabla anterior, una muestra de 200 individuos en edad infantil se ha clasificado en dos grupos por sexo (masculino y femenino) y por la presencia o ausencia de estrabismo. Como punto de partida, la operación de escalamiento consiste en que, a partir de una clase dada, se forman subclases que se excluyen mutuamente. La única relación implicada es la de equivalencia, esto es, los miembros de cualquier subclase deben ser equivalentes en la propiedad de medida. A su vez, la relación de equivalencia es reflexiva, simétrica y transitiva.
    Por otro lado, las frecuencias informan de conjuntos de niños o serie de clases con una categoría e identidad, que dan una medida de las observaciones y son los valores sujetos a operaciones aritméticas. En estas condiciones, se puede contrastar hipótesis de la distribución de los casos, mediante la aplicación de pruebas estadísticas no paramétricas del tipo de prueba binomial, ji cuadrada y McNemar. Todas estas pruebas son apropiadas para datos nominales, pues revelan las frecuencias en las categorías, es decir, en datos enumerativos.
  • Ordinalidad
    Además de contar con la propiedad de identidad, las pruebas también tienen un orden o rango siempre mayor que otro, el cual le precede en un continuum ascendente. Los objetos y eventos susceptibles de un ordenamiento a lo largo de un continuum tienen una escala ordinal.
    Las escalas ordinales se emplean frecuentemente en la investigación clínica, en la que el refinamiento cuantitativo a veces no es posible; por ejemplo: cuando se clasifica una respuesta en pacientes bajo los términos sin cambio, mejorado, curado, esto indica un rango de orden y clasificación.
    En conclusión, cabe establecer que mientras las escalas nominales sólo clasifican, las ordinales clasifican y ordenan, de manera que dan como resultado una serie de clases y categorías mutuamente exclusivas, llamadas rangos.
  • Aditividad
    Es importante comprender que los números tienen propiedad aditiva, lo cual quiere decir que la suma de un número con otro debe dar un tercer número único. Esta propiedad de los números no sólo identifica y ordena, sino además puede sujetarse a todas las operaciones aritméticas de los números. Las conclusiones de tales operaciones son válidas para las observaciones y dan lugar a la denominada escala de intervalo.
    De las mediciones que en el terreno de la investigación se hayan realizado, puede inferirse que el tipo de escala (nominal, ordinal e intervalo), de modo que éste es el primer paso para elegir un procedimiento estadístico: la prueba paramétrica y la no paramétrica.
    Mediciones, variables y escala para la elección de la prueba estadística.

Hipótesis

La declaración de la hipótesis alterna (Ha) que se desea analizar debe ser precisa, tan completa como resulte posible, pues se trata de la aseveración operacional de la hipótesis de investigación por el experimentador. Debe precisar la dirección que se espera o la ausencia de dirección. Este último punto es fundamental para decidir si la prueba estadística por elegir será de una o dos colas.
Conjuntamente al proceso anterior, se declara la hipótesis nula (Ho), en la cual simplemente se establece la ausencia de diferencia y se declara, pare percibir con claridad, que la hipótesis se ajusta a la prueba estadística. Esto significa que al analizar un conjunto de observaciones, éstas deben sujetarse a un ensayo de hipótesis nula, condición en la que se basan todas las pruebas estadísticas.
El investigador, al contrastar hipótesis de diferencias y/o correlación, lo establece en función de una hipótesis alterna (Ha) -punto fundamental de la experimentación-, en contra de la hipótesis nula (Ho). Para decidirse por una o por la otra, debe proponerse un razonable nivel de significancia, desde antes de aplicar la prueba estadística.
El nivel de significancia o significación corresponde al límite de confianza, del riesgo de error, que enjuicia el investigador para aceptar su Ha como verdadera. De manera universal y arbitraria, dicho nivel se ha fijado en 0.05 y 0.01 de error y en 0.95 y 0.99 de certeza para aceptar hipótesis en el área psicológica, por que se espera un 5% de variación en las mediciones.
En la teoría contemporánea de la decisión estadística, se han tratado de rechazar los procedimientos que implican adhesión al nivel de significancia comentados, y se favorece el uso de procedimientos en los que las decisiones se toman en términos de función de pérdida, utilizando principios de minimax; sin embargo, aunque parece conveniente esta técnica, las posibilidades de aplicación práctica son dudosas en gran parte, en la investigación psicológica.
Contrariamente a lo anterior, también se debe establecer la zona de rechazo, la cual corresponde al límite de confianza, en que el investigador rechaza la hipótesis alterna y acepta la hipótesis nula.
Bajo los términos expresados, el investigador debe ser meticuloso al elegir la prueba estadística y al plantear la hipótesis, el nivel de significancia y la zona de rechazo, en virtud de que es factible cometer dos errores graves en la decisión estadística:
  1. Error del tipo I. Rechazar la hipótesis nula (Ho), siendo verdadera.
  2. Error del tipo II. Aceptar la hipótesis nula (Ho), siendo falsa.

Debe quedar claro que en cualquier inferencia estadística existe el peligro de cometer cualquiera de los errores mencionados y que el investigador equilibre en un nivel óptimo las propiedades de incurrir en uno u otro tipo de error.
La probabilidad de cometer un error del tipo I está dada por a (alfa), de manera que cuanto mayor sea alfa, más probable será que Ho se rechace, siendo verdadera; a su vez, el error de tipo II está representado por b (beta). La siguiente figura muestra una escala de falso a verdadero, donde cero es falso y el valor uno verdadero.


Escala de probabilidad.
Entre el 0 y el 1 existen valores intermedios, mientras que donde marca 0.95 existe una diferencia de 0.05 con respecto a 1. Este límite corresponde al nivel de significancia o error alfa, donde todo valor igual o meno que 0.05 se acepta Ha. Por lo tanto, 1 - alfa = beta. Se dice que en esta circunstancia, el investigador elige una cola en la decisión estadística. Por otra parte, cuando además de imponer un valor de alfa razonablemente pequeño para aceptar Ha, también define un valor de beta para aceptar Ho, elige dos colas.

De no decidir entre una u otra hipótesis, el investigador se plantea la alternativa de aumentar el tamaño de la muestra, para que el fenómeno se define con más claridad y la decisión en el contraste de la hipótesis sea más consistente.


Eficiencia de la prueba

La validez del análisis estadístico depende mucho de la eficacia de la prueba estadística empleada. Se acepta que una prueba estadística es eficaz cuando tiene una probabilidad muy pequeña de rechazar una hipótesis verdadera, y una alta probabilidad de rechazar la hipótesis cuando ésta es falsa. En presencia de dos pruebas estadísticas, cuya probabilidad de rechazar hipótesis falsas sea igual, la selección en principio debe inclinarse hacia la prueba que tenga la mayor probabilidad de aceptar la hipótesis cuando es verdadera.
La pruebas estadísticas se dividen en dos grandes grupos: paramétricas y no paramétricas. Las primeras son aquellas cuyo modelo especifica ciertas condiciones o premisas que debe tener la población, de la cual se ha derivado la muestra bajo análisis; además se requiere expresar las observaciones en escala de intervalo o tasa. Por otra parte, las pruebas no paramétricas, como su nombre lo indica, no requieren satisfacer esas condiciones o premisas.
Las pruebas paramétricas son las más eficaces y de uso común en la investigación, como las de comparación de promedios o prueba t de Student y la de análisis de varianza de Fischer. Ambos procedimientos deben cumplir las premisas siguientes:
  1. Las observaciones deben ser independientes. Al seleccionar un caso, para incluirlo en la muestra, no se deben prejuiciar las probabilidades de selección de ningún otro caso de la población, asimismo, la puntuación que se dé a una observación no debe prejuiciar a ninguna otra.
  2. Las poblaciones deben provenir de universos cuya distribución siga una curva normal.
  3. Las poblaciones deben tener la misma varianza, aunque en casos especiales es suficiente con saber la tasa de sus varianzas.
  4. Las variables consideradas en el estudio deben ser medidas por lo menos en escala de intervalo, para que sea posible hacer operaciones aritméticas.

Cuando por cualquier razón no se puedan cumplir los requisitos de las pruebas paramétricas, el investigador podrá recurrir a las llamadas pruebas alternas, como la prueba t de Student-Welch, la F asimilada de Cochran y la F de Tukey. En ellas no hay exigencia de homogeneidad de varianzas y, auxiliadas por un modelo matemático de ajuste, se puede obtener una eficacia que es muy cercana a la de las pruebas t de Student y de análisis de varianza.
Cabe señalar que, conforme menos condiciones o presunciones exige una prueba estadística, en que se basa su modelo matemático, más generales son sus conclusiones derivadas de su aplicación; sin embargo, también es menos eficaz para rechazar la influencia del azar, cuando éste no desempeña un papel importante.
Cuando las observaciones en escala de intervalo no se ajustan a las premisas de las pruebas paramétricas, el investigador debe estimar la pérdida de eficacia para decidir utilizar los procedimientos no paramétricos, y transformar aquellas en escalas nominales u ordinales.

Características muestrales

La manera en que influye la muestra para elegir una prueba estadística está en función de su tamaño, selección y distribución en el diseño experimental.
  • Tamaño de la muestra
    Anteriormente se habló de que la eficacia de una prueba estadística disminuye cuando se reducen las condiciones o premisas del modelo; sin embargo, a medida que aumenta el tamaño de la muestra, se incrementa también la eficacia.
    Dicha aseveración generalmente es verdadera para muestras de tamaño definido, pero pueden carecer de veracidad al compararse dos pruebas estadísticas con muestras de tamaños diferentes, es decir, si con un tamaño de 30 por cada grupo, una prueba A puede ser más eficaz que la prueba B; en cambio, la prueba B es más eficaz que A cuando ésta sólo cuenta con un tamaño de muestra igual a 20. En otras palabras, se puede evitar escoger entre potencias y generalización, para lo cual se selecciona una prueba estadística que tenga amplia generalización, y luego aumentar su eficacia, comparable a la prueba más útil, incrementando el tamaño de la muestra.
  • Selección de la muestra
    Las muestras por analizar pueden ser independientes y dependientes o relacionadas.
    • Muestras independientes. Son aquellas cuyo universo de población resulta diferente, lo cual no quiere decir que provengan de áreas desconocidas, sino que, en términos de estadística, la fenomenología estudiada puede ser consecuencia de variables distintas y que, por cada variable existente, hay un universo finito o infinito; por ejemplo, en la Tierra hay un número finito de seres humanos, pero la variable sexo divide en dos universos diferentes: hombres y mujeres. En el mismo sentido, el estado civil define otros universos distintos, solteros, casados, divorciados, viudos, etc. De esta manera, se pueden enumerar múltiples variables, que dan lugar a una infinidad de universos muestrales, de donde es factible elegir muestras independientes.
    • Muestras dependientes o relacionadas. Se refieren a las provenientes de un universo muestral, a las que se aplicará un plan experimental, mediante el cual se espera un cambio, que obligadamente exige un punto de referencia de no cambio. Para esta condición, el mismo grupo experimental sirve como control o testigo, en el momento previo al tratamiento. De esta manera, en el análisis de las observaciones existen dos períodos: antes y después del tratamiento.
  • Distribución de la muestra en el diseño experimental
    En los diseños experimentales, el número de muestras con que está elaborado el modelo de investigación tiene singular valor para elegir la prueba estadística, pues las conclusiones a que se llegue al no aplicar la prueba adecuada darán lugar a falsas interpretaciones del experimento.
    En los modelos de investigación, se puede contar con una, dos o muchas muestras. Asimismo, puede tratarse de muestras independientes o dependientes o relacionadas. Estas características dan un atributo al diseño experimental, que obliga a analizar los datos de manera diferente, acorde con el modelo estadístico que mejor se ajuste a contestar las preguntas planteadas por la hipótesis. Para saber si los pacientes han alcanzado una total remisión de la enfermedad, se atiende a los hallazgos de tiempo de sobrevida y a las alteraciones clínicas de la patología. Si cuenta con varios tratamientos, se plantea la pregunta de cuál de ellos ha sido más efectivo. Así, se puede decir que una investigación cuanta con subclases diferentes. Para analizar sus observaciones y tomar una decisión de la efectividad de los tratamientos, se pueden elegir las pruebas estadísticas diseñadas para contrastar una hipótesis y para una muestra.
    Un ejemplo válido es el de un investigador que trabaja con roedores, para estudiar las características conductuales de agresividad y la concentración de neurotrasmisores en el sistema nervioso central. El conjunto de la muestra está constituido por cobayos, ratas y ratones, que representan grupos con tres gradientes de agresividad. En estas condiciones, el diseño experimental tiene tres muestras independientes. La elección de la prueba estadística se basará en las dos características y en el tipo de escala de las mediciones. En el supuesto de que las concentraciones de neurotrasmisores tenga una medición cuantitativa, una variable continua, una escala de intervalo y una distribución normal, con varianzas homogéneas, la elección más adecuada será el análisis de varianzas de Fischer de una entrada. Si la decisión del investigador fuera utilizar la prueba t de Student, diseñada para dos muestras, cometería tres errores graves: a) pérdida de tiempo, b) las comparaciones serían múltiples, tantas como combinaciones existan (cobayos con ratas, cobayos con ratones y ratas con ratones), c) el más trascendente, desde el punto de vista de la decisión estadística: las conclusiones a que se llegue no serán consecuencia de comparaciones independientes, sino resultarán aisladas y en pequeños pares de grupos de contraste. Es decir, si el investigador supone de antemano que entre los grupos existe variación en el grado de agresividad, perderá la información que la variación entre y dentro de grupos le demuestre la existencia de una diferencia verdadera, al no incluir simultáneamente a los tres grupos.
    El ejemplo descrito permite comprender que cuando se analizan simultáneamente diversos grupos de muestras, las variaciones manifestadas entre los grupos de estudio dan lugar a una diferenciación falsa o verdadera. Los contrastes parciales que se verifiquen llevan el título de independientes, porque se supone una simultánea variación o discordancia entre los grupos. Así, se dice que, en estas condiciones, el modelo experimental conserva ortogonalidad.
    A veces, debido al diseño creado por el investigador, se proponen comparaciones con un modelo de referencia, en el cual se supone la no existencia de modificaciones con respecto a la aplicación de tratamientos o variables. Estos grupos, también denominados control o testigo, servirán de línea base para medir los cambios que pudieran presentarse en los otros grupos. De esta manera, la magnitud del cambio será dependiente de lo que suceda en el control. Este tipo de diseño experimental, debido a las comparaciones dependientes, ha perdido ortogonalidad. (Con mediciones de intervalo, se tiene la prueba de Tukey.)

Tendencia rectilínea o curvilínea del fenómeno

Cuando la hipótesis resulta probar la asociación o correlación de variables, es importante conocer la linealidad del fenómeno. Si es rectilíneo y tiene una escala de intervalo, la aplicación del coeficiente de correlación de Pearson parece adecuada; pero si este mismo procedimiento se aplica a un fenómeno curvilíneo -aún cuando exista una verdadera asociación-, dará lugar a aceptar hipótesis de no asociación.
Un fenómeno curvilíneo puede tornarse en rectilíneo, mediante transformaciones matemáticas (logaritmos, función recíproca, seno, coseno, etc.) y así aplicar la correlación de Pearson.
Si se desconoce la linealidad, se deberá utilizar la prueba de análisis de covarianza para determinar la función matemática más acorde con el fenómeno estudiado.

1 comentario:

  1. Hola buenas tardes, revisando tu articulo veo que mencionas las pruebas alternas, como la prueba t de Student-Welch, la F asimilada de Cochran y la F de Tukey pero me gustaría saber si conoces de algún software que las realice?

    Saludos y gracias

    ResponderEliminar