Este tutorial de estadística es una guía para ayudarle a entender los conceptos clave de la estadística y cómo dichos conceptos se relacionan con el método científico y la investigación.
Los científicos suelen utilizar la estadística para analizar sus resultados. ¿Por qué los investigadores utilizan la estadística? Porque gracias a esta pueden comprender un fenómeno al confirmar o rechazar una hipótesis. Es de vital importancia para la mayoría de las teorías científicas y para la forma en que adquirimos el conocimiento
Sin embargo, usted no necesita ser un científico; cualquiera que desee aprender acerca de cómo la estadística ayuda a los investigadores, querrá leer este tutorial de estadística para el método científico.
Esta sección del tutorial de estadística consiste en comprender cómo los datos son adquiridos y usados.
A menudo, los resultados de una investigación científica contienen muchos más datos o información de la que los investigadores necesitan. Estos datos o información, son llamados datos en bruto.
Para poder analizar los datos de manera eficiente, los datos en bruto son procesados en " datos de salida ". Hay muchos métodos para procesarlos pero, básicamente, el científico organiza y resume los datos en bruto en un grupo más eficiente. Cualquier tipo de información oranizada puede ser llamada un " conjunto de datos ".
Posteriormente, los investigadores pueden aplicar diferentes métodos estadísticos para analizar y comprender mejor los datos (y de forma más exacta). Dependiendo de la investigación, el científico también puede utilizar la estadísticas descriptiva o para la investigación exploratoria.
Lo mejor de los datos en bruto es que se puede retroceder y comprobar las cosas si tal vez sospecha que algo que pensaba en un principio ha cambiado. Esto sucede después de haber analizado el significado de los resultados.
Los datos en bruto pueden dar ideas para nuevas hipótesis dado que se obtiene una mejor perspectiva de lo que está pasando. Además, también puede controlar las variables que podrían influir en la conclusión (por ejemplo terceras variables ). En estadística, un parámetro es cualquier cantidad numérica que caracteriza a una población determinada o algún aspecto de ella.
Esta parte del tutorial de estadística le ayudará a entender la distribución, la tendencia central y su relación con los conjuntos de datos .
Muchos datos del mundo real se distribuyen normalmente , es decir, una curva de frecuencia, o una distribución de frecuencia , que tiene el número más frecuente cerca del medio. Muchos experimentos se basan en asunciones de una distribución normal y esta es una de las razones por las cuales, muy a menudo, los investigadores hacen mediciones de tendencia central en las investigaciones estadísticas, tales como la media ( media aritmética o media geométrica ), mediana o la moda .
La tendencia central puede dar una idea bastante buena acerca de la naturaleza de los datos (la media, mediana y moda muestran el "valor medio"), especialmente cuando se combina con mediciones acerca de cómo los datos son distribuidos. Los científicos normalmente calculan la desviación estándar para medir dicha distribución.
Sin embargo, existen varios métodos para esta medición de datos: la varianza , desviación estándar , error estándar de la media , error estándar de estimación o el " rango "(el cual establece los extremos en los datos).
Para crear el gráfico de la distribución normal, usualmente tendrá que usar la media aritmética de una " muestra lo suficientemente grande "y tendrá que calcular la desviación estándar.
Sin embargo, la distribución de la muestra no se distribuirá normalmente si la distribución está sesgada (claro esta) o si iene valores atípicos (frecuentes resultados atípicos o errores de medición) que dañen los datos. Un ejemplo de una distribución que no se distribuye normalmente es la distribución F , que está sesgada a la derecha.
Es por este motivo que generalmente los investigadores tienden a comprobar que sus resultados se distribuyan normalmente usando el rango, mediana y moda. Si la distribución no tiene una distribución normal, esto influirá en la prueba / método a elegir para el análisis.
¿Cómo podemos saber si una hipótesis es correcta o no?
¿Por qué utilizar la estadística para determinar esto?
Emplear la estadística en la investigación implica mucho más que utilizar fórmulas estadísticas o conocer este tipo de softwares.
Hacer uso de la estadística en la investigación consiste básicamente en
La estadística en la investigación no se trata sólo de fórmulas y cálculos. (Muchas conclusiones erróneas se han llevado a cabo por no entender los conceptos básicos de estadística)
La Estadística Inferencial nos ayuda a sacar conclusiones a partir de muestras de una población.
Durante la realización de experimentos , una de las partes más críticas es comprobar hipótesis entre ellas. Por lo tanto, es una parte importante del tutorial de estadística para el método científico.
La comprobación de hipótesis se lleva a cabo mediante la formulación de una hipótesis alternativa la cual se prueba contra la hipótesis nula , el punto de vista común. Las hipótesis se comprueban estadísticamente entre ellas.
El investigador puede obtener un intervalo de confianza , el cual define los límites para considerar un resultado como de apoyo a la hipótesis nula o a la hipótesis alternativa de investigación .
Esto significa que no todas las diferencias entre el grupo experimental y el grupo control pueden ser aceptadas como apoyo a la hipótesis alternativa - el resultado debe diferir de forma estadísticamente significativa para que el investigador pueda aceptar la hipótesis alternativa. Esto se hace usando una prueba de significación (otro artículo ).
Pero cuidado, la tergiversación de datos , la manipulación o la búsqueda de datos sin comprobar posteriormente su hipótesis en un experimento controlado, puede conducir a una conclusión de causa y efecto a pesar de que no exista una relación con la verdad .
Dependiendo de la hipótesis, tendrá que elegir entre pruebas de una o dos colas.
A veces, el grupo de control se sustituye con probabilidad experimental - frecuentemente si la investigación trata un fenómeno que es éticamente problemático , económicamente muy costoso o que consume demasiado tiempo, entonces el verdadero diseño experimental es sustituido por un enfoque cuasi-experimental .
A menudo hay un sesgo de publicación cuando el investigador encuentra que la hipótesis alternativa es correcta, en lugar de tener un "resultado nulo", concluyendo así que la hipótesis nula es la mejor explicación.
Si se aplica correctamente, la estadística se puede utilizar para entender la causa y efecto entre las variables de investigación .
También puede ayudar a identificar las terceras variables, aunque, por otro lado, la estadística también puede ser usada para manipular y encubrir terceras variables si la persona que presenta los números no tiene intenciones honestas (o el conocimiento suficiente) con sus resultados.
El mal uso de la estadística es un fenómeno común, y esto probablemente continuará mientras la gente tenga la intención de influenciar a los demás. Sin embargo, un adecuado tratamiento estadístico de los datos experimentales puede ayudar a evitar el uso no ético de la estadística. La Filosofía de la estadística consiste en justificar su uso apropiado, asegurando la validez estadística y estableciendo en ella la ética .
Aquí está otro gran tutorial de estadística que integra tanto la estadística como el método científico.
Las pruebas estadísticas hacen uso de los datos de las muestras. Estos resultados son generalizados a la población. ¿Cómo podemos saber que esto refleja la conclusión correcta?
Contrariamente a lo que algunos podrían creer, los errores en la investigación son una parte esencial de las pruebas de significación . Irónicamente, la posibilidad de un error de investigación es lo que hace que la investigación sea científica. Si una hipótesis no puede ser falsificada (por ejemplo, si la hipótesis tiene una lógica circular), entonces no es comprobable y, por definición, no es científico.
Si una hipótesis es comprobable, está abierta a la posibilidad de salir mal. Estadísticamente, esto también abre la posibilidad de obtener errores experimentales en los resultados debido a errores aleatorios u otros problemas en la investigación. Los errores experimentales también puede ser divididos en dos error de tipo I y error tipo II . Las curvas ROC se utilizan para calcular la sensibilidad entre los verdaderos positivos y falsos positivos.
Un análisis de potencia de una prueba estadística puede determinar el número de muestras que una prueba necesitará para tener un valor de p aceptable, y así rechazar una falsa hipótesis nula .
El margen de error está relacionado con el intervalo de confianza y la relación entre la significación estadística, tamaño de la muestra y los resultados esperados . El tamaño del efecto estima la fuerza de la relación entre dos variables de una población. Puede que determinar el tamaño de la muestra necesaria ayude a generalizar los resultados a toda la población.
Replicar la investigación de otros también es esencial para entender si los resultados de la investigación fueron un resultado que puede ser generalizado o sólo se debe a un "experimento atípico" al azar. La replicación puede ayudar a identificar los errores aleatorios y errores sistemáticos ( validez de la prueba ).
El Alfa de Cronbach se utiliza para medir la consistencia interna o fiabilidad de la calificación de una prueba.
Replicar el experimento / investigación asegura la fiabilidad estadística de los resultados .
Cuando ves frecuentemente si los resultados tienen valores atípicos, es una regresión a la media , lo que a su vez hace que el resultado no sea estadísticamente diferente entre el grupo experimental y el de control.
Aquí vamos a introducir algunas pruebas estadísticas / métodos frecuentemente usados por los investigadores.
La relación entre las variables es muy importante para los científicos. Esto les ayudará a comprender la naturaleza de lo que están estudiando. Una relación lineal es cuando dos variables varían proporcionalmente, es decir, si una variable aumenta, la otra variable también lo hará. Una relación no lineal es cuando las variables no varían proporcionalmente. La Correlación es una manera de expresar la relación entre dos conjuntos de datos o entre dos variables.
Las Escalas de medición se utilizan para clasificar, categorizar y (si es aplicable) cuantificar variables.
El Coeficiente de correlación de Pearson (o correlación producto-momento de Pearson) sólo expresará la relación lineal entre dos variables. El rho de Spearman es mayormente utilizado para relaciones lineales cuando se trata con variables ordinales. El coeficiente Tau de Kendall (τ) puede ser empleado para medir las relaciones no lineales.
La correlación parcial (y la correlación múltiple) se pueden usars cuando se controla una tercera variable .
El objetivo de las predicciones es entender las causas, teniendo en cuenta que Correlación no necesariamente significa causa . Con la regresión lineal, regularmente se mide una variable manipulada .
¿Cuál es la diferencia entre correlación y regresión lineal ? Básicamente, un estudio de correlación observa la fuerza entre las variables , mientras que la regresión lineal consiste en el mejor ajuste de línea en un gráfico.
El análisis de regresión y otras herramientas de modelado
La probabilidad bayesiana es una manera de predecir la probabilidad de eventos futuros en una forma interactiva, en lugar de empezar a medir y luego obtener resultados / predicciones.
La prueba de t de Student es una prueba que puede indicar si la hipótesis nula es correcta o no. En las investigaciones es comúnmente utilizadapara probar las diferencias entre dos grupos (por ejemplo, entre un grupo control y un grupo experimental).
La prueba t supone que los datos están más o menos normalmente distribuidos y que la varianza es igual (esto puede ser comprobado por la prueba F ).
La prueba de Wilcoxon de rango signado se puede utilizar para datos no paramétricos.
Una Prueba Z es similar a una prueba t, pero generalmente no se utiliza en muestras de tamaños inferiores a 30.
Un Chi-cuadrado se puede utilizar si los datos son cualitativos en lugar de cuantitativos.
Un ANOVA , o análisis de la varianza, se utiliza cuando se desea probar si hay diferente variabilidad entre grupos en lugar de medias diferentes. El Análisis de Varianza también se puede aplicar a más de dos grupos. Por otro lado, la distribución F se puede emplear para calcular los valores de p para el ANOVA.
Análisis de varianza
Algunos métodos comunes utilizando estadística no paramétrica :
Check out our quiz-page with tests about:
Explorable.com (Feb 13, 2008). Tutorial de Estadística. Oct 10, 2024 Obtenido de Explorable.com: https://explorable.com/es/tutorial-de-estadistica
The text in this article is licensed under the Creative Commons-License Attribution 4.0 International (CC BY 4.0).
This means you're free to copy, share and adapt any parts (or all) of the text in the article, as long as you give appropriate credit and provide a link/reference to this page.
That is it. You don't need our permission to copy the article; just include a link/reference back to this page. You can use it freely (with some kind of link), and we're also okay with people reprinting in publications like books, blogs, newsletters, course-material, papers, wikipedia and presentations (with clear attribution).