TL;DR
- Confusores (¿Existe alguna explicación alternativa?).
- Azar (¿Será pura suerte?).
- Sesgo (¿Se midió correctamente?).
- Cuando revisamos cualquier pieza de literatura científica. Estas son las tres cosas que no podemos olvidar evaluar.
¡Estás en el sillón y es hora de decidir! ¿Qué vas a elegir? ¿Vale la pena el artículo que tienes en la mano? ¿Realmente se puede usar lo que estás leyendo? Aquí está lo que tienes que buscar para asegurarte que lo que lees vale la pena.
En una publicación anterior, el Dr. Juan Carlos Serna-Ojeda escribió cómo evaluar un artículo, en esta pieza, me gustaría explayarme en el tercer paso: Revisar la metodología.
Para empezar, la lectura de artículos siempre de involucrar una buena dosis de escepticismo. Cada vez que estamos evaluando la sección de metodología debemos evaluar tres cosas. Los Confusores, el Azar y el Sesgo responden la pregunta: ¿Podemos creer estos resultados? En esta publicación, vamos a introducir brevemente cada aspecto, vamos a evaluar cada una en publicaciones futuras.
Iniciemos por estudiar a los confusores. Cuando un factor que puede afectar el resultado buscado (enfermedad), está relacionado al factor que estamos midiendo (la exposición) se conoce como un factor confusor. En otras palabras, hay una explicación alterna para lo que estamos observando. Este artículo tiene un excelente ejemplo. En 1999, Quinn et al. publicaron un artículo que mostró que dejar una luz nocturna antes de los dos años de edad estaba asociada a un incremento dosis-dependiente de la miopía axial en una muestra de 479 menores. Los resultados no fueron replicables en dos estudios subsecuentes, de hecho, encontraron una explicación alterna: había más probabilidad de que los padres miopes dejaran las luces nocturnas para los niños. Así que en este caso, el aumento en la incidencia de miopía axial era causado por factores genéticos y no por las luces nocturnas. Así que la pregunta aquí es: ¿Existe alguna explicación alternativa para este resultado? Los confesores pueden ser difíciles de detectar ó probar estadísticamente. Un buen abordaje consiste en tener una explicación teórica para la interacción y después proceder a probarla estadísticamente. Se manejan los confesores con el diseño ó análisis del protocolo y la mayoría de los estudios de buena calidad toman su tiempo para discutir los factores confusores potenciales y cómo se manejaron.
La siguiente pregunta sería: ¿Serán los resultados producto del azar? El azar, ó error aleatorio está relacionado a la consistencia de nuestros resultados. En el error aleatorio, encontramos que a veces nuestros resultados son muy pequeños, y otras demasiado grandes, sin mantener ningún patrón definido. Veamos un ejemplo: cuando se mide la presión intraocular, un error aleatorio se daría si tenemos un tonómetro bien calibrado, pero la persona que está midiendo la presión no está bien entrenada. Así que en algunas ocasiones se equivoca por 2 mmHg, y otras por 6 y uno nunca sabe si la observación es más alta ó baja que el valor real. Para poder lidiar con el azar podemos aumentar el tamaño de la muestra ó utilizar varias medidas para obtener un promedio ó intervalo de confiabilidad. En un artículo, una forma fácil de cuantificar el efecto del azar es el valor-p. El valor-p es una medida de que tan seguro está el investigador de que su resultado no es producto del azar. Una pista adicional: debemos considerar el valor-p obtenido y qué tan significativo es en la vida real, no sólo dar por sentado como estadísticamente significativo el valor 0.05. Más información al respecto aquí.
Finalmente, hablemos del sesgo; es decir, el error sistemático. El error sistemático es lo opuesto del error aleatorio. En nuestro ejemplo de la presión intraocular, ésta ocurriría con un tonómetro descalibrado. Todas las medidas estarían equivocadas por 2 mmHg y aunque incrementemos el tamaño de la muestra, aún tendríamos medidas erróneas. Piensa en un metro al que le faltan unos cuantos centímetros; cualquier cosa que midamos con ese metro parecería ser más grande de lo que es, ¡porque el instrumento está errado! Un tipo común es el sesgo de selección. Por ejemplo, esto puede suceder cuando se mide la prevalencia de personas con una enfermedad determinada en un hospital. Como las personas saludables no van al hospital, veríamos un porcentaje personas con la enfermedad mayor que la prevalencia real de la población siendo estudiada, (sobreestimación). El sesgo de medición es otro tipo, este se debe a cualquier tipo de imprecisión en las máquinas ó instrumentos de medida. Así que lo que nos queremos preguntar cuando buscamos sesgos es: ¿Fue medido correctamente? Respondemos esta pregunta revisando la metodología del estudio, asegurándonos que los pacientes fueron seleccionados adecuadamente, que la muestra sea representativa de la población y que se han tomado todos los pasos necesarios para medir acertadamente toda la información. Lo peor que le puede ocurrir a un protocolo de investigación es el sesgo. En primer lugar porque por lo general no se percibe, pero más importantemente porque no se puede controlar ni con métodos estadísticos ni con la aleatorización.
Así que ya sabes; personalmente no me gustan los tatuajes, pero si estás considerando uno para no olvidar que evaluar en la metodología de un estudio, este es EL tatuaje que quieres conseguir: Confusores, Azar, Sesgo.
Discutiremos estos tres elementos en las siguientes publicaciones. Pero si no quieres esperar, espero que los siguientes recursos te sean útiles:
- Un excelente curso de Epidemiología para oftalmólogos y personal de salud ocular:
- Los siguientes artículos: