viernes, 26 de septiembre de 2014

"Nature" se hace eco del sesgo de la investigación no publicada






El epidemiólogo británico, Matthew Hankins, nos conduce a un artículo de Nature, pero, antes de ir, creo que vale la pena comentar el gráfico que ilustra su tweet. Observen que de casi medio millón de estudios publicados en Nature, el número de resultados sin significación estadística (p>0,5) es prácticamente testimonial. 

Si usan el link del tweet del Dr. Hankins llegarán a un artículo, "Social sciences suffer from severe publication bias", donde se explica que, según investigadores de la Universidad de Stanford, sólo se publican un 20% de los estudios sociológicos con resultados nulos. Y de ese escrito, más propio del campo de las ciencias sociales, un nuevo link les puede conducir a un post del blog de ​​Nature, ya específico del sector biomédico, "Ethical failure leaves one-quarter of all clinical trials Unpublished", que dice que, revisado el registro de ensayos clínicos del gobierno norteamericano del año 2009, se observó que el 29% de los estudios, no sólo no habían dado el resultado buscado sino que, al no haberse publicado, el esfuerzo se había perdido para el análisis de la comunidad científica, lo que representa que las pruebas hechas a los 299.763 pacientes que habían participado en ellas, se habían realizado en vano.

Hasta ahora muchos de los que no trabajamos directamente en investigación nos había parecido natural que las grandes revistas eligieran sus publicaciones entre las que habían conseguido los resultados propuestos. Ahora, sin embargo, voces críticas avisan que necesitaríamos tener acceso a todos los resultados, los buenos y los malos, para dimensionar mejor el impacto de las cosas que se ha probado que funcionan, pero también para evitar repetir la investigación que no funciona.

No hay comentarios:

Publicar un comentario