viernes, 11 de mayo de 2018

De promedio, los humanos tenemos un testículo








Este artículo trata de la interpretación de los datos. El título es un ejemplo que pone Daniel Levitin en su sugerente libro Weaponized Lies: How to Think Critically in the Post-Truth Era (Penguin Random House, Nueva York, 2017), sobre los errores que se pueden cometer y las mentiras que se pueden decir según como se expongan los datos numéricos. Obviamente, el título del artículo es exacto. Si la proporción de hombres y mujeres es del 50 % aproximadamente, ciertamente los humanos, de media, tenemos un testículo (y un ovario).

Es bien conocida la confusión que se puede generar si interpretamos inadecuadamente el riesgo relativo. Como se ve a continuación, el tratamiento B tiene el doble de efectos adversos que el A. Si no enseñamos el gráfico, parece claro que todo el mundo elegirá el tratamiento A. Pero si observamos la imagen veremos que prácticamente no hay diferencias. Hablábamos de riesgo relativo.





Pero cuando nos referimos a los datos no solo hay un problema de interpretación. Ahora, con la acumulación ingente de datos de que disponemos, damos un salto más: el análisis de datos no únicamente es interpretación (hablar de clústeres es una manera de interpretar datos), sino que, por medio de algoritmos, puede conducir a la prescripción de una manera automática y personalizada.

Acabo de leer el libro de Krisa Taylor The Patient Revolution. How Big Data and Analytics Are Transforming the Health Care Experience (John Wiley & Sons, Hoboken, Nueva Jersey, 2016). La autora afirma que el gran reto que tenemos actualmente es el gran volumen de datos con que podemos contar. Ya no solo hablamos de los datos de la historia clínica. Ahora podemos integrar con mucha facilidad los datos de los wearables (que los recogen pasivamente, sin ninguna intervención directa de los pacientes) y los datos de las apps, que pueden ser pasivos (geolocalización, por ejemplo) o activos (el paciente responde preguntas). Finalmente, también están los datos que generan automáticamente los aparatos. No hay que tener mucha imaginación para pensar en otros datos disponibles que se pueden integrar (con buenas intenciones) para mejorar la atención. Sin ir más lejos, el consumo eléctrico puede dar mucha información que hipotéticamente puede tener usos clínicos (hago una hipótesis: saber cuántas veces se levanta por la noche una persona mayor que vive sola puede alertar sobre el riesgo de caídas). O bien todos los contactos que ha tenido un paciente con dispositivos asistenciales (sanitarios, farmacia comunitaria, centros de rehabilitación...).

Taylor expone los hipotéticos beneficios de la integración de todos estos datos en la nube. Es lo que ella llama personal health cloud (PHC). El PHC, por el contrario que la mayoría de los instrumentos actuales, guía nuestro comportamiento, en lugar de seguirlo.

El análisis automático de los datos personales (personal health analytics) a partir de algoritmos (deep learning algorithms) puede generar recomendaciones o alarmas antes de que se produzca un evento potencialmente peligroso. En el caso de las enfermedades crónicas toda esta información puede generar algoritmos que sean una buena herramienta para cambiar los estilos de vida (dieta, actividad física, sueño saludable, adherencia al tratamiento, etc.). B. J. Fogg hace más de veinte años ya hablaba del concepto de persuasión por medio de la tecnología, y en 2015 la MIT Technology Review publicó un monográfico con el título "Persuasive Technology".

Estamos en los inicios y, por lo tanto, sabemos muy poco de todo esto. No hay que ser especialmente lúcido para prever que la gestión de toda esta información plantea problemas éticos. Algunos de los problemas se relacionan con el hecho de que los datos se ubican en múltiples lugares (a veces en lugares desconocidos para el usuario): no es lo mismo algoritmos que optimizan tareas que algoritmos que toman decisiones. O es importante saber hasta qué punto los algoritmos toman decisiones sin control humano (transparencia del algoritmo). Los algoritmos pueden ser buenos para predecir resultados, pero las predicciones no son causas. Y muchas cosas más.

Ante este mundo nuevo podemos tomar dos posiciones. Una es el principio de precaución: como no sabemos los resultados (actuales y futuros), hay que evitar la acción en este campo hasta que no tengamos más conocimiento. Parece una actitud prudente. Pero plantea dos problemas: primero, los datos ya están en la nube, nos rodean y nos afectan, y segundo, ¿es ético no utilizar datos disponibles que pueden generar beneficios inmediatos a la ciudadanía?

Otra posición puede ser una especie de principio de exploración. El explorador serio se plantea retos (difíciles) pero no es un suicida. El explorador es tenaz e intenta conseguir sus objetivos por vías distintas, hasta que lo consigue.

En todo caso, lo que no vale es hacer como si no pasara nada.

Como en cada artículo, propongo una pieza musical. He elegido la Chacona de J. S. Bach (Partita para violín solo número 2 en re menor, BWV 1004). Es un pequeño homenaje a Jorge Wagensberg (1948-2018). Jorge decía que lo primero que tenían que aprender los niños era el lenguaje: oral y escrito (en tres idiomas), el lenguaje matemático y el lenguaje musical (quizá también dijo el lenguaje artístico, pero no estoy seguro). Bach es la representación más brillante del lenguaje musical. Gracias, Jorge, por hacernos entender la importancia del lenguaje, que las preguntas siempre son más importantes que las respuestas, y que siempre es más útil dudar que tener fe.




No hay comentarios:

Publicar un comentario