Cuando los datos son la mejor vacuna
Entrevista a Manuel Febrero Bande.
La medicina es uno de los campos en los que el Big Data hace la diferencia. Los datos aplicados al sistema sanitario pueden predecir la evolución de enfermedades, pandemias, sacar del mercado medicamentos con efectos adversos y mejorar la gestión de hospitales y centros de salud.

Uno de los primeros ejemplos de la colaboración entre Big Data y el control de pandemias fue el de Google Flu Trends en 2009 con la gripe aviar H1N1. En este caso, la herramienta de Google aportó búsquedas a nivel mundial para identificar patrones de alerta frente a una de las enfermedades más contagiosas del momento. Google Flu Trends funcionó a la perfección durante algunos años hasta que en 2014 pronosticó un severo brote de gripe que nunca se llegó a dar, y volvió a poner sobre la mesa la necesidad de modelos que combinen la precisión y exactitud de los datos recogidos a partir de la estadística tradicional en los centros de salud o farmacias, con las predicciones en tiempo real.
En este terreno está trabajando Manuel Febrero Bande, Catedrático de Estadística e Investigación Operativa en la Universidad de Santiago de Compostela. Junto a su equipo de investigadores del grupo Modestya de la Universidad, desarrolló un modelo que permite conocer con antelación cómo será la evolución de la gripe para realizar una planificación sanitaria adecuada. Se trata de una herramienta basada en la estadística que utiliza las curvas de temperaturas de los últimos quince días así como datos sobre la radiación ultravioleta, la humedad, registros históricos sobre la influenza y la duración media de las epidemias.

La investigación se publicó en la revista Plos One como estudio científico y acabó convirtiéndose en una aplicación práctica en los centros de salud de Cataluña.

¿Cómo llegaron a trabajar con los datos en el sistema de salud?

Inicialmente mi equipo y yo estábamos interesados en desarrollar un nuevo modelo matemático y buscamos dónde aplicarlo, en qué datos podría tener aplicación.

Uno de los coautores sugirió el caso de la gripe, con la intención de anticiparse a su pico más fuerte, cuando cada vez más pacientes con la enfermedad acuden a los hospitales y centros de salud, y saturan los servicios. Normalmente los servicios de salud no están preparados para recibir estas avalanchas y se ven desbordados.

Nosotros lo que hicimos, además del sistema tradicional de predecir el punto más alto de la gripe que sólo utiliza los datos históricos, empezamos a considerar variables climáticas que podrían disparar ese pico.

Del análisis de los datos encontramos que cuando hay varios días por debajo de los 10 grados, el pico de la gripe se anticipa una o dos semanas. Este dato es mucho mejor que el que había antes pues antes teníamos que esperar que viniera la primer avalancha para predecir que, debido al contagio, vendría una nueva avalancha de gente en algunos días. De esta manera se puede corregir la predicción y establecer que si estamos por debajo de esa temperatura, en una o dos semanas vendrán muchas más personas al servicio de salud.

Si se prevé un episodio de alta incidencia, se pueden reforzar los servicios de urgencia.

¿Qué alcance tiene este sistema de alerta?

Nuestra búsqueda de aplicar el modelo matemático se unió con el problema de los servicios de salud de Cataluña que se saturaban en los momentos más altos de la enfermedad. Ahora se está implementando en Cataluña, como una información online actualizada que le proporcionamos a los servicios de salud para que puedan estar preparados. Próximamente lo instalaremos en Galicia, donde ya tenemos todos los datos.

En Cataluña se ha suscrito un convenio con la Agencia Catalana de Salud, que cada semana publica un documento con la predicción para los siguientes siete días. Desde la temporada epidémica 2016-2017 se está publicando semanalmente en la web de la Generalitat este documento.

¿En qué otros campos trabajas además de la salud?

Yo soy estadístico y la estadística se aplica realmente a todo. Detrás de cada procedimiento científico tiene que haber una validación estadístico-matemática.Tenemos proyectos sobre prevención de incendios, finanzas, y hasta sobre cómo gestionar las flotas que los apagan, o el mantenimiento predictivo de equipos en la industria. Intentamos predecir cuándo puede estropearse un equipo que está funcionando en una industria y anticiparnos para hacerle un mantenimiento preventivo antes de que eso ocurra.

El conocimiento que tú utilizas se emplea en este caso para prevenir epidemias, pero el mismo conocimiento se puede utilizar por ejemplo a la inversa, para hacer un mal uso de manera más eficaz. ¿Te preocupa esa dualidad?

Como persona siempre te preocupa que cualquier cosa que desarrolles se utilice mal, pero nosotros tenemos claro que desarrollamos herramientas. Y una herramienta como el martillo puede ser utilizada para clavar un clavo o para romper una ventana. No vamos a dejar de utilizar el martillo.

Lo que vemos en esto del Big Data es que hay muy poca regulación todavía. La sociedad tiene que evolucionar hacia conseguir una regulación más estricta respecto a qué se puede medir, con el consentimiento de los usuarios. Tiene que avanzar en este tipo de regulación. Yo creo que estamos en una fase muy inicial en ese sentido.

Tú cuando te creas una cuenta de Facebook estás firmando un consentimiento. A lo mejor ese consentimiento es abusivo, y con ese consentimiento abusivo Facebook puede venderle esos datos a un tercero y ese otro puede utilizar la herramienta de la peor manera posible. Habrá que ver qué tipo de regulación se impone para las nuevas fuentes de datos.

¿En qué se diferencia en este sentido el Big Data de la estadística clásica?

La estadística clásica y pública ya tiene las limitaciones de consentimiento entre partes, anonimato, no utilizar esa información para los fines que no fue concebida, etcétera. Con el Big Data las reglas no están tan claras.

Yo no tengo redes sociales, y creo que mi dispositivo me conoce mejor que mi mujer. Tienes cuentas de correo, tienes la de Google, te conoce tu correo, por dónde navegas, tiene un servicio que conoce tu historial, que infiere qué tipo de cosas te gustan, de qué tipo eres. Esto en malas manos puede servir para que te manden mensajes dirigidos para manipularte.

Esto era una problema ético ya en la estadística clásica. Por ejemplo, que una póliza de salud quiera saber tu información personal, o que una compañía de seguros quiera saber todo tu historial de salud anterior. Uno se pregunta si es ético o no es ético. Una compañía de seguros te podría decir que te rebaja la prima de seguros si te pones uno de estos relojes mide pasos y si haces diez mil pasos al día. ¿Ésto es ético o no? Capaz que es mejor, porque si yo hago esos diez mil pasos tendré menos propensión a la enfermedad y el seguro se adapta mejor a lo que yo digo, pero también es cierto que puede venir alguien que no quiera adherirse a ese tipo de programa, y la empresa, en una mala praxis, diga que no le ofrecerá ningún seguro o le ofrezca una prima excesivamente cara para disuadirle de que firme. Aquí siempre hay una parte en el borde, siempre está la duda ética.

Desde mi punto de vista, esto ha sido desde siempre, desde la estadística clásica con datos pequeños que tiene la empresa. Claro que ahora se agranda porque hay muchos datos nuestros en manos de otros, datos que incluso nosotros no conocemos.

¿Pueden mentir los datos?

Los datos no tienen alma. Los que tienen alma son los que lo recogen o los filtran. Quien te miente es quien los recoge o los filtra, o el procedimiento con el cual los recoge.

También es cierto que los datos se tratan con métodos matemáticos o estadísticos que no están al alcance de la población en general, entonces a veces se usa ese desconocimiento de la población de lo datos y procedimientos estadísticos para manipular los resultados, y es común que tu veas a la gente decir que con estos datos la conclusión es esta y con estos mismos datos otro te dice que la conclusión es otra. Porque se aprovechan de que la gente no es capaz de discernir entre la verdad de los datos y la manipulación que impone el analista. Los datos no mienten; mienten los que los trabajan.

¿Son el petróleo del futuro?

Seguramente se van a considerar como un activo financiero en el futuro. Quien tiene la información, tiene el poder y esto lo que hace al igual que un método estadístico, es extraer información de los datos. Extraer poder para tomar mejores decisiones y quien toma mejores decisiones, gana.

EL CASO DEL VIOXX
Un caso en el que el Big Data ha intervenido de forma positiva es el del antiinflamatorio Vioxx. Este analgésico de última generación desarrollado por Merck, llegó a convertirse en un bestseller, con ventas cada año del orden de los 2.500 millones de dólares hasta que Kaiser Permanente, un consorcio sanitario californiano, junto con la FDA, la agencia del Gobierno estadounidense encargada de velar por la seguridad de los medicamentos, recurrieron a técnicas de análisis de datos que revelaron una realidad muy distinta sobre el medicamento. Al repasar la historia clínica de más de un millón de pacientes tratados con Vioxx, descubrieron que la probabilidad de sufrir un ataque al corazón se triplicaba en dichos pacientes. De este modo la historia de èxito de Vioxx terminó gracias al Big Data.

Manuel Febrero Bande es Catedrático de Estadística e Investigación Operativa en la Universidad Santiago de Compostela. Sus intereses de investigación incluyen Series temporales, Bootstrap, Estimación no paramétrica, Estadísticas espaciales, Redes neuronales y Datos funcionales.

Manuel Febrero Bande
Natalia Arralde es la Editora Ejecutiva de Amenaza Roboto.
Natalia es una periodista especializada en producción audiovisual (NHK-CTI Tokyo).
Antes coordinó el proyecto "Periodismo en el Liceo" del MEC, el Servicio Informativo de Televisión Nacional de Uruguay y realizó servicios de producción de contenidos para cadenas internacionales como CNN y Al Jazeera. Además, ha ejercido el periodismo en canal 12, radio El Espectador y FM del Sol, El Observador y El País (suplemento Economía y Mercado).
Natalia dicta clases en la Universidad de Montevideo.

Natalia Arralde

Entrevista a Pablo Lanillos, Doctor en Inteligencia Artificial

Entrevista a Nicolás Loeff, PhD en Ingeniería

Escuchá nuestros podcasts vinculados a la tecnología

La periodista Giannina Segnini reflexiona sobre su disciplina y la tecnología

Entrevista a Ana Matrán-Fernández, investigadora de la Universidad de Essex

Entrevista a Javier Preciozzi de Digital Sense Technologies

¿Por qué debería importar esto en América Latina?

Luminoth: Visión por computadora con Agustín Azzinnari de Tryolabs

Observaciones de una relación malinterpretada

Que comience el diálogo
¡Ponete en contacto con nosotros!
amenazaroboto@gmail.com