Connecting Waterpeople
IRTA
TRANSWATER
Lama Sistemas de Filtrado
ADASA
AMPHOS 21
Innovyze, an Autodesk company
Cajamar Innova
RENOLIT ALKORPLAN
MOLEAER
ISMedioambiente
Vector Energy
J. Huesa Water Technology
DATAKORUM
CAF
Rädlinger primus line GmbH
AECID
Saint Gobain PAM
LACROIX
FENACORE
Almar Water Solutions
Barmatec
Minsait
EPG Salinas
Fundación CONAMA
ESAMUR
Confederación Hidrográfica del Segura
ONGAWA
Molecor
FLOVAC
Kamstrup
HRS Heat Exchangers
Aganova
KISTERS
Likitech
TecnoConverting
Consorcio de Aguas Bilbao Bizkaia
AGS Water Solutions
Grupo Mejoras
ADECAGUA
s::can Iberia Sistemas de Medición
Centro Nacional de Tecnología de Regadíos (CENTER)
Amiblu
Xylem Water Solutions España
Hidroglobal
Baseform
TEDAGUA
Sivortex Sistemes Integrals
Fundación Botín
Laboratorios Tecnológicos de Levante
Agencia Vasca del Agua
Idrica
IAPsolutions
Schneider Electric
Aqualia
ICEX España Exportación e Inversiones
Asociación de Ciencias Ambientales
GS Inima Environment
Fundación Biodiversidad
Ingeteam
SCRATS
Global Omnium
Catalan Water Partnership
Sacyr Agua
Ministerio para la Transición Ecológica y el Reto Demográfico
ACCIONA
Filtralite
Hach
Hidroconta
Red Control

Se encuentra usted aquí

Respondiendo a desastres con datos e inteligencia artificial

  • Respondiendo desastres datos e inteligencia artificial
  • Investigadores de la Universidad Politécnica de Madrid desarrollan un procedimiento para evaluar de forma rápida el impacto de las inundaciones mediante la integración de datos de fuentes heterogéneas.

Sobre la Entidad

Universidad Politécnica de Madrid
La Universidad Politécnica de Madrid, es una universidad pública con sede en la Ciudad Universitaria de Madrid.

Los desastres naturales afectan a cientos de millones de personas en todo el mundo cada año. La evaluación del impacto de un desastre es clave para mejorar la respuesta y mitigar cómo un peligro natural se convierte en un desastre social. Con esta idea como telón de fondo, un equipo multidisciplinar de investigadores de la Universidad Politécnica de Madrid (UPM) ha llevado a cabo un estudio en el que se afronta la gestión de las inundaciones y la medición de su impacto multi-dimensional a través de diversas fuentes de datos: sensores ambientales, redes sociales, teledetección, topografía digital y teléfonos móviles. Este procedimiento permite optimizar la primera respuesta (equipos nacionales de emergencia, agentes humanitarios internacionales, etc.) de una manera transparente basada en parámetros cuantitativos y podría ayudar a mejorar la gestión actual de desastres.

La necesidad actual de agentes humanitarios que afrontan desastres es mejorar los sistemas de “alerta temprana” y “respuesta rápida”, para lo cual la estimación del impacto en tiempo real es clave. Mediante el análisis de impacto se pueden calibrar los recursos para la respuesta en el corto plazo pero también identificar las necesidades que se generan a medio y largo plazo, especialmente a través de todo el espectro social de la población afectada. Además, el análisis que se realiza de forma dinámica genera conocimiento que ayuda a mejorar las políticas de preparación y resiliencia para desastres, incluyendo estímulo económico, urbanismo o capacidades públicas.

Un equipo de investigadores de distintas Escuelas y Centros de Investigación de la UPM seleccionaron cuatro inundaciones ocurridas en distintas partes del mundo en los últimos años para realizar un estudio en el que se propone un marco de evaluación de impacto rápido que comprende puntos de referencia geográficos y temporales detallados, así como la posible magnitud socioeconómica del desastre en función de fuentes de datos heterogéneas. El proyecto comenzó en el marco de UN Data For Climate Action Challenge (donde fue finalista con mención de honor). Dentro de este Challenge, los investigadores pudieron acceder a datos heterogéneos de diversos organismos como Orange, Crimson Hexagon, Schneider Electric y Planet. Estas fuentes fueron completadas con datos de Twitter, Google y la NASA. El estudio se realizó en diversas localizaciones para extraer conclusiones sistemáticas.

Los datos satelitales de alta resolución combinados con datos topográficos permitieron extraer la “huella espacio-temporal” de la inundación. Integrando esta huella con datos climatológicos se pudieron caracterizar mejor los umbrales de riesgo y el impacto de lluvias en la infraestructura de zonas rurales y urbanas. Sin embargo, muchas veces los datos climatológicos no son suficientes para detonar las alarmas y tomar las primeras prevenciones que son clave para evitar que las amenazas naturales sean realmente desastres humanos y sociales. Por ejemplo, las inundaciones por desborde de ríos son difíciles de predecir simplemente con estaciones de lluvia. Para ello en el estudio se investigaron proxies de “social media” en forma de señales que generan picos debido al miedo y reacción de las poblaciones al ver el daño incremental que va a causar el desastre. “En algunos casos, las propias personas somos los mejores sensores de información. Poder tener sistemas de escucha de las poblaciones en zonas de riesgo es, sin duda, un elemento que será clave para actores humanitarios” señala David Pastor Escuredo, uno de los investigadores participantes en el estudio.

Para una caracterización más completa del desastre, es necesario integrar las diversas capas geográficas de puntos clave como hospitales o carreteras. Sin embargo, esta imagen estática de la situación es insuficiente. La movilidad que podemos reconstruir a partir de los datos de móviles y la evolución del sentimiento en los días e inclusos meses posteriores al desastre es clave para entender el impacto que se ha causado. Este impacto, sin embargo, no es homogéneo geográfica ni socialmente. Es necesario desagregar al máximo las mediciones de impacto para que sean representativas de todos los segmentos de la población, especialmente la más vulnerable. Para ello se necesitan los mejores datos disponibles.

“Tras esta larga trayectoria hemos podido comprobar que el acceso y compartición de datos del sector privado está afectando a la misión de los actores humanitarios a escala global. Esto nos motiva a diseñar soluciones que faciliten la compartición de forma segura y en tiempo real”, comentan los investigadores. Además de una infraestructura tecnológica en forma de APIs o data lakes, es necesario establecer protocolos basados en evidencias que articulen el acceso a datos con progresiva sensibilidad de privacidad pero también de valor y necesidad de uso. “En este trabajo afrontamos ese reto con un marco multi-nivel de indicadores que usan datos clasificados en niveles de utilidad/privacidad”, indican los investigadores.

“Esperamos que este artículo sirva y anime a la comunidad científica, a los data holders y a los actores humanitarios a seguir explorando con más profundidad y de forma colaborativa y rigurosa el uso de big data e inteligencia artificial para minimizar el impacto que las amenazas naturales tienen sobre las personas en cualquier lugar del mundo”, concluye Pastor Escuredo.

Este trabajo ha sido realizado por el grupo “Resilience UPM team”, en el que se integran Pedro J. Zufiria (Catedrático - ETSI Telecomunicación), Yolanda Torres (Profesora - ETSI Topografía, Geodesia y Cartografía), David Pastor Escuredo y María Martínez-Torres, un equipo que trabaja desde el año 2012 combinando ciencia analítica con principios y metodologías de las ciencias sociales (lo que denominan ciencia social computacional) para monitorear desastres en tiempo real y generar conocimiento accionable que sirva para agentes humanitarios locales e internacionales y mejorar la respuesta y también apoyar en la recuperación de las zonas afectadas, en cualquier lugar del mundo. Han colaborado con diversas agencias de Naciones Unidas, fruto de las cuales han generado publicaciones, y han estado presentes en importantes foros nacionales y e internacionales en resiliencia y cambio climático.

La redacción recomienda