Un equipo de investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha desarrollado un algoritmo que permite monitorizar la destrucción causada por conflictos armados a partir de la comparación de imágenes de satélite. De este modo, permite cuantificar casi en tiempo real la destrucción provocada por una guerra para mejorar la respuesta humanitaria. En estos conflictos, los datos suelen ser escasos e incompletos, lo que limita la capacidad de reacción y la respuesta de ayuda humanitaria.
El método, desarrollado en un proyecto coliderado por Hannes Mueller, del Instituto de Análisis Económico del CSIC (IAE-CSIC), y Andre Groeger, de la Universitat Autónoma de Barcelona (UAB), se basa en redes neuronales que han sido entrenadas para detectar en imágenes de satélite características de destrucción de ataques con armamento pesado (artillería y bombardeos), como los escombros de edificios derrumbados o la presencia de cráteres de bombas. El proyecto cuenta con la participación esencial de Joan Serrat, científico del Centro de Visión por Computador y de la UAB.
En el trabajo, publicado en la revista Proceedings of the National Academy of Sciences (PNAS), los científicos han aplicado este método para monitorizar la destrucción de seis de las principales ciudades de Siria (Alepo, Daraa, Deir-Ez-Zor, Hama, Homs y Raqqa), azotadas por un conflicto bélico desde hace más de diez años. Los resultados muestran que es muy eficiente en la monitorización. “Nuestro enfoque”, dicen los científicos, “se puede aplicar a cualquier área poblada siempre que se disponga de imágenes satelitales repetidas de alta resolución”. En el trabajo también participan investigadores de la Chapman University de California (EEUU).
Incluir el factor tiempo
“Un elemento esencial del desarrollo”, puntualiza Mueller y autor principal del artículo, “es que la red neuronal superpone y compara imágenes sucesivas de un mismo lugar contrastándolas sobre una línea temporal que incluye siempre una primera imagen antes del conflicto bélico”. Otra novedad es la incorporación de información espacial y temporal, es decir, aquella información que da contexto a la observación de destrucción. Asimismo, la herramienta incorpora un método novedoso de etiquetado de las imágenes: el sistema es capaz de hacer suposiciones razonables utilizando la información contextual y entrenar el algoritmo con la información de destrucción alrededor de un edificio.
Los métodos automatizados deben ser capaces de detectar la destrucción en un contexto donde la gran mayoría de imágenes no aparentan destrucción. Pero a menudo interpretan como derribados edificios que realmente no lo están, dando lugar a una elevada tasa de falsos positivos.
Incluso en Alepo, ciudad fuertemente castigada por la guerra, solo el 2,8% de todas las imágenes de áreas pobladas contienen un edificio que fue confirmado como destruido por el Programa de Aplicaciones Operacionales de Satélites de las Naciones Unidas (UNOSAT, en sus siglas en inglés) en septiembre de 2016, donde hacen una clasificación manual.
La precisión baja es “un problema muy grave”, explica Mueller. Incluso en ciudades fuertemente castigadas por los conflictos, solo el 1% de los edificios son destruidos. “De ahí que su detección sea como buscar una aguja en un pajar. Si tenemos falsos positivos en las imágenes, el margen de error se dispara rápidamente. En este caso, la precisión de un 20%, por ejemplo, quiere decir que, si un algoritmo dice que algo está destruido, sólo el 20% de lo que dice está realmente destruido”, detalla.
El estudio demuestra que el algoritmo entrenado es capaz de identificar daños en zonas de la ciudad de Alepo que no forman parte del análisis de UNOSAT. También evidencia que su método es capaz de identificar bombardeos en las seis ciudades.
Seguimiento en tiempo real
Los resultados de este trabajo son prometedores y permiten aplicaciones para la detección e incluso el seguimiento en tiempo casi real de la destrucción por conflictos bélicos.
Nuestro método, dicen los investigadores, “es especialmente adecuado para aprovechar la creciente disponibilidad de imágenes de alta resolución. Hemos calculado que el etiquetado manual humano de todo nuestro conjunto de datos costaría aproximadamente 200.000 euros y las repeticiones adicionales de imágenes aumentarían este coste casi proporcionalmente. Con un método automatizado como el nuestro, una mayor frecuencia de imágenes ayuda a mejorar la precisión y el coste adicional es pequeño”.
La destrucción de edificios durante la guerra es una forma específica de violencia particularmente dañina para los civiles y comúnmente utilizada para desplazar poblaciones. Sin embargo, los datos suelen ser escasos e incompletos, lo que limita la capacidad de reacción y la respuesta de ayuda humanitaria.
El uso de imágenes de satélite está creciendo a medida que estas imágenes ganan en resolución, pero no hay métodos eficientes automatizados que ayuden en esta tarea y el margen de error es muy elevado. Por esto, organizaciones como las Naciones Unidas, el Banco Mundial y Amnistía Internacional, que usan imágenes por satélite para evaluar los daños de las guerras, siempre complementan la teledetección con la clasificación manual humana.
Este trabajo se ha desarrollado en el marco de un proyecto interdisciplinar que une a economistas y ciencias de la computación (La Caixa Research Grants on Socioeconomic Wellbeing Evaluation – Analyzing Conflict from Space). Parte del equipo forma parte del grupo de investigación del IAE-CSIC que investiga las raíces de los conflictos bélicos y su impacto en el desarrollo y la estabilidad de los países (Conflicto, Refugiados y estabilidad, CREST). El trabajo ha recibido financiación de la Barcelona Graduate School of Economics (BGSE) en cooperación con la Fundación La Caixa; del programa Severo Ochoa para Centros de Excelencia en I+D; del Ministerio de Ciencia e Innovación, y de la Chapman University (EEUU).
Mercè Fernández CSIC Comunicación