Andrés Jiménez es doctor en Matemáticas por la Universidad de Sevilla y actualmente forma parte de un equipo de investigadores de la Universidad de Cádiz, junto a Ángel Berihuete y José María Gutiérrez, que colabora con el Instituto Nacional de Técnica Aeroespacial (INTA) y la Agencia Espacial Europea (ESA) en el proyecto Observatorio Astronómico Virtual Internacional (IVOA). El equipo trabaja con datos enviados por el satélite SOHO de observación solar.

P) ¿En qué consiste el proyecto IVOA?

R) El Observatorio Astronómico Virtual Internacional es un proyecto que surge a raíz de una serie de inconvenientes que se presentan con la información astronómica que dificultan la labor científica.

1.) El desarrollo de las características técnicas de los sensores, antenas, telescopios, radiotelescopios, etc, los hacen cada vez más eficientes con lo que es imposible analizar los datos a la misma velocidad que son recogidos por lo que la información debe ser almacenada y analizada años después.

2.) Existe una enorme dispersión de la información en muchos casos dependiente de los dispositivos de recogida de datos.

3.) La operación de cruzar y/o complementar datos que provienen de dispositivos diferentes no suele estar prevista con lo cual un estudio no puede complementarse con datos recogidos de forma diferente.

En 2002 se creó IVOA (Acrónimo de “Alianza Internacional del Observatorio Virtual”) con el objetivo de coordinar las actividades de los grandes proveedores de datos astronómicos (NASA, ESA, ESO, etc) de manera que se facilite el uso de los datos con fines científicos.

El IVOA especifica el proyecto de Observatorio Virtual como un conjunto de servidores de datos astronómicos que cooperan entre sí para facilitar a la comunidad científica información de utilidad.

Para ello se fijaron las siguientes especificaciones:

1) La información proporcionada por los diferentes instrumentos debe estar unificada en términos de un formato estándar de datos.

2) Los resultados elaborados por un grupo de investigación deben poder ser utilizados y reproducidos por cualquier otro grupo.

3) El movimiento de datos en la red debe ser mínimo. La red debe utilizarse sólo para comunicar resultados de los análisis y los datos viajar lo mínimo posible.

4) Deben existir programas automáticos que encuentren relaciones entre conjuntos de datos de diferente naturaleza.

5) Los datos disponibles deben estar permanentemente actualizados y se debe notificar de forma automática la aparición de nuevos servicios (nuevos datos o nuevos algoritmos de tratamiento).

El proyecto IVOA tiene ámbito mundial pero se ha estratificado en diferentes subproyectos regionales. A nivel europeo se creó el Observatorio Virtual Europeo coordinado por la ESA.

Y a nivel español lo gestiona el INTA con el nombre de Observatorio Virtual Español.

P) ¿Cómo y cuándo entraste en el proyecto y cómo se está desarrollando?

R) Todo empezó hacia el 2006. Entonces se me planteó la dirección de una tesis doctoral titulada “Métodos estadísticos de reducción de dimensión mediante redes neuronales”. El doctorando,  Angel Berihuete, es el que sería después mi compañero de aventuras y el que propició el contacto.

Angel es un apasionado de la astronomía y asistió a unos cursos de verano sobre Astronomía organizados por INTA donde los asistentes exponían lo que investigaban en aquel momento.

Allí trató el tema de la separación ciega de fuentes mediante computación neuronal y esto abrió una línea de contacto con el INTA porque estaban
interesados en la aplicación de este método para el análisis de las explosiones solares separando sus señales de las de fondo.

A partir de entonces la tesis dio un giro y se fue adaptando poco a poco a una vertiente más aplicada conocida como Astroestadística. De esta forma nos convertimos en consumidores de los datos del IVOA.

En aquél momento se incorporó a nuestro equipo un tercer componente, el también matemático de la UCA José María Gutierrez.

Nuestro trabajo fue más allá de ser simples usuarios de los datos aportados por el IVOA.

Realizamos librerías estadísticas para el tratamiento de los datos astronómicos que soportaban estándar de tablas tipo VO. Diseñamos también prototipos de trabajos por lotes sobre una base de datos genérica SQL y orientados a la clasificación espectral de señales solares de manera automática. Estudiamos la coexistencia de los estándares FITS y tablas VO con métodos estadísticos de clasificación espectral (algoritmos embebidos en la BD) e incluimos en el diseño anterior la versión automatizada de los algoritmos de separación de señales (resultado de la tesis de Angel).

Técnicamente sabemos que es posible mejorar mucho el algoritmo ICA con la obtención de un algoritmo dando como resultados señales interpretables físicamente (pero estas mejoras aun no las hemos sacado a la luz hasta que no estén las demostraciones hechas con rigor.

En 2008 nos plantearon integrarnos en un proyecto de investigación astronómica compuesto por 12 miembros del Ministerio de Educación y  Ciencia, la ESA, el INTA y otros miembros destacados de algunas universidades españolas.

Y a partir de ahí seguimos trabajando en el proyecto básicamente haciendo la mismas cosas pero ya debidamente consolidados como grupo de investigación.

 P)  ¿Qué es la minería de datos?

El datamining es el conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos, de manera automática o semiautomática, con el objetivo de encontrar patrones repetitivos, tendencias o reglas que expliquen el comportamiento de los datos en un determinado contexto.

Básicamente, el datamining surge para intentar ayudar a comprender el contenido de un repositorio de datos. Con este fin, hace uso de prácticas estadísticas y, en algunos casos, de algoritmos de búsqueda próximos a la Inteligencia Artificial y a las redes neuronales.

Algunos ejemplos son:

* Relaciones entre estrellas a partir de un perfil formado por un gran conjunto de variables.
* Clasificación automática de imágenes.
* Clasificación de señales espectrales.

En general pone de manifiesto relaciones desconocidas sobre un conjunto de objetos estelares con el fin de que pueda ser investigada a posteriori.

P) ¿Cuál es la misión del satélite SOHO y cuáles son sus características principales?

R) La misión SoHo fue lanzada en Mayo 1996 y es un proyecto conjunto entre la ESA y la NASA con el objetivo de estudiar el comportamiento del Sol tanto a nivel interno como externo.

Ha sido utilizado ampliamente como herramienta de predicción del “tiempo espacial”.

Originalmente se planeó como una misión de sólo dos años, pero el satélite continúa enviando datos quince años después aunque la mayoría de sus sensores ya no funcionan.

Ha sido durante ese tiempo la fuente principal de información sobre el Sol.

Está orbitando alrededor del punto de Langrage L1 a 1,5 millones de kms. de la Tierra, entre nosotros y el Sol  por lo que tiene una visión continua de la superficie solar.

En condiciones normales la sonda transmite continuamente a 200 kilobits por segundo por lo que al cabo de 15 años esto es muchísima información.

Las observaciones de sus instrumentos son:

– Imágenes en el visible o ultravioleta. Gestionadas por los dispositivos para convertirlos en matrices de puntos.

– Señales espectrales. Gestionadas como lista de datos.

– Parámetros físicos puntuales (de número de partículas o el viento solar) como conjunto de valores discretos.

Los sensores del SOHO son 12 aunque se pueden agrupar en 4 funciones.

1) Los que envían información sobre la estructura interna del Sol. Miden variaciones de la velocidad y oscilaciones en la rotación del disco solar.

2) Los que envían información sobre la superficie solar (fotosfera), miden el campo de velocidad y el magnético y los flujos de plasma. También granulación solar y manchas solares.

3) Los que envían información de la atmósfera exterior (corona). Miden densidad, temperatura y flujos de plasma coronales.

4) Los que envían información sobre las características físico-químicas del viento solar, su flujo másico, su estructura y composición electrónica.

Como curiosidad, SOHO ha permitido descubir más de 2.200 cometas “rasantes” al obstaculizar estos la luz solar por un instante.

La misión SOHO ya ha acabado como misión espacial pero ahora se está explotando toda la información científica que ha generado.

P) ¿Hasta qué punto las matemáticas pueden permitirnos conocer las leyes del universo?

R) A principios del siglo XX se pensaba que el universo era una especie de mecanismo de relojería en el que, conociendo sus leyes, podríamos predecir el futuro y reconstruir el pasado de cualquier objeto existente.

Lo que faltaba, por tanto, era mejorar el conocimiento de las leyes del universo y todo sería predecible de manera mecánica. Esta idea era aplicable en última instancia a la propia creación del universo o cualquier otro sistema cerrado, galaxia, cúmulo de galaxias, estrella o simple átomo.

Pero, usando una herramienta como las matemáticas no podemos conocer todas las leyes del universo ya que las matemáticas están limitadas.

Godel demostró a principios de siglo que cualquier sistema lógico como las matemáticas o que contuvieran el razonamiento matemático (extrapolable a todas
las ciencias) tendría elementos cuya certeza no podría conocerse jamás.

Y para colmo de males, Alan Turing, el mismo que rompió los códigos de la máquina Enigma en la segunda guerra mundial, probó que tampoco se puede conocer a priori cuales son estas preguntas a las que la ciencia no daría respuesta.

En definitiva, la limitación del conocimiento del universo no está en el desconocimiento de sus leyes sino que hay una barrera mucho más profunda en la forma en que el ser humano usa la propia lógica.

P) ¿En qué medida las nuevas tecnologías como la Inteligencia Artificial, la supercomputación e incluso computación cuántica mejorarían nuestros conocimientos del universo?

R) Hay tres tipos de cálculo computacional que utilizan los astrónomos y astrofísicos.

1) Cálculos derivados de ecuaciones resueltas en un número finito de pasos. Son sistemas de complejidad lineal como cálculo de
órbitas, distancias celestes, cambios de sistema de medición y sistemas de referencias, tratamiento de imágenes, señales, etc.. Estos cálculos pueden ser
realizados por ordenadores personales.

2) Ecuaciones resueltas por aproximación en pasos sucesivos con una complejidad polinomial.

Como ejemplo está la clasificación de estrellas, galaxias y cúmulos. Aquí ya es necesaria la supercomputación, la minería de datos y la inteligencia artificial.

3) Sistemas que no pueden formularse mediante ecuaciones a pesar de que se conozca el comportamiento de las leyes del sistema (ley de la gravitación universal, electromagnetismo, termodinámica). Aquí se utilizan técnicas de simulación particionando el sistemas en unidades menores cada una de las cuales se combinan con las demás según las leyes físicas conocidas (simulando el proceso real). Algunos ejemplos son:

•Simulación de creación de galaxias.
•Simulación de estrellas a partir de nubes de polvo.
•Simulación de colisiones de galaxias.
•Colisiones de alta energía en el interior de supernovas.

Aquí la complejidad es exponencial. El número de operaciones crece desmesuradamente cuando aumenta el tamaño del sistema. Cuando el sistema es de tamaño moderado, la supercomputacion resuelve correctamente.

Para sistemas de muchos parámetros o de muchas partículas esperamos que la computación cuántica pueda aportar soluciones en el futuro.

Esta entrevista se realizó en el transcurso del programa de radio Un Punto Azul de Frontera Radio del 3 de noviembre de 2011 que se puede descargar aquí
 
Anuncios