Tecnología
Escrito por José M. Enríquez de Salamanca García   
jueves, 15 de marzo de 2007
La revolución en el procesamiento de señales: wavelets

Recibido: jueves, 01 febrero 2007




La revolución en el procesamiento de señales: wavelets

 

José Manuel Enríquez de Salamanca García

e-mail: Esta dirección de correo electrónico está protegida contra los robots de spam, necesita tener Javascript activado para poder verla

 

María José González Fuentes

e-mail: Esta dirección de correo electrónico está protegida contra los robots de spam, necesita tener Javascript activado para poder verla

 

Departamento de Matemáticas

Universidad de Cádiz

 

 

Sería fantástico disponer de una herramienta matemática que nos permitiera ver y analizar el mundo real tal y como lo hacen nuestros propios ojos. El ser humano es capaz de reconocer patrones repetitivos en todo lo que ve y, al mismo tiempo, es capaz de observar esa misma realidad concentrándose en algunos de sus detalles. Por ejemplo, si pudiéramos sobrevolar un bosque, éste aparecería ante nuestros ojos como un manto verde. Si descendiéramos hasta llegar al suelo, podríamos ver que este manto verde no es más que la unión de árboles individuales. Pero tenemos, además, la capacidad de fijar nuestra atención en uno de esos árboles, en sus ramas, en sus hojas y en las gotas de agua que pudieran encontrarse sobre éstas. En definitiva, el hombre es capaz de ver e interpretar el mundo desde distintas escalas de resolución. Sin embargo, esto no es posible si en lugar de nuestros ojos utilizáramos una cámara fotográfica; si ampliáramos la imagen del bosque, con suerte podríamos distinguir el conjunto de árboles individuales, pero no una rama, una hoja o una gota de rocío.

 

Este era el problema que tenía el geofísico francés Jean Morlet, trabajador de la compañía petrolífera Elf-Aquitaine, a finales del siglo pasado. La forma clásica de buscar petróleo consistía en enviar ondas sísmicas a la tierra y analizar sus ecos. De este modo, ya que las ondas sonoras viajan a través de distintos materiales a distintas velocidades, los geólogos podían deducir a qué profundidad se encontraban las capas, el grosor y la composición de éstas. Sin embargo, las señales sísmicas contienen gran cantidad de señales transitorias y de cambios abruptos a medida que pasan de una capa de rocas a otra. Como en nuestro ejemplo de la cámara fotográfica, la herramienta matemática utilizada hasta mediados de los años ochenta no permitía distinguir estos cambios.

 

En astronomía también encontramos problemas en los que es necesaria esta identificación de patrones y de cambios bruscos. Así, por ejemplo, podríamos estar interesados en estudiar la distribución a larga escala de la materia en el Universo, la cual se pensó aleatoria durante muchos años y de la que se sabe, hoy en día, que tiene una estructura muy complicada con vacíos y burbujas. Ante la necesidad de inventariar el universo, y para poder entender su evolución, deberíamos ser capaces de identificar estructuras a distintas escalas, pudiendo así distinguir entre una estrella y una galaxia, lo cual no es siempre obvio.

 

Si seguimos en el mundo de la astronomía, supongamos que estamos interesados en el estudio de un eclipse entre dos satélites de Júpiter. En este fenómeno, consistente en que uno de los dos satélites pasa por la sombra del otro, tenemos a uno de ellos en el campo visual pudiendo observar que su brillo va decayendo más o menos dependiendo de que el eclipse sea anular, parcial o total. Si representáramos la intensidad de esta luz a medida que transcurre el tiempo, obtenemos una curva que nos permite determinar la posición espacial de los satélites de Júpiter (galineanos) con una precisión de hasta 30 km y conocer mejor el comportamiento de nuestro propio Sistema Solar.

 

La idea al estudiar estas curvas de luz es la de estimar los tiempos de comienzo y finalización del eclipse así como el momento en el que el flujo de luz registrado alcanza su mínimo, tiempos que corresponden con tres cambios bruscos en el comportamiento de la señal. La situación perfecta sería una curva del tipo

 

 

Figura 1. Curva de luz.

 

que es simétrica respecto de su valor mínimo. Sin embargo, algunos factores como el movimiento relativo de los satélites, los cambios en el fondo de cielo, la aparición de estrellas en el campo visual así como los errores de observación hacen que, en general, los datos se separen de su situación ideal. A esta distorsión de la señal real la llamaremos ruido.

 

 

Figura 2. Nube de puntos del eclipse de
Europa por Io (7 de julio de 1997).

 

La gráfica anterior muestra un eclipse del satélite Europa por el satélite Io correspondiente al 7 de julio de 1997. Como puede observarse, la señal obtenida (Figura 2) no es más que una nube de puntos que nada tiene que ver con la señal teórica que buscamos (Figura 1). Por tanto, cualquier análisis que queramos hacer del fenómeno, como por ejemplo estimar los instantes de su comienzo y finalización, requiere previamente eliminar el ruido de la curva de luz. Es en este problema de eliminación de ruido donde centraremos nuestra atención.

 

Toda señal obtenida en un proceso experimental puede pensarse que es suma de una señal pura y de un ruido:

+

 

=

(a)

(b)

(c)

 

Figura 3. (a) Señal pura sin ruido; (b) ruido; (c) señal con ruido.

 

Si observamos el ruido añadido a la curva de luz teórica en la Figura 3, podemos ver que tiene una frecuencia muy alta. Para entender mejor qué queremos decir cuando hablamos de altas frecuencias, analicemos las siguientes ondas, y = sen 4x e y = sen x, pintadas en verde y rojo respectivamente:

 

 

Figura 4. Ondas y = sen 4x (verde) e y = sen x (rojo).

 

Ambas tienen un patrón que se repite (decimos que las funciones son periódicas), siendo el periodo de la primera de ellas de mucha menos longitud (T1) que el de la segunda (T2). Diremos, además, que la onda verde tiene una frecuencia alta, es decir, que oscila más rápidamente, y que la roja, sin embargo, es una onda de frecuencia más baja. Matemáticamente, las ondas anteriores son del tipo A sen nx ó B cos  nx, donde n determina la frecuencia y A, B la amplitud, o importancia de la onda. Por ejemplo, si consideráramos las ondas representadas en la Figura 5, la función y = sen x es tres veces “más importante” que la onda y = 1/3 sen x a pesar de tener la misma frecuencia y periodo.

 

 

Figura 5. Ondas y = 1/3 sen x (verde) e y = sen x (rojo).

 

Por tanto, si nuestro propósito es eliminar el ruido en la señal de la Figura 3 (c), deberíamos ser capaces de poder detectar las altas frecuencias que hay en ella, algo que en principio puede resultar muy complicado. Es por esto por lo que nos planteamos ver la señal de otra forma distinta a la dada.

 

Consideremos el siguiente ejemplo. Supongamos que estamos interesados en sumar los números XXVII y CXLI expresados en el sistema de numeración romano. Para abordar este problema podemos plantearnos lo siguiente: pasar a sistema decimal los números anteriores, realizar aquí la operación pertinente y deshacer el cambio para expresar la solución en el sistema de numeración romano.

 

 

Si nos planteamos una solución similar a nuestro problema de eliminar el ruido de una señal dada, deberíamos pensar en la existencia de una conversión de esta señal en otro sistema de representación en el que sea mucho más fácil identificar las altas frecuencias. Fue el matemático francés Jean Baptiste Joseph Fourier quién encontró este nuevo sistema de representación.

 

Podemos afirmar que Fourier hizo dos contribuciones fundamentales las cuales han dominado el análisis matemático durante cientos de años: primero, una afirmación matemática (probada posteriormente por Dirichlet) formulada en 1807 y segundo, una explicación de por qué esta afirmación era de utilidad. La afirmación matemática no era otra que “cualquier función periódica puede ser representada como suma infinita de senos y cosenos”, lo que hoy día denominamos serie de Fourier. Lo que quiere decir esta afirmación es que cualquier curva que se repita, es decir, periódica, y por muy irregular que sea, puede expresarse como suma de oscilaciones perfectamente suaves (senos y cosenos) de distintas frecuencias y amplitudes.

 

Si comparamos nuestra señal con un color, como una determinada tonalidad de naranja, y las funciones sinusoidales con una paleta de colores, el rojo y el amarillo representarán las frecuencias que componen dicho color, y la cantidad que debemos utilizar de cada uno de ellos sería el equivalente a la amplitud.

 

La utilidad de la afirmación de Fourier, en nuestro caso particular, es que nos va a permitir eliminar el ruido de nuestra curva de luz. Para ello, bastará escribir nuestra señal como suma de senos y cosenos de distintas frecuencias y amplitudes, eliminar las frecuencias más altas, que son las correspondientes al ruido, y deshacer el cambio.

 

 

De este modo somos capaces de eliminar el ruido en la Figura 3 (c), obteniendo la señal de la Figura 3 (a).

 

La transformación de Fourier ha sido durante los siglos XIX y XX de vital importancia, hasta el punto que llevó a científicos e ingenieros a pensar en ella como la mejor forma de analizar fenómenos de todo tipo. Sin embargo, observemos la Figura 6, correspondiente a un registro sísmico de un terremoto:

 

 

Figura 6. Terremoto localizado en Jimena de la Frontera (Cádiz) el 28 de marzo de 2001.

 

Cualquier registro sísmico, ya sea analógico o digital, está siempre afectado por un ruido debido, principalmente, a fuentes naturales como el viento, las mareas o corrientes de agua, a otras fuentes artificiales como el tráfico o la industria, o a la propia instrumentación o proceso de observación. La señal anterior tiene innumerables cambios bruscos, altas frecuencias, los cuales representan, en este caso, información y no ruido, ya que indican la llegada del terremoto. Así pues, si utilizáramos la transformada de Fourier para eliminar el ruido de esta señal, suprimiendo las altas frecuencias, eliminaríamos también la información más relevante. Nos encontramos, pues, que el análisis de Fourier no es el indicado para analizar señales con cambios abruptos. Pero esta, además, no es la única limitación de este sistema de representación. La interpretación física no es siempre sencilla; la serie de Fourier nos indica cuánto de una determinada frecuencia contiene la señal, pero nada nos dice de cuándo dicha frecuencia ha sido emitida. Una forma de comprender este problema es analizar el sonido de un diapasón. Al golpearlo, se obtiene un tono puro que perdura largo tiempo. Por este motivo, si escucháramos un diapasón podríamos reconocer perfectamente su tono, pero no podríamos saber cuándo ha sido golpeado. Precisamente esto es lo que hace el análisis de Fourier: descomponer una señal en “tonos” puros que nada nos dicen de cuándo han sido emitidos, de modo que la información en cada instante se distribuye a lo largo de todas las frecuencias. Imaginemos el registro de una señal durante una hora en el que cometemos un error en el último minuto. La transformada de Fourier cambiaría por completo, y todas las ondas quedarían contaminadas por este error.

 

Para resolver los problemas anteriores surgió la idea de “construir ventanas” con el fin de estudiar las frecuencias de la señal segmento a segmento.

 

 

Figura 7. División por ventanas del terremoto de Jimena.

 

En 1975, en su búsqueda de petróleo, Morlet comenzó a utilizar el análisis de Fourier por ventanas, colocando al principio ventanas grandes, de tamaño fijo, aquí y allí para analizar los ecos. Posteriormente, cuando el precio de las computadoras comenzó a caer en picado y pudo disponer de un número suficiente de ordenadores para acelerar el cálculo, comenzó a hacer las ventanas fijas más pequeñas y solapadas. Sin embargo, al disminuir el tamaño de las ventanas no podía detectar las frecuencias más bajas que correspondían, además, a las capas más gruesas. Por ejemplo, si volviéramos a nuestro bosque y nos acercáramos mucho a uno de los árboles, podríamos admirar sus hojas, ramas y alguna que otra gota de rocío, pero no veríamos si ese árbol es un árbol aislado o si, por el contrario, hay un bosque a nuestro alrededor.

 

Por tanto, la elección del tamaño de la ventana no sólo no es fácil, sino que es muy restrictivo. Otro problema a tener en cuenta es que el análisis de Fourier por ventanas no tiene un algoritmo numérico que permita reconstruir la señal a partir de su transformada, por lo que la técnica de eliminación de ruido presentada antes tampoco podría aplicarse.

 

Por todo esto, Morlet cambió de tercio; empezó a estirar y comprimir, como un acordeón, una misma ventana, considerando de esta forma ventanas de distintos tamaños, y la desplazó a lo largo del tiempo. Al trozo de señal que aparecía en esa ventana la comparaba con unas funciones tipo ondas muy parecidas a los senos y cosenos, las cuales eran también el resultado de estirar y comprimir una misma función de análisis. Ya que estas nuevas funciones de análisis que sustituían a los senos y cosenos de Fourier tenían la misma forma, estiradas o comprimidas, las llamó “wavelets de forma constante”, aunque posteriormente se conocerían como wavelets de Morlet. De este modo, cuando estiraba la ventana también lo hacían las ondas de análisis, decayendo su frecuencia, mientras que cuando comprimía la ventana las wavelets también lo hacían, aumentando su frecuencia. El desplazar las ventanas de distintos tamaños le permitía, además, poder determinar qué frecuencias encontrar en un determinado intervalo de tiempo.

 

 

Figura 8. Wavelets de Morlet. Al estirar y comprimir la función wavelet obtenemos ventanas de distintos tamaños.

 

 

 

Figura 9. Fijado el tamaño de una ventana, la desplazamos.

 

 

Estirar y comprimir las wavelets lo cambió todo. Automáticamente se adaptaban a las diferentes componentes de una señal, usando ventanas pequeñas para detectar cambios bruscos, o altas frecuencias, y ventanas más grandes para detectar ciclos largos, o sea frecuencias más bajas. A este procedimiento se le llamó multirresolución: la señal es estudiada en resoluciones bajas (usando ventanas grandes) para obtener una visión general de la señal, y a resoluciones cada vez más altas (ventanas más pequeñas) con la intención de estudiar los detalles. Es por esto por lo que se considera a las wavelets como un “microscopio matemático”.

 

Pero las wavelets no sólo permiten mirar de cerca los detalles de la señal, sino que también codifican sólo los cambios, generando ceros siempre y cuando nuestro microscopio no detecte ningún cambio significativo.

 

Para comprender mejor por qué las wavelets generan ceros cuando no detectan cambios, consideremos la siguiente serie numérica compuesta por ocho números y calculemos los promedios tomando los números adyacentes de dos en dos, de cuatro en cuatro y la media de los ocho números de la serie.

 

 

En el primer nivel del análisis obtenemos que la señal original queda dividida en una parte de baja resolución, (0,-2,1,1), y una parte que nos da el detalle para poder recuperar la serie original, (2,-2,0,0). A estos detalles de alta frecuencia se les conoce también como coeficientes de Haar. Razonando igual con la parte de baja resolución anterior llegamos a que la serie (2,-2,-4,0,1,1,1,1) puede ser codificada como (0,-1,1,0,2,-2,0,0), donde el primer cero indica la media y el resto los detalles que vamos añadiendo a cada escala. La ventaja de esta nueva serie numérica es que necesitaremos almacenar sólo los coeficientes de baja resolución junto con algunos coeficientes de detalle.

 

Al ir trasladando los dilatados de nuestra función de análisis a lo largo de la señal obtenemos la información en frecuencia de dicha ventana, es decir, el parecido entre la wavelet (con sus picos y sus valles) y el correspondiente segmento de la señal. Este parecido o correlación vendrá determinado por lo que llamamos coeficiente wavelet asociado a dicha posición y escala o tamaño de la ventana. Volviendo al ejemplo de la paleta de colores, si comparásemos el naranja con el color azul cian el parecido sería nulo, mientras que la similitud sería enorme si lo comparáramos con el rojo. De igual modo, una fuerte correlación o coeficiente wavelet grande significaría que hay un trozo de la señal que se parece mucho a la wavelet que estemos considerando. Así, por ejemplo, si analizamos la Figura 10, se puede observar que el coeficiente wavelet será significativo en la primera ventana y casi nulo en la segunda.

 

 

Figura 10. Desplazamos la ventana para comparar la señal (azul) con la función wavelet (magenta).

 

Ya que las wavelets indican cambios, cuando no existen variaciones significativas los coeficientes serán pequeños y pueden no almacenarse. Es lo que ocurre, por ejemplo, al comprimir la imagen de una casa blanca con una pequeña puerta azul; lo más probable es que un punto blanco esté rodeado de puntos blancos, de modo que al utilizar nuestro microscopio matemático la wavelet no detecta ningún cambio y, consecuentemente, genera coeficientes nulos.

 

Por tanto, la gran potencia de este método es que concentra la información de señales poco bruscas, o sea, con escasos cambios, en pocos coeficientes. Dicho de otra manera, “clasifica” la señal utilizando pocas ventanas. Sin embargo, no puede clasificar el ruido. Como dice Meyer, de la Universidad de París y descubridor de las primeras wavelets ortogonales suaves: “El ruido es febril, y continúa siéndolo independientemente del sistema de representación que se utilice”. Aún así, lo característico del ruido es que su información se dispersa a lo largo de todas las ventanas, dando lugar a pequeños coeficientes que pueden ser eliminados.

 

La eliminación del ruido estará basada, en este caso, en un método consistente en establecer unos umbrales wavelet, de modo que los coeficientes wavelet que estén por encima de dicho umbral se conservan y todos los demás se hacen cero. Teniendo en cuenta esto, la mejor base para eliminar ruido será aquella que mejor concentre toda la información de la señal en unos pocos coeficientes.

 

Así pues, el método wavelet para la eliminación de ruido es muy sencillo; se aplica la transformada a la señal, se eliminan los coeficientes que estén por debajo de un determinado valor o umbral en cualquier resolución, y por último se reconstruye la señal.

 

 

Si volvemos a la señal de nuestro terremoto y consideramos su representación wavelet y los coeficientes asociados a las ventanas más pequeñas (frecuencias más altas) obtendremos dos tipos de coeficientes: grandes, situados en aquellas ventanas que intersecan la llegada del terremoto, y casi nulos, en el resto. Por tanto, eliminando los coeficientes más pequeños no estamos afectando la parte de la señal que nos interesa que es, precisamente, la llegada del terremoto.

 

 

Figura 11. Terremoto localizado en Jimena de la Frontera (Cádiz):
(a) señal original; (b) señal sin ruido.

 

De igual modo, si consideramos la nube de puntos correspondiente a nuestro eclipse, obtenemos un resultado sorprendente (Figura 12):

 

 

Figura 12. Curva de luz obtenida a partir de la nube de puntos correspondiente
al eclipse de Europa por Io.

 

El análisis wavelet, sin ninguna información adicional de cómo debería ser en teoría la señal, es capaz de “desenmascarar” la curva de luz buscada de la nube de puntos que, en principio, puede resultar completamente caótica y alejada de lo que buscamos.

 

La teoría wavelet se ha desarrollado vertiginosamente en la última década, y lo sigue haciendo fruto de las numerosas aplicaciones que se están probando de esta teoría y de las muchas cuestiones que todavía quedan por resolver. Ya que las wavelets responden a cambios y pueden centrarse en una determinada parte de la señal, muchos investigadores las están utilizando para reconocimiento de patrones. En meteorología, por ejemplo, investigadores del Institut du Globe en París utilizan el análisis wavelet para estudiar el minúsculo efecto en la velocidad de rotación de la Tierra debido a la corriente oceánica El Niño. El hecho, además, de que los errores no corrompen toda la transformada wavelet como ocurre con la transformada de Fourier, hace que este análisis sea de gran utilidad en medicina. Es más, están siendo aplicadas en el análisis de imágenes de resonancia magnética del cerebro, estudiando su funcionamiento en pacientes alcohólicos y en voluntarios sanos. De igual modo, investigadores del Centro Médico Rochester han encontrado unas wavelets que resultan ser una herramienta muy útil para el análisis de electrocardiogramas, teniendo un gran potencial no sólo para predecir pacientes en riesgo de muerte repentina por infarto de miocardio, sino incluso para detectar anomalías características del síndrome QT Largo, un desorden muy raro que causa la muerte de entre 3000 y 4000 niños y jóvenes en Estados Unidos al año.

 

Pero las wavelets también tienen un futuro muy prometedor en el cine. Ya que la transformación wavelet es un proceso reversible, es tan fácil sintetizar una imagen (construirla a partir de wavelets) como analizarla (descomponerla en wavelets), motivo por el cual está siendo utilizada como una nueva técnica de modelado matemático en el mundo de la animación. El 25 de noviembre de 1998, Walt Disney Pictures presentó un largometraje de animación informática llamado Bichos, en el cual se consiguió desarrollar mediante wavelets todos los personajes de la historia (sus texturas, sus innumerables expresiones, así como la forma en la que se movían) mediante un nuevo método de animación conocido como superficies de subdivisión. Gracias a este método, dibujar un personaje animado se reducía a fijar algunos puntos clave de la figura, creando así una versión a baja resolución. La computadora hacía el análisis inverso para que el personaje tuviera una forma más real y no la de un simple esbozo.

 

Pero quizás una de las principales aplicaciones del análisis wavelet sea la de compresión. Así, por ejemplo, cuando nos bajamos una imagen de Internet, uno prefiere ver la imagen que se está bajando desde el principio, aunque no tenga inicialmente mucha resolución, a ver cómo esta imagen se va construyendo poco a poco desde la parte superior de la pantalla hasta la inferior. Usando un análisis de multirresolución, podemos enviar los coeficientes a escalas más grandes para, posteriormente, enviar los de las escalas más pequeñas, de modo que si la transmisión es interrumpida, la imagen tiene la misma resolución en la parte superior que en su parte inferior. Es por esto por lo que las wavelets son el eje central de la compresión JPEG-2000 de imágenes digitales.

 

 

Conclusión

 

El análisis de Fourier, a pesar de presentar ciertos problemas a la hora de reconstruir señales abruptas, ha sido la única herramienta matemática existente para el análisis de señales durante mucho tiempo. El análisis wavelet viene a complementar, pues, esta herramienta, ya que no sólo nos permite representar este tipo de señales sino que, además, disminuye la información necesaria para la reconstrucción.

 

Aunque esta nueva técnica tiene menos de dos décadas, sus conceptos han ido surgiendo de una serie de ideas que se han desarrollado, durante casi dos siglos, para resolver problemas de diversas disciplinas, tales como detectar petróleo, comprimir bases de datos, eliminar ruido, y otros muchos que se habían conseguido solucionar con determinados algoritmos numéricos de los que, hoy día, se sabe que forman parte de una representación wavelet. Por tanto, el lenguaje wavelet ha supuesto no sólo un nuevo enfoque para el tratamiento de señales sino, además, una oportunidad inusual para que científicos de diferentes campos de investigación trabajen juntos, creándose así una atmósfera de retroalimentación, donde las necesidades y aplicaciones de la ingeniería provocan el desarrollo y formalismo matemático, y viceversa.

 

 

Referencias

 

Bibliográficas:

J.E. Arlot et al: Mutual events of the Galinean satellites: the Phemu 97 Campaign. In The 4th Workshop on Positional Astronomy and Celestial Mechanics, 1997.

 

B.B. Hubbard: The world according to wavelets: The story of a mathematical technique in the making. A.K. Peters Ltd., Wellesley, Massachusetts, 1998.

 

S. Mallat: A wavelet tour of signal processing. Academic Press, London, 1999.

 

A. Pazos, M.J. González, G. Alguacil: Non-linear filter, using the wavelet transform, applied to seismological records. J. Seismology 7 (2003), 413-429.

 

M.E. Ramírez, Y. Jiménez, M.J. González, M. Berrocoso, M. Sánchez-Francisco: A new data analysis technique in the study of mutual event lightcurves. Astronomy and Astrophysics 448 (2006), 1197-1206.

 

En Internet:

D. Mackenzie y otros: Wavelets: ver el bosque y los árboles,
http://www7.nationalacademies.org/spanishbeyonddiscovery/mat_008276.html

C. Cabrelli, U. Molter: ¿Ondículas, wavelets? Una buena señal,
http://mate.dm.uba.ar/%7Ehafg/papers/senal.htm

 

 

 

 

Sobre los autores

José Manuel Enríquez de Salamanca es profesor de enseñanza secundaria e imparte actualmente docencia en el IES Pablo Ruiz Picasso de Chiclana (Cádiz). También pertenece al grupo de investigación de Astronomía y Geodesia de la Universidad de Cádiz y se encuentra desarrollando su línea de investigación en el campo de la geodesia física y espacial. Asimismo, ha participado activamente en las campañas de observación de fenómenos mutuos entre Júpiter y sus satélites, PHEMU'97, así como en diversas campañas antárticas para el estudio y control de la isla volcánica Decepción.

 

 

María José González es profesora titular de Análisis Matemático en la Universidad de Cádiz (UCA) desde el año 1997. Obtuvo el título de doctora en la Universidad de Yale (USA). Ha sido profesora en las Universidades de Washington (Seattle, USA) y Autónoma de Barcelona. Especialista en análisis complejo y análisis armónico, ha publicado artículos de investigación en prestigiosas revistas internacionales, y participado en numerosos congresos. Pertenece además al grupo de investigación de Astronomía y Geodesia de la UCA. En el ámbito de la divulgación, ha pronunciado conferencias y escrito varios ensayos relacionados con la teoría de wavelets.