Reseña: Desde el espacio

rde_08_art09

Chávez, Jorge Lira. Tratamiento digital de imágenes multiespectrales. Segunda edición. Universidad Nacional Autónoma de México, 2010, 606 pp.

 

Los programas de exploración planetaria, desde sus inicios, revelaron a la comunidad científica la gran riqueza de información contenida en datos adquiridos mediante elementales imágenes. Así, el conjunto de sondas espaciales a Venus, a planetas del sistema solar exterior y de visita a cometas fue concebido con instrumentos de adquisición de imágenes. En este trayecto histórico, las imágenes analógicas cambiaron su representación de manera muy acelerada, evolucionando a simples combinaciones de ceros y unos. En la búsqueda de solución a problemas de visión, los formatos digitales resultaron adecuados para la aplicación de técnicas cuyo desarrollo está consolidado en las ciencias exactas. Es por tal razón que esta obra basa su notación en desarrollos matemáticos, acertadamente accesibles, exponiendo fenómenos físicos con orientación al campo de la percepción remota.

 

Una cualidad de la publicación es que presenta una estructura a lo largo de sus capítulos que facilita la comprensión, aun de los conceptos más abstractos. El entendimiento de los métodos de tratamiento inicia con el conocimiento de elementos básicos. El primero proporciona una introducción a los aspectos generales de estudio; con formalidad matemática se define a un pixel y al modelo multiespectral de observación; las características para la asociación de pixeles y sus relaciones topológicas de vecindad conducen a representaciones mediante patrones e introducen los conceptos de segmentación y de textura; se describen efectos inherentes, como el ruido y los artefactos. También, se dan los conceptos de frecuencia espacial, factor de contraste y calidad de la imagen, los cuales forman parte de la nomenclatura básica de la disciplina.

 

Una imagen es más que una matriz de pixeles y su proceso de formación inicia en el momento que existe una fuente de energía electromagnética. Por tal razón, el capítulo II ofrece los fundamentos para analizar la interacción espectral de los elementos de una escena ante una fuente de energía radiante, como las leyes radiométricas, la ley de Snell y las superficies lambertianas; resulta muy acertada la descripción sintética de los modelos de dispersión, de las leyes de Plack, Stefan-Boltz-mann y de las interacciones materia-atmósfera por lo que, con toda seguridad, este apartado resultará un material clásico de consulta.

 

El capítulo III forma parte de la introducción, y plantea la caracterización matemática de las imágenes. Las definiciones y formalizaciones sirven para describir el campo instantáneo de vista y permiten caracterizar elegantemente a una imagen multiespectral como la realización de un proceso estocástico.

 

De acuerdo con criterios en la abstracción del procesamiento, el resto de los capítulos quedan divididos en tres partes: la primera está contenida en el IV, V y VI, y corresponde al procesamiento de imágenes; la segunda es el VII, que trata del reconocimiento de patrones; y la tercera, capítulo VIII, presenta los elementos relativos de un área de creciente interés en la percepción remota, esto es, los sistemas de radar de imágenes.

 

En materia de procesamiento, tema de la primera parte, una etapa inicial de todo tratamiento suele ser una adecuación o un preprocesamiento basado en operaciones elementales. El capítulo IV muestra una amplia variedad de transformaciones realizadas en los dominios tanto espacial como frecuencial. La comprensión de los esquemas de elongación y normalización en la frecuencia de ocurrencia es bastante accesible, al igual que la teoría dedicada a la presentación de los operadores diferenciales tipo gradiente y laplaciano. Algoritmos de más alto nivel de tratamiento, como los estándares JPEG y MPEG, tienen base de desempeño en las transformaciones integrales, las cuales, al cambiar el dominio de representación, proporcionan una mejor descripción en términos matemáticos de las diversas relaciones en los datos analizados; por ejemplo, las transformaciones de Fourier, de Hartley, Walsh y Coseno, entre otras, dan elementos para detectar las estructuras de primitivas, realizar filtrado, codificar y, también, describir regiones con textura; la transformada de Radón encuentra muy valiosas aplicaciones en retroproyecciones de la tomografía computarizada; al extender el tratamiento para aplicarlo en imágenes adquiridas en diversas regiones del espectro electromagnético, surge el análisis multivariado; los conceptos presentados de ortogonalidad y de bases ortonormales resultan útiles en el análisis estadístico para reducir la dimensión vectorial y la redundancia de la información, lo cual es de importancia ante el gran poder de cómputo que involucra procesar una escena multiespectral en todas sus bandas. Para una mejor comprensión del tema, la obra ofrece un caso numérico de la descomposición en componentes principales, de sus variantes, así como de expansiones canónicas. El capítulo concluye con la presentación de las principales transformaciones geométricas y quasi-lineales, que resultan útiles para entender problemas de proyección y de restauración.

 

Para facilitar el reconocimiento o la interpretación surge la necesidad de reducir defectos de adquisiciones o de transmisiones ruidosas. El capítulo V está dedicado a presentar la teoría de filtros aplicados en los dominios frecuenciales y de la imagen. En el dominio de la frecuencia se hace una comparación entre los casos ideales teóricos y los algorítmicos de filtros pasa bajas, pasa altas, pasa banda, de corte y homomórfico. En el dominio espacial o de la imagen, el filtrado se efectúa directamente en los pixeles mediante operaciones de convolución o de correlación. Los kernel matriciales definen operaciones de rápido procesamiento aplicables en los filtros de media y gaussiano. Otros de empleo generalizado son el binomial y el de mediana. Una ventaja de los filtros no lineales es que pueden ser diseñados para establecer un compromiso más justo entre reducir ruido y preservar información; ejemplo de ello se da con los sigma, k-próximos vecinos, de gradiente inverso, de ventana rotatoria y Lee aditivo.

 

El tema del capítulo VI es la restauración, que involucra un modelado matemático para mejorar, resaltar o recuperar aspectos y cualidades deseables en una imagen. Mediante técnicas algebraicas, la solución requiere de una estimación muy precisa de la función de degradación para efectuar restauración, por ejemplo, por desenfoque, movimiento o iluminación irregular durante la adquisición. Las primeras formas de solución que se proponen en esta obra son la estimación mediante el filtro inverso en el dominio de la frecuencia y con el filtro inverso constreñido. Mejoras significativas surgen al tomar definiciones de teoría de la información para integrarlas en el denominado filtro recursivo de máxima entropía. La imagen vista como la realización de un proceso aleatorio es un concepto más apegado a un modelo real. El filtrado de Wiener bajo simplificación de propiedades estocásticas y criterios de minimización de error es incluido en este capítulo. Otras técnicas presentadas consisten en la restauración adaptiva, las cuales buscan estimar características locales. Otras alternativas contenidas son la restauración por movimiento uniforme del sensor y mediante la estimación de la función de modulación. En el libro se da orientación adecuada para la estimación y la definición de parámetros, así como para la calibración de los modelos y para controlar la evolución de los procesos recursivos.

 

La segunda parte de esta publicación, el reconocimiento de patrones, corresponde al capítulo VII. El propósito es tener resultados más interpretables automáticamente, como un mapa temático de uso de suelos o un sistema de reconocimiento de huellas dactilares. De entre la gran diversidad de enfoques, el autor presenta una cuidadosa selección de temas, que inicia con una revisión de conceptos y elementos de segmentación. Se hace una presentación formal de los descriptores morfológicos, lo cual tiene como propósito representar la topología de las formas e incluso de las texturas. Descripciones cuantitativas de éstas se obtienen con medidas estadísticas aplicadas en imágenes monoespectrales. El tema de la textura observada en imágenes multiespectrales es complejo y en este libro se proporcionan lineamientos para su estudio. Un complemento importante en el reconocimiento de patrones radica en el estudio de la morfología matemática, ya que su aplicación con mucha frecuencia resulta necesaria en el tratamiento digital de señales e imágenes. A este tema se dedican 40 páginas. Se presenta una revisión de las estructuras algebraicas, así como de las operaciones, propiedades, transformaciones y reconstrucciones, extendiendo el análisis a dos y tres dimensiones. Adicionalmente a la morfología matemática, un tema de interés particular es la clasificación realizada bajo caracterización de la repuesta espectral de los elementos de una escena. El análisis de cúmulos se muestra como un método no supervisado que busca particionar el espacio radiométrico de los pixeles. Mediante esquemas que minimizan el error, el autor realiza una revisión de criterios de agrupamiento de distancia mínima. El siguiente concepto que se ofrece es la clasificación contextual, que consiste en incorporar información del conjunto de pixeles de la vecindad analizada. Lo anterior se deriva de la visión humana y argumentos matemáticos que permiten el entendimiento e implementación del criterio contextual. Al incorporar información de la función de densidad se tiene un clasificador supervisado, en el que con toda naturalidad se introducen criterios de decisión por maximización de probabilidad. Criterios de homogeneidad definen un esquema iterativo de agrupamiento y crecimiento de regiones, siendo éste el último esquema presentado en el capítulo VII.

 

La tercera parte, el apartado VIII, es una contribución relevante no incluida en obras tradicionales de tratamiento digital de imágenes: los sistemas radar. En general, los sistemas pasivos, aéreos y satelitales tienen la enorme limitante de depender de condiciones climáticas, como la nubosidad, para hacer adquisiciones favorables. La percepción remota con sistemas de radiación coherente surge como una alternativa para realizar adquisiciones sin las limitantes de los captores ópticos, pero su análisis resulta altamente complejo. Este capítulo inicia con la presentación del proceso de formación de una imagen, lo cual involucra aspectos ópticos y geométricos de proyección de energía y de dispersión/retrodispersión entre los diversos elementos de la escena radiada. En los temas expuestos se analizan la perspectiva, las sombras, el relieve, el escorzo y la inversión del relieve. También, se incluyen los efectos de rotación de la Tierra y el de desplazamiento de objetos. A partir de los parámetros físicos de interacción, el autor muestra con detalle la ecuación que modela el proceso íntegro de adquisición denominada de radar. En la iluminación coherente, el fenómeno inherente es un ruido de naturaleza compleja, el speckle, cuyo análisis se realiza formalmente mediante funciones de probabilidad y estadística. En la literatura especializada se reportan muchos esfuerzos para eliminar esta degradación, los cuales, inicialmente, asumieron conceptos del filtrado lineal, pero después fueron orientados hacia versiones con desempeño adaptivo. En esta obra se presenta una excelente revisión de las contribuciones más relevantes en filtrado que, por su función, en ocasiones se dan como algoritmos de restauración. Con el estudio de la fase de imágenes SAR es posible la investigación precisa de fenómenos geofísicos, por ejemplo, de subsidencia y de desplazamiento de terreno, lo cual presenta aplicaciones en el estudio de terremotos y de cambio climático por el rompimiento de glaciales.

 

En la publicación se dedica espacio para presentar los conceptos del tema y de la configuración de pares interferométricos. En el siguiente tema se exponen lineamientos para la caracterización de texturas conducentes a su segmentación. La temática expuesta es antecedente para aprovechar las ventajas particulares que proporcionan las imágenes ópticas y de radar para proponer su uso cooperativo. Otros temas incluidos comprenden la teoría del radar polarimétrico y las descomposiciones coherente e incoherente. Entre las propuestas de aplicación se incluyen la detección de contaminación por hidrocarburos, la elaboración de modelos digitales del terreno, la estimación del desplazamiento de masa y la segmentación de vegetación.

 

La obra se ve enriquecida con numerosas tablas, diagramas, ejercicios e imágenes que sirven para ilustrar la teoría mostrada a lo largo de los capítulos. El material de este libro puede ser empleado en curso de Ingeniería, ciencias de la computación y de posgrados relacionados. La vocación de la obra es la percepción remota, aunque la creatividad del autor permite que su lectura y sus aplicaciones estén abiertas a los interesados en el tratamiento digital de imágenes.

 

Miguel Moctezuma Flores

Autor

Es ingeniero mecánico-electricista por la Facultad de Ingeniería de la UNAM, con maestría tanto en Ingeniería Eléctrica por esta casa de estudios como en Procesamiento de Señales e Imágenes por la ENST-Telecom París, donde también obtuvo el doctorado. Ha sido responsable de proyectos nacionales e internacionales de investigación; es autor de diversas publicaciones en percepción remota, procesos estocásticos y reconocimiento de patrones, y ha dirigido más de 40 tesis de licenciatura y posgrado; además, es miembro de comités técnicos de JART, CIECE, ICIAS, CWPR, IEEE-IGARSS y CIARP. Ha realizado estancias sabáticas en el ITAM y en el ISAC-CNR de Italia. Actualmente, se desempeña como profesor de tiempo completo en la UNAM.