270 5 4MB
Spanish Pages [92]
FORCLIM Bosques y cambio global Volumen 4
Tratamiento de imágenes ópticas y de radar para el estudio de los bosques Autores: Jorge Lira, Norma Dávila Red Temática CYTED 408RT0338
Este libro se acoge a una licencia Creative Commons Attribution ‐ Share Alike 3.0 Unported (Reco‐ nocimiento ‐ Compartir Igual).
Se permite:
copiar y distribuir el trabajo original. realizar trabajos derivados a partir del original.
Con las condiciones de:
citar este trabajo en la forma que figura a continuación. distribuir cualquier trabajo derivado de éste bajo una licencia igual o equivalente.
A efectos bibliográficos, este libro debe citarse como sigue: Lira, J.; Dávila, N. 2012. FORCLIM, Bosques y cambio global. 4. Tratamiento de imágenes ópticas y de radar para el estudio de los bosques. CYTED, Madrid, 90 pág. ISBN (obra completa): 978‐84‐15482‐61‐1. ISBN (Vol. 3): 978‐84‐686‐0149‐6. El proyecto ha sido financiado por el Programa CYTED (http://www.cyted.org/) y realizado por la Red Temática FORCLIM. Primera edición, 2011. Editado por Bubok Académico (http://www.bubok.es/bubok‐academico).
Contenido Tratamiento de imágenes ópticas y de radar ............................................... 7 Introducción ................................................................................................................. 9 Radiación electromagnética ..................................................................................... 9 Paquete de ondas ................................................................................................... 11 Imágenes de radar .................................................................................................. 15 Generación de una imagen multiespectral................................................................. 17 Modelo vectorial de una imagen multi-espectral ....................................................... 20 Análisis morfológico del cambio de la cobertura forestal.......................................... 22 Introducción ........................................................................................................... 22 Materiales y métodos ............................................................................................. 23 Medidas del cambio vectorial................................................................................. 26 Lógica probabilística multivaluada ......................................................................... 29 Resultados .............................................................................................................. 30 Morfología de las cubiertas del bosque ................................................................. 31 Conclusiones .......................................................................................................... 32 Formación y naturaleza de una imagen radar ............................................................ 33 Sistema de apertura sintética ................................................................................. 38 Geometría de formación de imagen ....................................................................... 43 Resolución de un radar de apertura sintética ........................................................ 45 Aspectos físicos y geométricos .................................................................................. 48 Perspectiva ............................................................................................................. 48 Sombras y relieve ................................................................................................... 49 Escorzo ................................................................................................................... 50 Naturaleza y modelación del speckle ......................................................................... 56 Naturaleza del speckle............................................................................................ 56 Modelación del speckle .......................................................................................... 57 Reducción del speckle ................................................................................................ 62 Técnica multi-look .................................................................................................. 62 Métodos digitales ................................................................................................... 64 Radar polarimétrico .................................................................................................... 70 Descomposición coherente ................................................................................... 70
Descomposición incoherente ................................................................................ 72 Interferometría radar .................................................................................................. 74 Configuración de pares interferométricos ............................................................. 74 Desarrollo de la fase ............................................................................................... 79 Producción de un modelo digital de elevaciones .................................................. 82 Discusión y conclusiones ........................................................................................... 85 Referencias ................................................................................................................. 87
CYTED – Red FORCLIM
Tratamiento de imágenes ópticas y radar para el estudio de los bosques Jorge Lira, Norma Dávila Contacto: [email protected] Instituto de Geofísica Universidad Nacional Autónoma de México México
Prólogo Las imágenes multiespectrales son un modelo numérico de la distribución espacial de la respuesta espectral de una escena cuando ésta es sujeta a radiación electromagnética incidente. En la actualidad existen imágenes multiespectrales adquiridas empleando radiación tanto en la región óptica como en la de micro-ondas. A tales imágenes se les conoce como ópticas y de radar. La información que portan tales imágenes es complementaria por lo que la tendencia en los últimos años es el empleo conjunto de éstas en lo que se conoce como sinergismo. Uno de los factores del cambio climático global es la reducción de las masas forestales. La modificación de las masas forestales puede ser estudiada empleando imágenes de satélite, tanto ópticas como de radar. La visión sinóptica, la resolución espacial y la precisión cartográfica de las imágenes permiten el estudio de grandes áreas boscosas. La disponibilidad de imágenes de archivo hace posible la cuantificación del cambio de las masas forestales a través del tiempo. En el presente trabajo se presentan métodos de segmentación y cuantificación morfológica de un área de estudio donde se extiende un área boscosa de un poco más de mil kilómetros cuadrados. Esta área de estudio se localiza al este de la Ciudad de México. El cambio morfológico se realiza para un lapso de 11 años. Para llevar a cabo el presente trabajo se han considerado imágenes multiespectrales, tanto ópticas como de radar polarimétrico. Con el objeto de ortorrectificar los mapas resultantes se han empleado las efemérides de los satélites que han adquirido las imágenes conjuntamente con un modelo digital de elevaciones generado a partir de un par interferométrico de radar de la misma área de estudio. El desarrollo del trabajo se encuentra dividido en secciones y apartados. En la introducción (1) se introducen los elementos básicos de la radiación electromagnética necesarios para comprender la adquisición de imágenes ópticas y de radar. En la sección 5.2 se detalla la geometría de adquisición de una imagen óptica así como los elementos básicos que la componen. En la sección 5.3 se introduce un modelo de campo vectorial para la imagen. Este modelo es la base para cuantificar el grado de cambo experimentado por las masas forestales en un lapso de once años. Tal cambio es explicado en detalle en la sección 5.4. De la sección 5.5 a la 5.10 se muestra la generación de una imagen de radar, sus aspectos geométricos y físicos, su aspecto y la
7
CYTED – Red FORCLIM degradación que presenta en el speckle, así como la reducción del mismo. Finalmente se introducen las imágenes polarimétricas y la producción de un modelo digital de elevaciones con base en la interferometría radar.
8
CYTED – Red FORCLIM
Introducción Radiación electromagnética La radiación es la propagación de energía, en una variedad de formas, a través del espacio. La radiometría es un sistema de conceptos, definiciones, modelos, instrumentos y sistema de unidades para describir y medir la radiación y su interacción con la materia. La fotometría es un sistema también, pero diseñado para la detección de la radiación por el ojo humano (McCluney, 1994). La radiometría puede ser empleada, tanto para cuantificar flujo de partículas, como para el estudio de radiación ondulatoria. La radiación electromagnética es un fenómeno ondulatorio de transporte de energía, formado por un campo magnético y uno eléctrico perpendiculares entre sí (figura 1), cuya velocidad de desplazamiento en el vacío es de c = 299,792,458 m/s. La velocidad de la luz en el aire difiere poco de esta cantidad. La velocidad de la radiación electromagnética en medios como gases, líquidos o sólidos es diferente a la del vacío; el cociente de la velocidad en el vacío con respecto a la velocidad v en otro medio es llamado el índice de refracción n, es decir n = c/v. Al conjunto de los campos magnético y eléctrico se le llama campo de radiación. La radiación electromagnética, siendo un fenómeno ondulatorio, tiene asociada una longitud de onda y una frecuencia , ambas relacionadas entre sí por la expresión = c
(1.1)
La longitud de onda se mide en metros y la frecuencia en Hertz. Además, la velocidad de la luz en el vacío se expresa como
c
1 00
(1.2)
Donde 0 es la permitividad eléctrica y 0 es la permeabilidad magnética (Rees, 2001). La permeabilidad magnética se define como la razón de la densidad de flujo magnético B, en una substancia, a la intensidad del campo externo H: 0 = B/H. La permeabilidad del espacio vacío es llamada la constante magnética. La permitividad eléctrica se define como la razón del desplazamiento eléctrico a la intensidad del campo eléctrico que lo produce. Una onda electromagnética tiene asociada una energía dada por
E h h
9
c
(3)
CYTED – Red FORCLIM
Figura 1. Onda electromagnética formada por un campo eléctrico y uno magnético perpendiculares entre sí.
Donde h = 6.6256 x 10-34 joules, es la constante de Planck. La ecuación (3) nos indica que a medida que disminuye la longitud de onda aumenta la energía de la radiación. La radiación electromagnética es por tanto una onda formada por un campo eléctrico y uno magnético oscilando perpendicularmente entre sí. A la radiación electromagnética se le conoce también como señal electromagnética u onda electromagnética. Al conjunto de ondas electromagnéticas sobre todo el intervalo posible de longitudes de onda se le llama el espectro electromagnético. A la distribución de la radiación sobre el espectro electromagnético se le llama spectrum (Tabla 1). A la radiación que consiste de una sola longitud de onda se le denomina radiación monocromática. Al intervalo que comprende las longitudes de onda de 0.4 m a 10.0 m se le conoce como la región óptica del espectro electromagnético. Al intervalo de longitudes de onda de la radiación perceptible por el ojo humano se le llama la región del visible. Al intervalo de longitudes de onda de 0.1 cm a 100 cm se le denomina región de micro-ondas. La sensibilidad del ojo humano a la radiación electromagnética varía de persona a persona, pero ciertamente el ojo humano no es sensible a longitudes de onda menores a 0.36 m ni mayores a 0.83 m. De aquí entonces la región del visible se define nominalmente como el intervalo de longitudes de onda de 0.4 m a 0.7 m. Otras regiones se encuentran definidas en la tabla 1. El Sol genera radiación en un intervalo amplio de longitudes de onda, no obstante, al intervalo de 0.32 m a 3.5 m se le conoce nominalmente como espectro solar.
10
CYTED – Red FORCLIM Tabla 1. Regiones del espectro electromagnético. Región
Región
Rayos X
[0.001 – 1.00] nm
Microondas
[0.1 – 100.0] cm
Ultravioleta
[0.001 – 0.40] m
Banda Q
[0.10 – 0.27] cm
Violeta
[0.40 – 0.45] m
Banda W
[0.27 – 0.40] cm
Azul
[0.45 – 0.51] m
Banda V
[0.40 – 0.75] cm
Verde
[0.51 – 0.56] m
Banda Ka
[0.75 – 1.11] cm
Amarillo
[0.56 – 0.59] m
Banda K
[1.11 – 1.67] cm
Anaranjado
[0.59 – 0.63] m
Banda Ku
[1.67 – 2.50] cm
Rojo
[0.63 – 0.70] m
Banda X
[2.50 – 3.75] cm
Visible
[0.40 – 0.70] m
Banda C
[3.75 – 7.50] cm
Infrarrojo cercano
[0.70 – 3.00] m
Banda S
[7.50 – 15.0] cm
Infrarrojo medio
[3.00 – 30.0] m
Banda L
[15.0 – 30.0] cm
Infrarrojo lejano
[30.0 – 100.0] m
Banda P
[30.0 – 100.0] cm
Es usual llamar a la dirección de oscilación del campo eléctrico E, la dirección de polarización. Si la dirección del plano de E es constante se dice que se tiene una polarización plana, si E oscila alrededor de la dirección de propagación se dice que se tiene una polarización oscilante. Un caso particular de la polarización oscilante es cuando la dirección de E cambia a una velocidad angular constante, en cuyo caso se dice que se tiene una polarización circular. Se dice no polarizada una señal electromagnética compuesta por ondas cuya dirección del campo eléctrico varía de manera aleatoria. Una señal electromagnética puede presentar un cierto grado de polarización dependiendo de la variación de la dirección del campo eléctrico.
Paquete de ondas A un grupo de señales electromagnéticas comprendiendo un cierto intervalo de longitudes de onda = [1, 2] y un cierto conjunto de fases se le llama paquete de ondas. A se le conoce como el ancho de banda del paquete, pudiéndose expresar también como un intervalo de frecuencias: = [1, 2]. Si el ancho de banda es cero, el paquete de ondas es monocromático; si está formado por una sola fase el paquete es monofásico. Una radiación coherente está formada por un paquete de ondas con la misma longitud de onda y la misma fase. La radiación coherente está formada por tanto por un paquete monocromático y monofásico. En la práctica no es factible generar un paquete con un ancho de banda igual a cero, por lo que una radia-
11
CYTED – Red FORCLIM ción coherente comprende un conjunto de señales con longitudes de onda cercanas entre sí pero no iguales. El ancho de banda es por tanto el contenido de frecuencias de un paquete de ondas. Para estudiar con mayor detalle el contenido de frecuencias de un paquete de ondas supóngase ahora que se tiene un pulso de radiación con una duración en el tiempo de t (figura 2a). Para una fase cero, este pulso se modela de acuerdo con la siguiente expresión
A(t) A 0 Cos0 t,
t t t 2 2
(4)
Donde A0 es la amplitud máxima del pulso. La cantidad A(t) se refiere a un campo eléctrico o a uno magnético, por lo que las conclusiones que se deriven para este pulso son válidas para una señal electromagnética también. El espectro de frecuencias (figura 2b) de este pulso está dado por la transformada de Fourier del mismo, es decir ˆ () A A 0
Sen(0 )t / 2 Sen(0 )t / 2 Cos[0 t]e jt dt A 0 0 0 t / 2
t / 2
(5)
Figura 2. Espectro de frecuencias de un pulso electromagnético.
La ecuación (5) nos indica que el espectro de frecuencias está dado por la suma de dos funciones Sinc, una centrada en 0 y la otra en – 0. El primer cero de las funciones Sinc está dado cuando
12
CYTED – Red FORCLIM
0
2 1 0 t , o equivalentemente, t
(6)
Por lo que la distancia entre ceros de las dos funciones Sinc es, B = = 2/t. A B se le conoce como el ancho de banda del pulso. Es claro entonces que a medida que el pulso disminuye en duración el ancho de banda aumenta. Con este resultado podemos estudiar ahora el ancho de banda de un paquete de ondas. Supóngase que este paquete de ondas está determinado por una suma de contribuciones de onda dadas por la ecuación (4) cuya dirección de desplazamiento es z, entonces
A ( z, t) A ()Cos t kz d
(7)
Si los límites de integración para esta suma de contribuciones se fijan en
0
0 2 2
Donde = 2 es el ancho de banda del paquete, de aquí entonces se tiene el paquete de onda descrito por
Sen t 2 A( z, t) A 0 Cos0 t kz t 2
(8)
Donde se ha hecho A0 = A(). Cuando 0, la ecuación (8) se reduce a la expresión (4), es decir un paquete de onda infinitamente estrecho o bien un pulso formado por una señal de una sola frecuencia. Si se hace más grande, el paquete disminuye de intensidad y se hace más ancho. La transformada de Fourier de la ecuación (8) proporciona el espectro de frecuencias de un paquete de ondas (Lira, 2010). En el momento de su emisión, digamos por una antena, el paquete presenta una cierta coherencia, sin embargo los pulsos de onda que lo forman tienen una longitud de onda diferente, más diferente entre más grande sea . Debido a esta diferencia, ocurre una interferencia destructiva que eventualmente elimina la coherencia del paquete. Es decir, la coherencia se destruye después de un cierto tiempo de haber sido emitido el paquete de ondas, este tiempo es
t 0
1
(9)
Llamado tiempo de coherencia. De esta última expresión es claro que en el límite, cuando 0, el tiempo de coherencia es infinito y a medida que el ancho de banda aumenta el tiempo de coherencia tiende a cero.
13
CYTED – Red FORCLIM Efecto Doppler Si una fuente de radiación electromagnética se encuentra en movimiento relativo con respecto a un detector, la radiación detectada tendrá en general una frecuencia diferente a la emitida; a este fenómeno se le conoce como el efecto doppler. El hecho de que la radiación electromagnética esté constituida por una onda transversal hace que exista simetría del efecto doppler en cuanto al movimiento relativo del detector y la fuente. Es decir es lo mismo considerar que el detector está en reposo y que es la fuente la que se mueve o viceversa. Considerar el detector o la fuente en reposo significa fijar un sistema de coordenadas en la fuente o el detector. Sea la frecuencia de la onda emitida por la fuente y sea la frecuencia de la onda percibida por el detector. Supongamos que la fuente se aproxima al detector a una velocidad v en una dirección determinada por el ángulo con respecto a la línea de vista, es decir que si v es el vector de velocidad y r es el vector de posición de la fuente al detector entonces
v r v r Cos Donde v = v y r = r, son las magnitudes de los vectores de velocidad y de posición respectivamente. El cambio en frecuencia está dado por
v2 c2 vCos 1 c 1
(10)
Donde c es la velocidad de la luz. Si la fuente y el detector se alejan entre sí, es decir si
dr dt Se incrementa, entonces, , o bien . Si la fuente y el detector se acercan entre sí, es decir si
dr dt Se decrementa, entonces, , o bien . Justo cuando dr/dt = 0 se tiene que = y = . 5.1.4 Imágenes ópticas Las imágenes ópticas son aquellas que se generan empleando radiación electromagnética en la región óptica del espectro electromagnético. Estas imágenes registran la cantidad de radiación proveniente de objetos de la escena que tiene una respuesta óptica. La cantidad de radiación registrada es directamente proporcional a la reflectividad de tales objetos. En la tabla 2 se proporcionan los detalles básicos de las principales plataformas de satélite que producen imágenes ópticas.
14
CYTED – Red FORCLIM
Tabla 2. Principales plataformas orbitales de imágenes ópticas. Plataforma LANDSAT 7 ETM
ASTER
ORBVIEW 3
SPOT 4
Abril, 1999
Diciembre, 1999
Junio, 2003
Marzo, 1998
705 km
717 km
470 km
822 km
99 minutos
99 minutos
92 minutos
101 minutos
16 días
16 días
3 días
26 días
Tamaño del Campo Instantáneo de Vista
bandas 1‐5 y 7: 30x30 m2 banda 6: 60 x 60 m2 banda 8: 15 x 15 m2
bandas 1‐3: 15 x 15 m2 bandas 4‐9: 30 x 30 m2 banda 10‐14: 90 x 90 m2
Tamaño de la imagen
2 185 x 185 km
60 x 60 km2
8 x 8 km2
60 x 60 km2
1) 0.45‐0.52 2) 0.53‐0.60 3) 0.63‐0.69 4) 0.78‐0.90 5) 1.55‐1.75 6) 10.4‐12.5 7) 2.09‐2.35 8) 0.52‐0.90
1) 0.52‐0.60 2) 0.63‐0.69 3) 0.76‐0.86 4) 1.60‐1.70 5) 2.145‐2.185 6) 2.185‐2.225 7) 2.235‐2.285 8) 2.295‐2.365 9) 2.360‐2.430 10) 8.125‐8.475 11) 8.475‐8.825 12) 8.925‐9.275 13)10.25‐10.95 14) 10.95‐11.65
1) 0.450‐0.520 2) 0.520‐0.600 3) 0.625‐0.695 4) 0.760‐0.900 5) 0.450‐0.900
1) 0.50‐0.59 2) 0.61‐0.68 3) 0.79‐0.89 4) 1.53‐1.75
Lanzamiento Altura promedio Periodo de la orbita Periodo de cobertura
Bandas espectrales (m)
bandas 1‐4: banda 2: 10 x 10 m2 o 2 4 x 4 m2 20 x 20 m banda 5: bandas 1, 3, 4: 2 2 1 x 1 m 20 x 20 m
Imágenes de radar Las imágenes de radar son aquellas que se generan empleando radiación electromagnética en la región de micro-ondas del espectro electromagnético. La cantidad de radiación registrada en estas imágenes es directamente proporcional a la radiación retrodispersada por los objetos de la escena. La retrodispersión es una función compleja de los aspectos físicos y geométricos de la escena; los detalles se proporcionan en la sección 5.6. En la tabla 3 se proporcionan
15
CYTED – Red FORCLIM los detalles básicos de las principales plataformas de satélite que producen imágenes de radar.
Tabla 3. Principales plataformas orbitales de imágenes de radar. Plataforma Envisat Ers 2 Radarsat 2 TerraSAR Dato (Asar) Fecha de Abril, 1995 Diciembre, 2007 Marzo, 2002 Junio, 2007 lanzamiento Altura 784 km 798 km 796 km 514 km promedio Periodo de 100 minutos 101 minutos 100 minutos 95 minutos la órbita Periodo de 35 días 24 días 35 días 11 días cobertura desde desde Tamaño 2 25 x 25 m 3 x 3 m2 1 x 0.65 m2 del Campo 2 ó 26 x 30 m Instantáneo hasta hasta 150 x 150 m2 2 de Vista 100 x 100 m 16 x 16 m2 desde desde 2 100 x 100 km Tamaño de 20 x 20 km2 10 x 5 km2 2 80 x 80 km ó la imagen hasta hasta 400 x 400 km2 2 2 500 x 500 km 100 x 100 km Bandas 5.6 cm 5.6 cm 5.6 cm 3.1 cm espectrales (banda C) (banda C) (banda C) (banda X) Polarización VV HH, HV, VH, VV VV, HH, HV VV, HH, HV Looks 6 1 – 4 4 1 – 11 Dimensión 2 2 2 15 x 1.5 m 10 x 1.3 m 4.78 x 0.70 m2 10 x 1 m de la antena
16
CYTED – Red FORCLIM
Generación de una imagen multiespectral Con el apoyo de la figura 3 identifiquemos ahora los elementos que componen una imagen digital. Supóngase primero que se tiene una fuente de radiación de tipo ondulatoria emitiendo radiación electromagnética. En esta sección se explica la generación de una imagen óptica; la generación de imágenes de radar se detalla en la sección 5.5.
Figura 3. Esquema de generación de una imagen multiespectral óptica.
La radiación emitida por la fuente se hace interaccionar con un elemento físico de la escena llamado campo instantáneo de vista (CIV). La manera particular en que se realiza esta interacción depende de la geometría y detalles técnicos del arreglo experimental empleado; no obstante, el presente enfoque es suficientemente general y la identificación de los elementos de la imagen no depende de estos detalles particulares. El CIV es una subárea o subregión de una escena que se encuentra formando parte del sistema físico (figura 3); el resultado de la interacción de la radiación con este elemento físico es también radiación, cuya energía o longitud de onda no necesariamente es igual a la que incide originalmente. De acuerdo con la geometría particular: fuente-CIV-detector, una parte de la radiación emitida, reflejada o transmitida por el CIV es captada, sobre un cierto ángulo sólido, por unidad de tiempo, en una dirección predeterminada, por un arreglo de sensores (detectores) que poseen un subsistema de enfoque y conducción de radiación. Este subsistema puede consistir de un arreglo de lentes (telescopio) y fibras de conducción de radiación. Entonces, la radiación es conducida hasta un grupo de detectores, frente a los cuales se encuentra un conjunto de filtros, cuya función es seleccionar un conjunto de intervalos de energía {E1, E2, . . . E} o de longitudes de onda {1, 2, . . . }, para los que cada detector está óptimamente diseñado y calibrado. Es decir, el detector i-ésimo está adecuado para detectar la radiación en el intervalo Ei. Es posible tener uno o varios detectores para
17
CYTED – Red FORCLIM cada intervalo dependiendo de si se mide la radiación de un CIV o un grupo de ellos al mismo tiempo. Así, por ejemplo, si se tienen intervalos de energía y se miden n CIV para cada uno de éstos, entonces se requieren de n detectores para operar el sistema sensor. Para cada intervalo de energía, los detectores miden la cantidad de radiación por unidad de ángulo sólido, por unidad de tiempo; las unidades correspondientes en esta medida son típicamente mW/(msterad·s). Los detectores generan un voltaje cuya intensidad es proporcional al resultado de haber integrado la radiación. La señal de voltaje generada por los detectores, a medida que observan un CIV tras otro, se introduce a un convertidor análogo/digital, que la discretiza empleando una escala que usualmente es de 0 a 255, es decir, 256 posibles niveles, si bien otras escalas pueden ser empleadas también. La generación de una imagen multi-espectral implica por tanto dos discretizaciones: una espacial y una radiométrica. Los detectores están calibrados de tal manera que se genera un 255 para el CIV más brillante de la escena y un 0 para el más oscuro. La respuesta de un detector, en la mayoría de los casos, es lineal. Es necesario hacer notar que debido a la naturaleza de los detectores empleados (Slater, 1980), siempre hay una respuesta, aun para una radiación incidente nula, a esto se le conoce como polarización del detector. La ganancia por otro lado, es la relación constante entre la radiación incidente y la señal de salida producida por éste. Ambos parámetros se ajustan para que los sensores respondan a escenas más o menos brillantes (reflectoras o emisoras) de tal forma que se adecuen a diferentes condiciones de estudio; asimismo, se busca siempre que el intervalo de operación sea lo más lineal posible. En imágenes de satélite la diferencia en ganancia de los detectores del sistema sensor, produce un efecto conocido como bandeo y cuya corrección (Crippen, 1989) se realiza por medio de un filtraje (véase capítulo V) de fácil aplicación. Adicionalmente al bandeo, el sistema electrónico asociado al sistema sensor introduce un ruido denominado coherente. Para cada intervalo de energía y para cada CIV, y como resultado del proceso de medida de la radiación proveniente de éste, se genera un número cuyo valor se guarda en algún medio de almacenamiento masivo, en una posición lógica que relacionada con el lugar relativo que tiene el CIV correspondiente en la escena (figura 3). Para cada CIV se producen por tanto, números que conjuntamente describen su respuesta espectral, los que, arreglados en forma vectorial se escriben como
pmn = {b1, b2, . . . b}mn
(11)
Donde bi es el valor numérico (entero) obtenido para el intervalo de energía Ei. La colección de estos números, arreglados secuencialmente en cuanto a la energía o longitud de onda de la radiación empleada, forman lo que se conoce como pixel, el cual es un elemento lógico de la imagen digital. Los índices (m,n) representan las coordenadas (enteras) del pixel en su posición dentro de la imagen digital y bi Ei i De tal manera que
18
(12)
CYTED – Red FORCLIM Ei+1 Ei, o i+1 i
(13)
Así entonces, las características espectrales de un CIV quedan representadas por el pixel correspondiente, estando implícitamente registrado la posición y tamaño relativo de éste en una relación unívoca CIV pixel
(14)
El CIV es un elemento físico de la escena y el pixel es un elemento lógico de la imagen digital; éste último, como tal, no tiene dimensión asociada, por lo que la relación (14) es importante para determinar tamaños de los objetos de la imagen. En la relación (11) los índices (m,n) tienen los intervalos de variación 1≤m≤M y 1≤n≤N
(16)
Donde M y N son enteros y representan el número de CIVs en los cuales se dividió la escena en las direcciones x, y respectivamente. Al terminar de medir todos los CIV pertinentes a una escena, se tiene una colección de matrices de números (figura 3), una para cada intervalo de energía empleado. El tamaño de estas matrices es de M N y cada una de ellas forman una imagen digital conocida como banda, ya que representa la distribución espacial de valores de radiación provenientes de la escena para una banda o intervalo de energía. El conjunto de estas bandas para una escena dada se conoce como imagen digital multiespectral (véase la figura 3), puesto que caracteriza la distribución espacial y espectral de la radiación proveniente de aquella. Hay que puntualizar que, debido a la dimensionalidad espectral de la imagen, se requiere de un espacio de dimensiones para representar los pixeles que la componen; es decir, la imagen multiespectral forma un campo vectorial donde los pixeles que la componen son vectores de tantos elementos como bandas se hayan generado.
19
CYTED – Red FORCLIM
Modelo vectorial de una imagen multiespectral Una imagen multiespectral puede ser modelada como un campo vectorial de tantas dimensiones como bandas tenga la imagen. Este modelo es necesario para cuantificar el cambio de las masas forestales detallado en la sección 5.4. Considérese ahora una lattice rectangular discreta expresada por el producto cartesiano L {1, . . . M} {1, . . . N}. Centrado en cada nodo de L, se encuentra localizada una celda de resolución llamada campo instantáneo de vista (CIV). Por medio de un dispositivo llamado sensor multiespectral, se asocia a cada CIV un vector de dimensiones pmn = {b1,b2, . . . b}mn. El vector pmn caracteriza las propiedades espectrales promedio del CIV de la escena. Este vector es llamado un elemento pictórico (pixel) de la imagen multiespectral. Sea ahora la imagen multiespectral g = {gi} formada por el grupo de pixeles de acuerdo con el siguiente conjunto gi = {bj(m,n)}i, i, donde i es el conjunto {1,2, . . . } que representa la colección de bandas de la imagen multiespectral. Los valores de los pixeles pueden asumir valores enteros de acuerdo con el conjunto gi B {bi bi , 0 bi 2k - 1}, i Donde k y, 7 k 12 en imágenes multiespectrales. De aquí entonces una imagen digital multiespectral g es una función tal que, g: L B. Sea ahora Xi el conjunto Xi {xi xi ∈ , 0 xi 2k - 1}, i De tal manera que el producto cartesiano X = X1 X2 . . . X define el conjunto de las -tuplas ordenadas (x1,x2, . . . x). Sean (b1,b2, . . . b) los valores de los pixeles a través de las bandas de la imagen; establecemos ahora la igualdad xi = bi, i, por lo que (b1,b2, . . . b) es una -tupla en el sistema cartesiano de coordenadas. A cada tupla (b1,b2, . . . b), se le asocia un vector u: u(x1,x2, . . . x) (b1,b2, . . . b). Sea E un espacio discreto euclidiano -dimensional tal que, E ∈ . La dimensión de u está dada por le métrica euclidiana
u x 2i i1
1/ 2
El conjunto de vectores {u(x1,x2, . . . x)} es el resultado de proyectar la imagen multiespectral a un campo vectorial. Hacemos notar que no toda -tupla (x1,x2, . . . x) del dominio D(X) ∈ E, tiene un vector asociado al campo vectorial, y una -tupla (x1,x2, . . . x) puede tener más de un vector asociado al campo vectorial. De aquí entonces, el campo vectorial asociado a la imagen multiespectral está dado por el conjunto de vectores U = {u(x1,x2, . . . x)} en el dominio D(X) ∈ E. Por tanto, una imagen digital multiespectral puede ser modelada como un campo vectorial discreto de una di-
20
CYTED – Red FORCLIM mensión igual al número de bandas de la imagen (figura 3). Al espacio determinado por el dominio D(X) se le conoce también como el espacio de rasgos.
21
CYTED – Red FORCLIM
Análisis morfológico del cambio de la cobertura forestal El modelo de generación de imagen multiespectral introducido en las secciones anteriores es con base en la medida de la radiación electromagnética empleando un grupo de detectores. Para ello, se han descrito las propiedades fundamentales de tal radiación. La imagen multiespectral es proyectada a un campo vectorial de un número de dimensiones igual a las bandas de la imagen. Este campo vectorial es una base adecuada para cuantificar el cambio de masas forestales tal como se describe en las siguientes secciones.
Introducción El análisis del cambio vectorial se utiliza en este trabajo para cuantificar el cambio de los tipos de cobertura forestal en las proximidades de la Ciudad de México (Allen y Kupfer, 2000; Fraser et al., 2005; Nackaerts et al., 2005). Se modela una imagen multiespectral como un campo vectorial de tantas dimensiones como bandas tiene la imagen (lira y Rodríguez, 2006). En este modelo, un pixel se define como un vector de un número igual de elementos como el número de bandas. Dos imágenes Landsat TM, una de 1989 y la otra de 2001 se utilizan en este modelo para cuantificar el cambio de los tipos de la cubierta del bosque. Se aplica una normalización y un co-registro radiométricos de las imágenes para comparar el cambio mencionado. Diversos investigadores han utilizado un cierto número de índices de cambio para cuantificar fenómenos temporales tales como, tala de árboles, desertificación, crecimiento urbano o cambio de la cobertura terrestre (Johnson y Kasischke, 1998; Le Hégarat-Mascle y Seltz, 2004; Cakir et al., 2006). En la literatura científica se ha publicado una cuenta detallada de los métodos de detección de cambio (Coppin et al., 2004). En esta investigación, se consideran varias medidas del cambio vectorial con base en el campo vectorial asociado a la imagen (Lambin et al., 1994; Warner, 2005; Sánchez y Yool, 2007; Kontoes, 2008). Se forma un campo vectorial con el conjunto de indicadores de una expansión canónica de la imagen (Lira y García, 2003). Esta expansión produce tres variables básicas, denominadas indicadores que caracterizan el estado de los tipos de la cubierta del bosque. Se ha propuesto en la literatura el uso de indicadores para estudiar el cambio de la cubierta del suelo como base para el análisis del cambio vectorial (Lambin y Straherl, 1993; Lambin y Ehrlich, 1997). El campo vectorial asociado a tales indicadores es tridimensional. Otro campo vectorial puede ser formado por las primeras componentes principales resultado de la descomposición en componentes principales aplicada al conjunto de las bandas originales de ambas imágenes. El análisis del cambio vectorial basado en este campo se utiliza también. El campo vectorial formado por las bandas originales no se considera puesto que no se producen resultados valiosos a partir de él.
22
CYTED – Red FORCLIM Los indicadores seleccionados que describen el comportamiento espectral de las masas del bosque son: Albedo de la vegetación, la textura y el índice normalizado diferencia de la vegetación (NDVI) utilizando las bandas 7 y 4 de las imágenes Landsat. Los detalles del cálculo de estos indicadores se proporcionan en la sección 5.4.2.2. La correlación moderada entre estos indicadores permite considerarlos como una expansión canónica aproximada de la imagen. Se considera un número de medidas normalizadas basadas en los vectores asociados a los indicadores y a las primeras componentes principales de ambas imágenes. De estas medidas, se obtienen los mapas que representan el cambio del área del estudio incluyendo el cambio experimentado por los tipos de la cubierta del bosque. Del modelo de expansión canónica, se obtiene una segmentación de las masas del bosque empleando un algoritmo jerárquico de crecimiento de regiones1. Los tres indicadores de cada imagen se ingresan en este algoritmo para generar una clasificación no supervisada. El resultado es una imagen dividida en segmentos con un cierto número de regiones. Por medio de un proceso iterativo, se agrupan las regiones hasta que se produce una sola imagen binaria con dos clases: la que se relaciona con las masas del bosque y la otra que se refiere al resto de la imagen. Esta imagen binaria, nombrada bitmap, permite el cálculo de los parámetros morfológicos que cuantifican el cambio de la estructura de las masas del bosque (Galicia y García-Romo, 2007; Galicia et al, 2008). Para corroborar que los indicadores seleccionados representan adecuadamente el estado de las masas del bosque, se emplea una lógica probabilística multi-valuada. Los indicadores de las dos imágenes se combinan por medio de esta lógica (Nilson, 1986) para generar una imagen donde se describe el cambio de los tipos de la cubierta del bosque. Se proporciona un ejemplo detallado del cambio de la cubierta del bosque. El área del bosque está cerca de la Ciudad de México. Para este ejemplo, se emplean dos imágenes del satélite Landsat TM con una diferencia de tiempo de once años. Se calculan los parámetros morfológicos que describen el cambio en la estructura de la zona del bosque, a partir de esto, se derivan las conclusiones relacionadas con la variación de la heterogeneidad de la masa del bosque.
Materiales y métodos Para cuantificar el cambio temporal de la cubierta del bosque, se consideran dos imágenes multiespectrales. En las secciones que sobrevienen, se proporciona una cuenta detallada del análisis razonado para cuantificar tal cambio. Para iniciar este análisis razonado se propone un modelo para caracterizar el estado espectral del tipo de la cubierta del bosque sobre la base de un sistema de indicadores. Se emprende entonces una segmentación del área cubierta por el bosque usando este modelo; el resulta-
1
http://techtransfer.gsfc.nasa.gov/RHSEG
23
CYTED – Red FORCLIM do es una imagen binaria denominada bitmap. Para corroborar la validez de esta segmentación, se prepara una sobre posición de los límites del bitmap con una composición falso color RGB de las bandas originales. El bitmap se utiliza también para derivar los parámetros morfológicos que cuantifican el cambio temporal de la estructura de la masa del bosque. Se considera un método de cambio vectorial en un sistema de medidas normalizadas según lo explicado arriba. Imágenes multiespectrales Se utilizan dos imágenes multiespectrales del satélite Landsat en esta investigación cuyas coordenadas de la órbita son: trayectoria 26 y fila 47. De estas imágenes, se extrajo un área, las sub-imágenes que resultan se denominan 1989 y 2001. La tabla 4 muestra los detalles técnicos básicos de estas imágenes. La banda 6 no se incluye en el análisis debido a un tamaño de pixel diferente.
Tabla 4. Detalles técnicos básicos de las imágenes multiespectrales. Imagen
Fecha
Pixel (m2)
Pixeles
Coordenadas geográficas
Noroeste: [19° 31' 6.55” N], [98° 51' 7.40” O] 1989 Marzo 7, 1989 28.5 28.5 1904 2380 Sureste: [18° 50' 42.61” N], [98° 25' 56.11” O] Noroeste: [19° 31' 6.55” N], [98° 51' 7.40” O] 2001 Enero 4, 2001 28.5 28.5 1904 2380 Sureste: [18° 50' 42.61” N], [98° 25' 56.11” O]
Estas imágenes cubren un área situada al este de la Ciudad de México en donde una masa de bosque rodea dos volcanes. Desde marzo de 1989 a enero de 2001, esta masa del bosque ha experimentado un cambio en su extensión, su morfología y su heterogeneidad. La figura 4 muestra un compuesto falso de color de las imágenes de 1989 y 2001.
24
CYTED – Red FORCLIM
Figura 4. Imágenes de 1989 (izquierda) y 2001 (derecha).
Expansión canónica El modelo de la respuesta espectral de la masa del bosque está expresado en términos de tres indicadores. La correlación baja de tales indicadores conduce a una expansión canónica de las bandas originales. Los indicadores se calculan como sigue. El NDVI se obtiene por medio de una diferencia normalizada entre las bandas 7 y 4 de la imagen de Landsat (lira y García, 2003). El Albedo de los tipos de la cubierta del bosque se obtiene usando una variante de la descomposición en componentes principales (lira, 2006), y la textura se genera usando un operador de la divergencia (lira y Rodríguez, 2006). Sean estas variables nombradas como sigue: X1 - NDVI74, X2 - Albedo y X3 - Textura. Estas variables forman una expansión de la imagen en el acuerdo con la siguiente expresión m
g i (k, l) i a ij X j (k, l) j 1
, i = 1, 2. . . n y k, l = 1, 2 . . . M, N
(17)
Donde (k, l) expresan las coordenadas de un pixel en la imagen, i es la media de las bandas de la imagen y (M, N) son las dimensiones de la misma. Los coeficientes aij en este caso se fijan a uno. Por lo tanto, la imagen g se expresa como una combinación lineal de los indicadores antedichos. Cuando la correlación entre las variables Xi es
25
CYTED – Red FORCLIM baja, la expresión (17) aproxima una expansión canónica de la imagen (Dougherty 1999). Las variables Xi se nombran las bandas canónicas. Normalización y corregistro radiométricos Aunque el mismo sensor produce las imágenes empleadas en esta investigación, las condiciones de la iluminación y de la geometría de la adquisición no son exactamente iguales. A partir de una fecha a la otra, la iluminación solar es diferente debido a las variaciones en el ángulo de elevación y los cambios del ángulo de azimut del sol. Aún más, la órbita del satélite experimenta fluctuaciones pequeñas que conducen a una geometría de diversa observación para la adquisición de las imágenes. Debido a esto, es necesario realizar una normalización radiométrica y aplicar un proceso de corregistro. El corregistro se hace por medio de una orto-rectificación usando las efemérides de la órbita del satélite. La normalización radiométrica es alcanzada haciendo que los histogramas tengan la misma forma y los mismos niveles de cuantización para las imágenes involucradas. Estos procedimientos fueron aplicados a las bandas originales de las imágenes 1989 y 2001. Las bandas normalizadas y corregistradas fueron utilizadas alternadamente para derivar los indicadores descritos antes. En la figura 5, se muestra un compuesto falso de color de los tres indicadores para las imágenes de 1989 y 2001. Generación del bitmap Un algoritmo de crecimiento de regiones se aplica al conjunto de indicadores antedichos. Este algoritmo se aplica a cada grupo de los indicadores para las imágenes de 1989 y 2001. El algoritmo de crecimiento de regiones genera una imagen dividida en segmentos donde ciertas regiones se asocian a las masas del bosque. En un proceso iterativo, las regiones se agrupan hasta alcanzar una imagen binaria que represente un mapa temático denominado bitmap. Este bitmap es una imagen binaria con dos valores o estados: 1 cubierta del bosque, y 0 resto de la imagen. El bitmap fija los argumentos para la cuantificación de los parámetros morfológicos asociados al tipo de la cubierta del bosque. La figura 6 exhibe el bitmap de las imágenes de 1989 y 2001.
Medidas del cambio vectorial Tal como se explicó en la sección 5.3, en una imagen multiespectral g(r) de bandas, un pixel es un vector de elementos r = {b1, b2 . . . b}
(18)
Donde bk es el valor del pixel en la k banda. El intervalo de variación de k es 0 ≤ 2 ≤ kn-1, donde n = 8 en la mayoría de los casos. El sistema de vectores {ri} forma el campo vectorial asociado a la imagen multiespectral (Lira y Rodríguez, 2006), representado como U = {ri}
26
(19)
CYTED – Red FORCLIM Donde los corchetes {} indican el sistema de vectores asociados a una imagen. Sean {ri} los vectores del campo vectorial de la imagen 1989 y {rj} los de la imagen 2001. Según esto, se consideran dos campos vectoriales. La región del campo vectorial asociadas a las masas del bosque experimenta un cambio del año 1989 al 2001. Se requiere por tanto de una medida de tal cambio relacionada a los años considerados relacionados con la modificación de la cubierta del bosque. El cambio vectorial se puede medir de varias maneras: (a) Por medio de una medida de la semejanza entre los vectores {ri} y {rj}, usando bandas originales o bandas canónicas, (b) por medio de la descomposición en componentes principales del conjunto de bandas de las dos imágenes, (c) por medio de la descomposición en componentes principales de las bandas canónicas de las dos imágenes.
Figura 5. Bitmap de 1989 (izquierda) y 2001 (derecha).
(a) Medida de semejanza Tres medidas de semejanza pueden ser consideradas (i) El producto vectorial de dos vectores de las imágenes anteriormente descritas se escribe como
27
CYTED – Red FORCLIM
ri rj =
ˆi
ˆj
kˆ
B1 b1
B2 b2
B3 b3
(20)
Donde ri = {B1, B2, B3}89 es el vector formado por tres bandas de la imagen de 1989 y rj = {b1, b2, b3}01 es el vector de tres bandas de la imagen de 2001. Es posible emplear las bandas originales o bandas transformadas tales como bandas canónicas o las tres primeras componentes principales. De la expresión antedicha, la magnitud del cambio vectorial se obtiene como el módulo del producto vectorial ri rj. (ii) Un producto escalar normalizado
d si (ri , rj )
ri , rj ri , ri r j , rj ri , rj
(21)
Donde es el producto escalar de los vectores ri y rj. (iii) Magnitud y cosenos directores de la diferencia de los vectores ri y rj, en tres dimensiones se tiene Magnitud: r = ri rj
Cosenos directores: Cos =
rx r
, Cos =
ry r
, Cos =
rz r
(22)
Donde r = {rx, ry, rz}. En su totalidad, la magnitud y los cosenos directores producen un sistema de imágenes donde se representa el cambio de la cubierta del bosque (Sánchez y Yool, 2007).
(b) Descomposición en componentes principales Se consideran dos acciones para la descomposición en componentes principales (i) Descomposición en componentes principales del conjunto de bandas La descomposición en componentes principales se aplica al conjunto de bandas de las imágenes 1989 y 2001. Sin embargo, ninguna de las tres primeras componentes muestra detalles valiosos de la cuantificación del cambio del tipo de la cubierta del bosque. (ii) Descomposición en componentes principales del sistema de indicadores El cambio vectorial se puede medir usando la descomposición en componentes principales del conjunto de indicadores de 1989 y 2001. Las primeras componentes portan la información del cambio vectorial de una fecha a la otra. La figura 6 muestra una sobreposición del recubrimiento de la primera componente principal del cambio vectorial con las fronteras del bitmap de 1989.
28
CYTED – Red FORCLIM
Figura 6. Superposición de los bordes del bitmap de 1989 con la primera componente principal del conjunto de indicadores de las dos imágenes.
Los valores de la medida de la semejanza y de los componentes principales se estandarizan en el intervalo [0, 255], donde cero indica ningún cambio y 255 el cambio máximo. Esto se traduce en una imagen donde el cambio de la cubierta del bosque se aprecia gradualmente desde los tonos oscuros para pequeño cambio y tonos claros para el cambio considerable.
Lógica probabilística multivaluada La expansión canónica produce tres variables Xi que forman el modelo espectral que caracteriza el estado de la vegetación forestal de la escena. Estas variables se pueden combinar usando lógica probabilística multivaluada (Nilsson, 1986) por medio de la expresión 3
X 1 (1 X i ) i1
(23)
Donde la imagen X es la que resulta de tal combinación. La lógica multivaluada permite la corroboración que los indicadores seleccionados caracterizan la cubierta del bosque correctamente. La figura 7 muestra una sobreposición del recubrimiento generado por la lógica probabilística multivaluada para el sistema de indicadores de las imágenes de 1989 y 2001 con las fronteras del bitmap.
29
CYTED – Red FORCLIM
Figura 7. Sobreposición de los bordes del bitmap con el resultado de lógica probabílstica: 1989 (izquierda), 2001 (derecha).
Resultados Producción del bitmap La clasificación con base en el crecimiento de regiones que emplea las variables canónicas produce los bitmap de los años de 1989 y 2001. El bitmap se utiliza como la base para evaluar la morfología de las áreas forestales (tabla 5). La figura 7 representan el recubrimiento de los bitmap de 1989 y 2001; el cambio de la cubierta del bosque se muestra en rojo. La reducción de las masas del bosque ocurre en el perímetro y en numerosos lugares dentro del bosque. Cambio vectorial Cinco métodos de cambio del vector se consideran en el texto. Cuatro de estos métodos se basan sobre una medida de la semejanza de los vectores asociados al sistema de bandas, sean originales o formados por los indicadores. Ningunas de las medidas de la semejanza, ya sea que se emplee un sistema de bandas o el conjunto de indicadores, produce un detalle valioso sobre cambio del bosque. Dos métodos emplean la
30
CYTED – Red FORCLIM descomposición en componentes principales aplicada a las bandas originales o al sistema de indicadores. El mejor resultado se obtiene con el sistema formado por los seis indicadores de las imágenes 1989 y 2001. Tal como lo muestra la figura 7, los puntos brillantes que indican el cambio del bosque coinciden bien con las fronteras del bitmap de 1989. En esta figura, el perímetro de la cubierta del bosque coincide también con los bordes extraídos del bitmap. Estos resultados corroboran que el uso de indicadores, en vez de las bandas originales, es un modelo apropiado de la respuesta espectral de la cubierta del bosque. Lógica probabilística multivaluada La combinación de los indicadores de la masa del bosque con lógica probabilística multivaluada produce un realce de las zonas del bosque y una inhibición del resto de la imagen. Esto corrobora que los indicadores seleccionados están bien adaptados para caracterizar la respuesta espectral de las masas del bosque (figuras 7 y 5.8).
Morfología de las cubiertas del bosque Con el bitmap asociado a las segmentaciones de la cubierta del bosque es factible obtener los parámetros morfológicos de las zonas ocupadas por bosque. Estos parámetros morfológicos son área, número de parches, densidad de parches, forma del paisaje y dimensión fractal. La tabla 5 resume los valores de estos parámetros. El área asociada a cada pixel es de 28.5 × 28.5 m2 = 812.25 m2 (Tabla 4). La definición de estos parámetros es la siguiente
Área - número de los pixeles del área del bosque del bitmap multiplicado por el área asociada a la dimensión del pixel. Parches - número de las zonas conectadas bajo conectividad 8 que incluyen el área del bosque. Densidad de parches - número de parches dividido por el área del bosque. Forme del paisaje - medida de la agregación o de la disgregación de parches; mientras que esta forma aumente, los parches se disgregan cada vez más. Perímetro/área, dimensión fractal - doble de la pendiente de la línea de regresión del logaritmo del área de parches contra el logaritmo del perímetro de los parches.
Tabla 5 Morfología básica de las áreas del bosque Imagen Parches
Área (m2)
Densidad/parches Forma/paisaje Perímetro/área
1989
3,691 1 028 905 504
1.0049
53.9582
1.3341
2001
4,002
1.0896
58.8024
1.3267
926 230 606
31
CYTED – Red FORCLIM
Del año 1989 al año 2001, el área del bosque fue reducida por 102,674,898 m2. Los cambios son debido a los incendios, a la tala de árboles y a las plagas. Lo valores de los parámetros morfológicos de la tabla 5 prueban claramente que el área del bosque (el paisaje) deviene más compleja mientras que se pierde la masa del bosque, es decir, la heterogeneidad se incrementa. Un gran número de parches componen la forma diversa del tamaño de las áreas del bosque representadas en el bitmap; el conjunto de parches denota el área total ocupada por la masa del bosque.
Conclusiones Una segmentación de las áreas que ocupan el bosque en una zona al este de la Ciudad de México produce una imagen binaria denominada bitmap. Este bitmap fue generado usando un algoritmo de crecimiento de regiones que emplea como entrada las bandas canónicas que caracterizan el estado de la respuesta espectral del bosque. Del bitmap, es posible obtener las variables morfológicas que describen la estructura espacial de las áreas del bosque. El cambio asociado a los vectores que forman los campos vectoriales de las imágenes de dos fechas en un lapso de once años permite la cuantificación del grado y la localización del cambio de la masa del bosque. De estas bases se derivan las conclusiones siguientes i. ii. iii. iv. v. vi. vii.
La fragmentación de las áreas del bosque es el resultado de la tala ilegal, de incendios y de plagas. Tal fragmentación es heterogénea, dentro de la masa del bosque y en algunos bordes del área del mismo. La estructura morfológica de las áreas deviene más compleja cuando los fragmentos del área del bosque se incrementan. El área del bosque se reduce en una cantidad considerable. Las variables canónicas describen mejor el estado espectral de las áreas del bosque que las bandas originales. La lógica probabilística multivaluada corrobora que las variables canónicas describen las áreas del bosque convenientemente. El uso de bandas canónicas produce los mejores resultados para evaluar el cambio vectorial del tipo de la cubierta del bosque.
32
CYTED – Red FORCLIM
Formación y naturaleza de una imagen radar Una vez expuesto el método para estimar el cambio de masas forestales empleando como base imágenes ópticas, explicaremos en las secciones subsecuentes, la formación, geometría y aspectos físicos de una imagen de radar. A partir del modelo de formación de una imagen de radar, estudiaremos la generación de un modelo digital de elevaciones utilizando interferometría radar para calcular las elevaciones asociadas con las masas forestales. Finalmente introduciremos la polarimetría radar con la cual es factible segmentar las áreas boscosas. El empleo de imágenes de radar es particularmente valioso en zonas geográficas con alta cobertura nubosa donde el uso de imágenes ópticas no es viable. Un sistema de formación de imagen empleando radiación coherente en la región de microondas es conocido como un sistema radar de imágenes. La región de microondas del espectro electromagnético se encuentra en las longitudes de onda desde algunos milímetros hasta algunas decenas de centímetros (Tabla 1). Esta región está subdividida en bandas que son empleadas por los sistemas radar para generar imágenes de la superficie terrestre. Un dispositivo de generación y registro de imágenes radar (Henderson y Lewis, 1998) es llamado activo debido a que genera de manera controlada la radiación necesaria para iluminar la escena de interés. Tal radiación es coherente, ya que los paquetes de onda que forman el haz de iluminación tienen la misma longitud de onda y la misma fase. La coherencia de la radiación produce, sin embargo, un ruido llamado speckle, inherente a la formación de la imagen de radar, que puede ser reducido únicamente por el promedio de varias imágenes de la misma escena o por medios digitales aplicados a-posteriori. Debido a la geometría particular de formación de imagen, el sistema de radar es capaz de detectar la riqueza textural de la escena de interés. Las longitudes de onda empleadas en sistemas radar son tales, que la interacción de la radiación electromagnética con los componentes atmosféricos es de una magnitud muy pequeña (figura 9), permitiendo la adquisición de imágenes en prácticamente cualquier condición climática. El uso de radiación coherente en sistemas radar hace posible el empleo de varios esquemas de polarización en la generación de imágenes. Si la transmisión de la radiación se hace bajo polarización horizontal y la medida de los pulsos retrodispersados en polarización vertical, se dice entonces que se tiene un esquema HV. Otros esquemas tales como HH, VV o VH son posibles también. En la actualidad existen sistemas radar de tipo orbital (Tabla 3) que producen imágenes radar de la superficie terrestre sobre una base regular. En misiones específicas en geometrías de adquisición particulares, los sistemas radares aerotransportados se emplean también. Existen porciones o franjas en la región radar (figura 8, Tabla 3) que son empleadas por la mayoría de los sistemas de formación de imágenes, estas son las bandas C, L y X, otras bandas tales como K, P y Q son utilizadas también.
33
CYTED – Red FORCLIM
Figura 8. Transmitancia atmosférica de la región del visible a la de microondas.
Una imagen radar se forma básicamente a través de la medida de los pulsos retrodispersados provenientes de la escena de interés, la cual es iluminada por un haz de radiación coherente en alguna de las bandas anteriormente mencionadas. El haz está formado por un tren de pulsos de corta duración en el tiempo y con una frecuencia de repetición muy alta. Los pulsos son generados por una antena, cuya función cambia alternadamente entre emisora y receptora a una frecuencia igual a la de repetición de los pulsos emitidos por ésta. En el modo emisor la antena emite pulsos, en el modo receptor mide los pulsos retrodispersados por los elementos de la escena de interés. A un radar que opera con una sola antena para transmitir y recibir pulsos se le conoce como sistema radar monostático. A un radar que opera con dos antenas, una para emitir los pulsos y una para recibir los pulsos retrodispersados se le llama sistema radar bistático. La antena, montada en una plataforma aerotransportada o satelital, produce el haz de radiación en una dirección aproximadamente perpendicular (figura 10) a la trayectoria de desplazamiento de la plataforma. Al ángulo que forma el haz de radiación con la trayectoria de desplazamiento se le llama ángulo de squint. El haz está formado por rayos radiales, cuyo origen es la antena, de tal manera que la longitud transversal Ry de la zona iluminada en el terreno aumenta directamente (figura 10) con la distancia R de la antena al terreno, a esta distancia se le conoce como el rango. Para una geometría dada (figura 10) del sistema radar, el rango es variable en magnitud y dirección, de aquí que se le conciba como un vector: R y cuya magnitud se denota de acuerdo con: R = R. La dirección de desplazamiento de la antena es conocida como la dirección de azimut y la dirección perpendicular a ésta como la dirección de rango (figura 10). A la proyección en el terreno de la dirección de desplazamiento se le llama traza de vuelo. La línea de la antena al centro de la Tierra se le denomina nadir local y a la intersección de esta línea con la escena se le llama punto nadir. La altura de la antena sobre el terreno es h, el ancho del haz en la dirección de azimut es y en la dirección de rango es . La inclinación hacia el terreno del haz se conoce como el ángulo de depresión . La antena ilumina la escena de manera lateral en dirección aproximada-
34
CYTED – Red FORCLIM mente perpendicular a la dirección de desplazamiento, debido a esto, a tal dispositivo se le conoce como radar de vista lateral.
Figura 9. Geometría de adquisición de una imagen de radar.
El desplazamiento de la plataforma, a una velocidad aproximadamente constante, permite barrer la escena a intervalos regulares empleando haces de una cierta apertura . Tal barrido se realiza lateralmente al nadir local de la antena, teniendo una proyección en el terreno dada por (figura 9)
S
h Sen Sen( ) Cos 1 Sen
(24)
Donde es el ángulo llamado de depresión (figura 10). Los pulsos retrodispersados por el terreno a lo largo de un barrido, son registrados en un medio magnético, y procesados posteriormente, formando una línea de pixeles de la imagen de radar. Debido a la anchura finita del haz, se produce un cierto traslape entre barridos adyacentes. En este esquema de generación de imagen, la resolución de ésta varía en función directa de la distancia de la plataforma al terreno y del tamaño
35
CYTED – Red FORCLIM de la antena radar. A un sistema operando con tales características se le llama Radar de Apertura Real (RAR).
Figura 10. Vista lateral de un sistema radar por medio del envío de pulsos de corta duración a un ángulo de depresión .
La resolución en la dirección radial (x) y azimutal (y) para un sistema RAR se obtiene de acuerdo con los cálculos subsecuentes. Para una antena circular, la anchura del haz en la dirección y está dada por, = /D, donde es la longitud de onda de la radiación generada por la antena y D es el diámetro de ésta. El ancho del haz se expresa en radianes. Entonces en la dirección y la resolución Ry está dada por Ry = R, donde R es la distancia de la antena a un punto en el terreno. Substituyendo ahora en la expresión para se tiene finalmente que
R y
R h D DSen
36
(25)
CYTED – Red FORCLIM Por tanto, la resolución en la dirección y es directamente proporcional a la longitud de onda y a la distancia de la antena al terreno e inversamente proporcional al tamaño de la antena. Por otro lado, para una antena rectangular, de longitud l y anchura d el patrón de antena (Elachi, 1987a) es función de los ángulos r y a de acuerdo con la expresión
d l Wp Sinc 2 r Sinc 2 a
(26)
Donde r y a son los ángulos que forma un vector normal a la antena con respecto a la direcciones radial y azimutal del patrón del haz de radiación emitido por la antena. La ecuación anterior indica que la mayor intensidad de la radiación es en la dirección normal a la antena y que disminuye de acuerdo con la función Sinc a medida que aumentan los ángulos r y a. El patrón de radiación de la antena a la mitad de la potencia se considera constante, por tanto, a partir de la ecuación (26) se escribe
d Sinc 2 r 0.5
l Sinc 2 a 0.5
y
Estas dos ecuaciones trascendentales se resuelven numéricamente para producir
d r 0.443
l a 0.443
y
De aquí entonces se obtienen los ángulos que determinan el ancho del haz en las direcciones azimutal y de rango
0.886
l
y
0.886
d
(27)
En la ecuación (27) se considera una buena aproximación (Elachi, 1987a) el escribir simplemente = /l y = /d. El ancho del haz se considera por tanto igual al intervalo de ángulos para los cuales la potencia de radiación es al menos de la mitad de la máxima intensidad. Por ejemplo, los satélites ERS 1 y 2 portan una antena con dimensiones: d = 1.0 m y l = 10.0 m, por tanto = 0.287 y = 2.870, ya que = 0.0566 m. Debido a que el ángulo azimutal es muy pequeño es posible hacer la aproximación Z/R, donde R es el rango de la antena al terreno y Z es la proyección del haz en el terreno en la dirección de azimut; de aquí entonces
Z 0.886 R l
(28)
Es común escribir esta última ecuación simplemente como Z = R/l. El resultado de la ecuación (25) nos indica que para incrementar la resolución, es decir, para disminuir Ry, es necesario, o reducir la longitud de onda, o aumentar el tamaño de la antena, o
37
CYTED – Red FORCLIM ambos. Sin embargo, existen limitantes físicas que impiden aumentar el tamaño de la antena más allá de un cierto límite y por otro lado, la longitud de onda no se puede reducir fuera del intervalo de microondas. Por ejemplo, si se tiene una antena circular de tamaño d = 5 m, operando en la banda X, es decir, = 3 cm y si R = 10 km, entonces Ry = 60 m. Esta es una resolución pobre aun para un rango R relativamente pequeño. Si la plataforma es satelital, R es del orden de 700 km y la resolución es, por tanto, muy baja. Además, un grupo de objetos que podrían resolverse para rango pequeño se confunde para un rango mayor. En la dirección x la resolución (figura 11) está relacionada al tiempo de recorrido de un pulso de radiación desde que es emitido por la antena hasta la detección, por ésta, del pulso retrodispersado. Entonces, el tiempo total de recorrido es t = 2R/c, donde c es la velocidad de la luz. Por otro lado t + = 2(R + RCos)/c, donde es el ancho del pulso. Se tiene por tanto que = 2RCos/c. De aquí entonces, si definimos Rx = R, se tiene que finalmente la resolución en x está dada por la siguiente expresión
R x
c 2Cos
(29)
Es decir, la resolución en la dirección x es directamente proporcional al ancho del pulso . Para aumentar la resolución en la dirección x es necesario reducir el ancho del pulso , sin embargo, W 1, donde W es el ancho de banda del emisor de la antena radar. Parecería ser que empleando pulsos más cortos y aumentando el ancho de banda se incrementaría la resolución en la dirección de rango. Sin embargo, para obtener una alta relación señal-ruido es necesario emplear pulsos de gran potencia ya que la señal retrodispersada es del orden de 10-11 menos intensa que la señal transmitida. De aquí entonces, pulsos cortos y gran potencia de señal entran en conflicto; estas dos condiciones no se pueden satisfacer simultáneamente. Por otro lado, existen limitaciones físicas que imponen un límite al valor de W por lo que no se puede reducir más allá de un cierto límite. Además, la longitud de onda empleada determina también una cota para el ancho del pulso. No obstante, la resolución en la dirección x no depende del rango R por lo que puede ser constante para una geometría dada del sistema radar.
Sistema de apertura sintética El radar de apertura real tiene limitaciones en cuanto a la resolución que puede ser alcanzada; para producir imágenes de alta calidad es necesario reconsiderar el diseño de operación del sistema radar. En un radar de apertura real la resolución en la dirección x es función del ancho del pulso , siendo constante en la imagen para el intervalo de valores de x. Sin embargo, en la dirección y depende del rango y del tamaño de la antena. Para evitar esta dependencia es necesario expresar la resolución en y en términos tales que resulte constante también. A partir de esta premisa surge un nuevo diseño de sistema radar llamado Radar de Apertura Sintética (SAR). En este diseño,
38
CYTED – Red FORCLIM con base en el desplazamiento relativo entre la antena y un punto dado en la escena, se mide la variación de rango y el corrimiento doppler para un intervalo acotado de la dirección y. Durante un cierto intervalo de tiempo T y debido al ancho finito del haz y al movimiento relativo entre la escena y la antena, se produce una variación del rango y del corrimiento doppler para cada punto de la escena observado a lo largo de la dirección y. Esta historia de rangos y corrimientos doppler es medida y registrada por el sistema radar durante el proceso de generación de una imagen. Veamos en detalle la medida de tal historia. Supóngase que la antena emite una señal electromagnética ondulatoria, de fase cero, cuya amplitud está dada por la siguiente expresión Ai = A0Sen(2it) = A0Sen(it), - /2 t /2
(30)
Donde A0 es una amplitud de referencia. Al retornar a la antena después de un tiempo t + t, el pulso retrodispersado es también una señal ondulatoria pero con una frecuencia y una fase diferentes (figura 12), por lo que Ar = ArSen[2r(t + t) + r]
(31)
Donde A y r son la amplitud y la fase de la señal retrodispersada respectivamente. Por otro lado, si la velocidad de desplazamiento de la antena (figura 12) es a lo largo del eje y, el rango entre la antena y un punto de la escena se expresa como r
R R
dR t dt
(32)
Donde dR/dt es la razón de cambio del rango R debido al desplazamiento de la antena. Para simplificar el cálculo, el origen de R se ha hecho coincidir con el punto observado; en los siguientes párrafos R se tomará en la dirección inversa. A medida que la antena se desplaza a lo largo de y el rango R varía en dirección y magnitud (figura 12) con relación a un punto observado de la escena. Este rango se mide entonces para un intervalo de valores R, constituyéndose esta medida en la historia de rangos.
Figura 11. Efecto doppler asociado al movimiento relativo de la señal electromagnética con la escena.
39
CYTED – Red FORCLIM
Figura 12. Variación del rango durante la observación de un punto en la escena.
El cálculo de las historias de rango y corrimiento doppler es el siguiente. Entre la antena y un punto observado en la escena existe un movimiento relativo por lo que el rango es una variable dada por la ecuación (32). El tiempo total de recorrido de un pulso desde su inicio en la antena hasta su detección después de interaccionar con la escena es t = 2R/c; a t se le conoce como tiempo de vuelo. Después del tiempo t, la señal inicial Ai ha sido retrodispersada y su amplitud se ha modificado de A0 en Ar. Por tanto, haciendo el cambio, t t + t, en la ecuación (30) y denotando la señal retrodispersada como Ar, se tiene la siguiente expresión
4 i dR R 4 iR A r A r Sen t 2 i c dt R c
(33)
Donde [dR/dt] R/R es la razón de cambio del rango a lo largo de R. Al inspeccionar la ecuación (33), es posible identificar en ésta un cambio de frecuencia y un cambio de fase relacionados al pulso retrodispersado. El factor que multiplica al tiempo en (33) está asociado con el cambio de frecuencia, es decir
2 r 2 i
4 i dR Sen c dt
(34)
Y el factor independiente en (10) es la fase del pulso retrodispersado
r
4R
(35)
Al pasar la antena el punto donde R = R0, la ecuación (32) se escribe de la siguiente manera
R R
40
dR t dt
CYTED – Red FORCLIM Sin embargo, el ángulo cambia de signo (figura 12) por lo que la expresión (32) se mantiene. De aquí entonces, el cambio en frecuencia está dado por
r i
2 dR 2 dR R Sen dt dt R
(36)
Donde es la longitud de onda de operación del radar. El cambio de fase está expresado por (35) ya que se supuso, en la ecuación (30), que la señal original tiene fase cero. La cantidad [dR/dt]Sen es la velocidad relativa, sobre la dirección R, entre la antena y el punto observado. Tal cantidad disminuye al aproximarse la antena al punto de mínima distancia: R R0, llega a cero cuando R = R0 y se incrementa subsecuentemente. Esto quiere decir que tanto la fase como la frecuencia disminuyen cuando R R0, se hacen cero cuando R = R0 y se vuelven negativas cuando R0 R. Cuando la antena se desplaza a una velocidad constante, el rango R disminuye gradualmente en magnitud y se aproxima en dirección a R0. Por tanto, para un punto observado, cuando 0, Sen 0, el cambio en frecuencia es 0 y tiende a cero. En el rango mínimo, justo en R0, = 0, Sen = 0, dR/dt = 0, por lo que = 0. Finalmente, cuando la antena se aleja (figura 13) del punto observado, - - /2, Sen(-) -1, por lo que el cambio en frecuencia es 0. A su vez, el cambio de fase varía de un cierto valor a un mínimo en R0 y aumenta subsecuentemente. Si un punto determinado en la escena es observado (figura 9) desde un rango Ri hasta uno Rf, la historia de rangos es entonces la medida de R en el intervalo R = Rf – Ri. Es decir, en un sistema de apertura sintética se registran y preservan: el rango, la amplitud, la fase y el corrimiento doppler dadas por las expresiones (34), (35) y (36) de la señal retrodispersada en un cierto intervalo; a tal sistema se le conoce como radar coherente. Supóngase ahora que la velocidad de la antena es va a lo largo de la dirección azimutal y que, a partir de un punto de referencia, la distancia recorrida por la antena es s, por lo que
dR ds dR dR va dt dt ds ds
(37)
Donde 2
2
dR dx dy dz dR dx ˆ dy ˆ dz ˆ i j k ds ds ds ds ds ds ds ds ˆˆ ˆ
2
=1
Ya que ds2 = dx2 + dy2 +dz2 y donde ( i, j, k ) son vectores unitarios en las direcciones (x,y,z) respectivamente. De aquí entonces el cambio en frecuencia debido al corrimiento doppler se escribe como
41
CYTED – Red FORCLIM
2 dR R 2 va va Sen ds R , - /2 /2
(38)
En la ecuación anterior el máximo valor de es el ancho del haz en la dirección azimutal generado por la antena del sistema radar. Si bien en principio el intervalo posible para es de - /2 /2, en la práctica el valor de es muy pequeño, por lo que Sen . De aquí entonces la ecuación (38) se puede escribir como
v 2 va a l
Donde l es el ancho físico de la antena. La ecuación (38) nos proporciona por tanto la historia de corrimientos doppler. Para obtener la fase en función de la velocidad de la antena sabiendo que = 2, a partir de la ecuación (38) se escribe
4 va2 t 4 va RSen R R
(39)
Donde RSen = vat es el desplazamiento de la antena a lo largo de la dirección de vuelo. La integral sobre el tiempo de (39) produce la fase buscada t
4 va2 t 2va2 t 2 dt R R 0
(40)
Por otro lado, la frecuencia es la razón de cambio de la fase con respecto al tiempo, por tanto
2v 2 t d 22va2 t a dt R R
(41)
Supongamos ahora que el tiempo total de observación de un punto de la escena es T; el cambio total de frecuencia durante este tiempo sería entonces
dop
2va2 T R
Por otro lado, se tiene que = /l = L/R (Ecuación 27 y Figura 10), donde l es la longitud física de la antena y además L = vaT, donde L se denomina la longitud sintética de la antena. Combinando estas tres últimas expresiones el cambio total de frecuencia se escribe como
dop 2
42
va
(42)
CYTED – Red FORCLIM A dop se le conoce como el ancho de banda doppler. Los sistemas radar de apertura sintética emplean un tren de pulsos en lugar de una señal continua. De aquí entonces, la frecuencia de repetición de pulsos FRP debe ser suficientemente alta para asegurar que el espectro doppler sea muestreado correctamente, por tanto, de acuerdo con el criterio de Nyquist, se tiene que FRP 2dop.
Geometría de formación de imagen La localización en el terreno de un campo instantáneo de vista (CIV) está determinada en una imagen radar por la medida simultánea de rango y del corrimiento doppler. De la antena al terreno existe una colección de puntos con el mismo rango (círculos) pero diferente corrimiento doppler, similarmente, existe una colección de puntos con el mismo corrimiento doppler pero diferente rango. Para localizar un CIV unívocamente, es necesario encontrar la intersección de las líneas de puntos de mismo rango (equidistancia) con aquellas líneas de mismo corrimiento doppler (isodoppler). Para obtener la ecuación de una línea isodoppler es necesario considerar en primera instancia que 2 2 2 R xˆi yˆj hkˆ R x y h , donde (x,y) son las coordenadas de un
punto observado sobre el terreno y h es la altura de la antena. En esta geometría, el origen de coordenadas se encuentra en la antena y R es por tanto el vector de posición del punto observado. Por otro lado, Sen =y/R (figura 13), por lo que a partir de la ecuación (38) y sabiendo que = 2, se escribe 2
y2 x 2 y 2 h2 2va La ecuación (38) nos indica que el máximo cambio de frecuencia se tiene con Sen = 1, es decir, cuando el objeto observado se encuentra en la línea de vuelo de la antena. Llamémosle a este cambio de frecuencia 0, por lo que
x 2 y 2 20 2 1 h 2 h 2 2
(43)
La cantidad 0 es siempre mayor que cero, por lo que (43) representa la ecuación de una hipérbola con foco en el eje y (figura 14) y donde
h h = semieje menor y
20 2
= semieje mayor
El sistema de coordenadas al que se refiere una imagen radar es, por tanto, un sistema oblicuo formado por círculos e hipérbolas (figura 14). El lugar geométrico donde se intersecan círculos e hipérbolas es el conjunto de los nodos donde se encuentran los centros de los campos instantáneos de vista de la escena observada. El valor de los
43
CYTED – Red FORCLIM pixeles de la imagen radar es el valor de la señal registrada por la antena. Esta señal es a su vez proporcional a la sección diferencial de dispersión promedio de cada CIV. En un sistema radar de apertura sintética, la información del corrimiento doppler del pulso retrodispersado es utilizada simultáneamente con el cambio en el rango para generar la imagen de radar de la escena. Este sistema opera de manera lateral, es decir, la antena apunta a un costado de la plataforma y con un ángulo de squint cercano a los 90 con respecto a la dirección azimutal. La antena produce un tren de pulsos de energía electromagnética coherente hacia la superficie de la escena. Los pulsos son de duración pequeña y son emitidos a una frecuencia de repetición alta. Los puntos equidistantes a la antena se encuentran localizados sobre esferas sucesivas concéntricas. Si la superficie de la escena es un plano, la intersección de estas esferas con el terreno genera un conjunto de círculos concéntricos al punto nadir. Los puntos sobre un círculo tienen un rango definido, pero características doppler diferentes. Los puntos distribuidos sobre conos coaxiales a la dirección azimutal y con la plataforma como vértice presentan corrimientos doppler iguales pero rangos diferentes. La intersección de los conos con la superficie produce una familia de hipérbolas que definen lugares donde el corrimiento doppler es igual. La familia de círculos e hipérbolas definen en conjunto un sistema de coordenadas oblicuo (figura 14) cuyos nodos pueden ser unívocamente identificados al medir simultáneamente los rangos y los corrimientos doppler.
Figura 13. Geometría de una imagen de radar.
44
CYTED – Red FORCLIM Centrado en cada nodo se considera un campo instantáneo de vista (CIV), la energía retrodispersada hacia la antena por los CIV es proporcional al valor de los pixeles en la imagen radar. En un sistema de radar de apertura sintética la resolución depende, por tanto, de la capacidad del sistema para medir el tiempo de vuelo t y el cambio de frecuencia debido al corrimiento doppler. En principio, el límite para medir estas dos cantidades es el impuesto por la longitud de onda empleada.
Resolución de un radar de apertura sintética La resolución que se alcanza en un sistema radar de apertura sintética es mayor al de un radar de apertura real. Para calcular la resolución de un radar de apertura sintética empleamos los resultados de corrimiento doppler y cambio de fase dados en la ecuación (38). Supongamos que se tienen dos puntos muy cercanos entre sí, cuyos vectores de rango son Rs y Rt (figura 15) de tal manera que su separación en el terreno es Ry. Los corrimientos doppler para estos dos puntos están dados por
s
2 va Sen
t
2 va Sen( )
Figura 14. Observación de dos puntos contiguos en la dirección de azimuth.
45
CYTED – Red FORCLIM La diferencia en corrimiento doppler es por tanto
st
2v 2 va Sen Sen( ) a Cos
Donde Sen y Cos 1. Sabemos también que el ángulo entre Rs y Rt es: = Ry/RCos, donde R es el rango promedio de Rs y Rt. Además, la longitud sintética de la antena es: L = vaT, donde T es el tiempo de observación para cualquier punto de la escena. Por otro lado, st = 1/T, por lo que se tiene finalmente
R y
R 2L
(44)
La resolución azimutal es, por tanto, directamente proporcional al rango e inversamente proporcional a la longitud sintética de la antena. Por otro lado, la anchura del haz en la dirección azimutal del arreglo sintético está dada por (figura 10), = /l = L/R, donde l es la longitud física de la antena. De aquí entonces se escribe la resolución azimutal como
R y
l 2
(45)
Empleando la ecuación (19) para el ancho de banda doppler se puede escribir la resolución azimutal como
R y
va dop
(46)
De los resultados anteriores se concluye por tanto que, en un radar de apertura sintética, la resolución azimutal es independiente del rango y es directamente proporcional al tamaño físico de la antena. Es posible también afirmar que para incrementar la resolución azimutal sería necesario, realizar una de las dos posibilidades siguientes, o ambas concurrentemente: i) disminuir la longitud de onda, ii) incrementar la apertura del haz. La segunda de estas dos posibilidades implica reducir el tamaño físico de la antena. La resolución en la dirección x es la misma (Ecuación 29) que la de un radar de apertura real. La longitud del arreglo sintético es directamente proporcional al rango por lo que, si este aumenta, lo hace también la longitud sintética en la misma proporción. Esto se debe a que al aumentar el rango, mayor es la proyección del haz sintético sobre el terreno ya que la historia de rangos se mide sobre un mismo intervalo de ángulo. Algebraicamente, el cociente de la ecuación (44) es constante puesto que al aumentar el rango la longitud sintética lo hace en la misma proporción. Por otro lado, de la ecuación (45), entre menor es la longitud física de la antena mayor es la apertura del haz resultando en una antena sintética de mayor longitud y una mejor resolución. A un sistema con estas características se le llama Radar de Apertura Sintética Enfocado.
46
CYTED – Red FORCLIM En la generación de los datos para conformar una imagen de radar de una escena, tanto el rango como el corrimiento doppler se encuentran almacenados en sendos vectores que describen la variación de rango y frecuencia doppler durante la observación de un área en la escena a lo largo de la proyección del haz sobre el terreno. El proceso llamado enfocamiento consiste en emplear los valores de estos vectores para generar un solo pixel relativo al área observada. Tal proceso es llevado a cabo por medio de un algoritmo que involucra una gran cantidad de operaciones en una tarea compleja (Henderson y Lewis, 1998; Holcomb, 1998).
47
CYTED – Red FORCLIM
Aspectos físicos y geométricos El radar, siendo un sistema activo, controla su propia fuente de radiación con la que genera un tren de pulsos que interaccionan con los elementos de la escena. Para formar la imagen, el sistema radar mide las historias de rangos y de corrimiento doppler, a partir de las cuales se construye un sistema de coordenadas oblicuo en cuyos nodos se posicionan los pixeles de la imagen. Esta manera de generar imágenes produce una serie de distorsiones y particularidades geométricas que requieren de estudio y corrección.
Perspectiva Un sistema de imágenes radar mide, para un conjunto de CIVs de la escena, la historia de rangos y la de corrimiento doppler. El rango es precisamente la distancia de la antena al CIV. La colocación de un pixel de la imagen radar es relativa al rango de la antena al CIV correspondiente, esta relación trae como consecuencia una serie de particularidades geométricas que es necesario discutir en detalle. Un punto a una distancia x del origen y cuya altura sobre el datum es h0, es desplazado hacia el origen en la imagen radar por una magnitud dada por
xr R 2 (h h 0 )2 R 2 h 2
(47)
Sin embargo, en la imagen de una cámara fotográfica el mismo punto se muestra alejado del origen por una distancia
xc
h 0 Cos Sen
(48)
Donde es el ángulo de depresión apuntando a la cima del rasgo h0, h es la altura de la antena sobre el datum y R es el rango de la antena al punto observado. Al considerar un perfil del terreno el desplazamiento (figura 16) de los puntos que lo conforman es variado dependiendo de la pendiente de la escena y del ángulo de depresión.
48
CYTED – Red FORCLIM
Figura 15. Representación en el terreno de una imagen de radar.
En la localización de los puntos de la escena sobre la imagen radar existen dos posibles representaciones, una llamada representación en el rango de inclinación y la otra representación en el rango sobre el terreno. En la primera de éstas, los puntos de la escena son colocados de acuerdo con la proyección de los rangos (figura 15) sobre una línea paralela al datum. En la segunda de éstas, los puntos son colocados de acuerdo con la intersección de los rangos con el datum. Para un ángulo de depresión grande el desplazamiento de los puntos es considerable. Con el apoyo de un modelo digital de elevaciones la imagen radar puede ser corregida por el efecto de perspectiva.
Sombras y relieve Un ángulo de depresión pequeño en combinación con una pendiente abrupta del terreno puede provocar una sombra (figura 17) en la imagen radar. Así entonces, las sombras tienden a mostrarse en puntos de la escena alejados del nadir local, es decir, para rangos grandes. Esto trae como consecuencia que las escenas montañosas deban ser observadas por el sistema radar empleando ángulos de depresión grandes. Las escenas con terrenos suaves pueden ser observadas con ángulos de depresión menores. El efecto combinado del desplazamiento de los CIVs de la escena junto con las sombras y penumbras produce un realce del relieve del terreno evidente en la imagen radar (figura 16). El resultado de tal realce es que las imágenes radar son empleadas para evaluar la textura asociada al relieve de la escena. La pendiente del terreno es otro factor geométrico que influye en la magnitud de la señal retrodispersada. El máximo retorno posible de la señal retrodispersada se tiene cuando el ángulo de incidencia es cero y la reflexión es de tipo especular. Si la reflexión es intermedia o isótropa el retorno es menor pero sigue siendo importante. A medida que el ángulo de incidencia
49
CYTED – Red FORCLIM se hace diferente de cero y se presentan rugosidades suaves en el terreno, el retorno se hace débil, pudiendo llegar a cero para una reflexión especular.
Figura 16. Imagen del Radarsat 1 mostrando la zona de los volcanes y área boscosa estudiada en la sección 5.4.
Escorzo El sistema radar mide el rango de la antena a la superficie del terreno de tal manera que los objetos que se encuentran en la escena aparecen desplazados de su localización real (figuras 15 y 16). Esta característica en la operación del radar genera una distorsión geométrica en la imagen que puede ser importante para superficies con alta
50
CYTED – Red FORCLIM rugosidad. Así entonces, un objeto que presente simetría en una dirección paralela a la dirección de vuelo, aparece comprimido del lado más cercano a la antena y elongado del lado más lejano (figuras 16 y 5.17). Es decir un objeto simétrico se muestra asimétrico en la imagen radar. El efecto de compresión es llamado escorzo, que se define formalmente como la representación de los objetos, acortándolos según las reglas de la perspectiva, que se extienden en sentido perpendicular u oblicuo al plano en que se manifiestan. Las reglas de la perspectiva están determinadas por la forma de operación del radar y el plano de manifestación está definido por el datum de referencia. En la parte izquierda de la Lámina 61 se aprecia el efecto de escorzo de una montaña. El escorzo se presenta en objetos simétricos y no simétricos y es más pronunciado para rugosidades altas y para ángulos de depresión grandes. Cuando el rango de la cima es igual al del pie de la montaña los pixeles correspondientes aparecen en la imagen en la misma posición. Cuando el lado de una montaña es aproximadamente perpendicular al haz de radar y con un ángulo de incidencia cercano a cero su apariencia en la imagen es comprimida (figura 17) con respecto al otro lado. Esta distorsión geométrica puede ser corregida empleando un modelo digital de elevaciones del área que cubre la imagen radar. Tal compresión es más pronunciada para ángulos de depresión grandes y relieves del terreno prominentes, llegando en ocasiones hasta el extremo de producirse la inversión arriba mencionada. 5.6.4 Sección diferencial de dispersión La intensidad del pulso retrodispersado por cada CIV depende de la sección diferencial de dispersión, por unidad de ángulo sólido, por unidad de tiempo. Esta sección depende a su vez de una serie de factores, es decir o = f(,,P,,,1,2,K)
(49)
Los parámetros de los cuales depende la sección diferencial se dividen en dos grupos o
- Los parámetros llamados del radar - longitud de onda de operación del radar. - ángulo de depresión de la señal de radar. P – polarización de la onda incidente. - Los parámetros llamados del terreno - ángulo de pendiente del terreno. - constante dieléctrica volumétrica. 1 - rugosidad de la superficie sobre una escala mayor que /10 de la frontera aire/superficie. 2 – sub-superficie de una segunda capa donde la señal puede penetrar la primera capa en un grado significativo.
51
CYTED – Red FORCLIM K – coeficiente complejo de dispersión volumétrica en un medio inhomogéneo. Estos parámetros están relacionados con aspectos físicos del terreno de la siguiente manera
Longitud de onda Las variaciones de la señal retrodispersada atribuibles a están directamente relacionadas con la rugosidad de la superficie y con la constante dieléctrica. En general, entre más rugosa sea la superficie, más difusa (figura 17) es la retrodispersión. Por otro lado, la constante dieléctrica volumétrica depende fuertemente del contenido de humedad del terreno. A su vez, el contenido de humedad determina la penetración, en función de la longitud de onda, de la señal de radar incidiendo en el terreno.
Angulo de incidencia La magnitud de la señal retrodispersada generalmente se incrementa cuando el ángulo de incidencia disminuye. Cuando la superficie del terreno es muy rugosa, con respecto a la longitud de onda, la sección diferencial de dispersión se hace aproximadamente independiente del ángulo de incidencia (figura 17). Cuando el ángulo de incidencia es pequeño, el número de objetos con distancias aproximadamente iguales hacia la antena se incrementa, de tal manera que la densidad de señales retrodispersadas aumenta. Por otro lado, la retrodispersión de una señal es más intensa cuando el ángulo de incidencia es cero o cercano a cero. Estos dos efectos combinados hacen que las zonas de la escena donde la pendiente del terreno y el ángulo de depresión son tales, que el ángulo de incidencia es pequeño, aparezcan brillantes en la imagen radar (Lámina 61).
Polarización Los sistemas radar transmiten comúnmente ondas planas polarizadas ya sea horizontal o verticalmente. La onda electromagnética es depolarizada en varios grados cuando interacciona con la superficie terrestre. Al medir la señal retrodispersada, la antena radar registra aquella porción de la energía electromagnética que presenta una cierta polarización. De esta manera es factible generar imágenes de radar con diferentes esquemas de polarización. Si la señal emitida tiene una polarización horizontal (H) y se mide la fracción de la polarización vertical (V) de la onda retrodispersada, se dice entonces que el esquema es: HV. Los esquemas HH, VV y VH son también factibles. El contraste y detalles discernibles en la imagen radar dependen del esquema de polarización. Una imagen polarimétrica que comprenda los cuatro esquemas de polarización forma una imagen multi-espectral de cuatro bandas; mayores detalles se proporcionan en la sección 5.9.
Angulo de pendiente La distorsión geométrica en la imagen de radar depende, entre otros factores, del ángulo de pendiente del terreno (figura 16). El ángulo de incidencia es función del ángulo de depresión y del ángulo de pendiente. La rugosidad de la superficie y la constante dieléctrica dependen también del ángulo de pendiente.
52
CYTED – Red FORCLIM
Constante dieléctrica Las propiedades dieléctricas del terreno, expresadas en la constante dieléctrica, afectan críticamente la señal retrodispersada ya que inciden directamente en la absorción y propagación de las ondas electromagnéticas. La parte real de la constante dieléctrica es la permitividad del medio y la parte imaginaria se expresa como la conductividad del medio. El valor de la constante dieléctrica depende del contenido de agua de la superficie: la penetración de la señal electromagnética es mayor y la reflexión de la misma es menor para un bajo contenido de humedad. Inversamente, la penetración es menor y la reflexión es mayor cuando la humedad es alta. En cuanto a la conductividad, la penetración es mayor para grandes longitudes de onda.
Rugosidad de la superficie La rugosidad de la superficie es el factor dominante que determina la amplitud de la señal retrodispersada. Dependiendo de la rugosidad, se puede tener reflexión especular, intermedia o isótropa (figura 18). La rugosidad es relativa a la longitud de onda y al ángulo de incidencia, afectando también la magnitud y presencia del ruido coherente (speckle). La textura, determinada por la rugosidad de la superficie del terreno, es uno de los factores básicos que definen la intensidad de los pulsos retrodispersados. La rugosidad del terreno siempre se determina con relación con la longitud de onda de la señal electromagnética empleada por el sistema radar. Para estimar la rugosidad del terreno se emplea una regla heurística llamada el Criterio de Rayleigh cuya expresión es
h
h 0 Sen
(50)
Donde ho es una constante sin dimensión, es el ángulo de depresión y es la longitud de onda de la señal electromagnética. La cantidad h es una medida de la rugosidad del terreno. Una división heurística de la relación (50) determina el grado de rugosidad, así entonces, una superficie se considera suave si h /25Sen, una superficie es rugosa sí h /4.4Sen. De aquí se tiene que, una superficie presenta rugosidad intermedia sí /25Sen h /4.4Sen; un resumen de esta división se presenta en la tabla 6.
Figura 17. Retrodispersión de la señal electromagnética en función de la rugosidad del terreno.
53
CYTED – Red FORCLIM Con base en esta clasificación es factible relacionar la rugosidad con el tipo de reflexión de la señal radar (figura 18 y Tabla 6). Una superficie con rugosidad suave produce reflexión especular sin retrodispersión a la antena, una rugosidad intermedia produce retrodispersión moderada, una superficie rugosa produce retrodispersión difusa o isótropa (Tabla 6). Por otro lado, debido a su alta conductividad, los objetos metálicos presentes en la escena, tales como barcos, plataformas marinas, líneas de alta tensión, o líneas de ferrocarril, producen señales retrodispersadas de alta intensidad. Tabla 6. Retrodispersión de la señal de radar en relación con la rugosidad. Modelo de rugosidad
h
Relieve
25Sen
Suave
Retrodispersión Especular
h 25Sen 4.4Sen
Intermedio
Intermedia
Rugoso
Isótropa
h
4.4Sen
En situaciones donde se reúnen tres superficies aproximadamente planas y perpendiculares entre sí, se produce una retrodispersión intensa también. Tal formación geométrica de tres superficies, conocida como trihedro o reflector de esquina, genera una retrodispersión en dirección contraria a la dirección incidente independientemente del ángulo de depresión. En ciudades, es común encontrar trihedros formados por las superficies de los edificios, en escenas naturales tales reflectores ocurren con menos frecuencia.
Rugosidad subsuperficial El efecto de la rugosidad sub-superficial es importante en los casos de nieve y arenas limpias y secas. En ambos casos, el contenido de humedad es muy bajo y en consecuencia la penetración de la señal electromagnética es alta. En la frontera donde termina la nieve o la arena, la constante dieléctrica cambia y se produce alta reflexión y baja penetración. Esto permite generar una imagen de la interfase nieve/suelo ó arena/suelo.
Dispersión volumétrica En ciertas clases de objetos (bosques o cultivos) la señal retrodispersada es el resultado de la contribución de la reflexión multi-trayectoria (volumétrica) proveniente de diferentes partes del objeto. En consecuencia, es factible que la señal retrodispersada presente varios grados de polarización, por lo que aquellos sistemas radar que operan en varios esquemas de polarización resultan de utilidad en la discriminación de tales
54
CYTED – Red FORCLIM objetos. La dispersión volumétrica en zonas de follaje denso genera un fenómeno de apariencia similar al speckle que se conoce como clutter (Frery et al., 1997; Raney, 1998) que puede ser filtrado digitalmente y reducido por técnicas multi-look (Lira, 2010)
55
CYTED – Red FORCLIM
Naturaleza y modelación del speckle Naturaleza del speckle La interacción coherente de los paquetes de onda retrodispersados por los diferentes objetos de un elemento de resolución (CIV) produce un fenómeno con apariencia de ruido sobrepuesto de manera multiplicativa a la imagen de radar cuyo aspecto visual es similar al de granuloso en una fotografía. Los pulsos retrodispersados por los objetos del CIV, comparables en tamaño a la longitud de onda incidente, interaccionan coherentemente produciendo variaciones de valor de un CIV a otro en zonas homogéneas. Así entonces, los pulsos de radar iluminan una cierta área o CIV en donde se encuentran muchos elementos dispersores. Los pulsos retrodispersados son, por tanto, el resultado de la adición coherente de los ecos de muchos elementos. Tal adición consiste de la suma vectorial de las señales retrodispersadas por los elementos, donde cada señal presenta una amplitud Ai y una fase i. El pulso retrodispersado está determinado por la siguiente suma
A A i e j i i
Por otro lado, de la Ecuación 12, la fase es función de la distancia de la antena al punto dispersor. Además, en la generación de la historia de rangos y corrimientos doppler, un mismo CIV es observado a lo largo de un cierto desplazamiento de la antena. La señal retrodispersada a lo largo de tal historia consiste, por tanto, de una serie de pulsos de amplitud y fase cambiantes a medida que varía la distancia de la antena a un CIV observado. A este fenómeno se le llama desvanecimiento. Aun cuando dos CIV contiguos tuviesen globalmente la misma sección de dispersión, la variación aleatoria de los puntos dispersores de un lugar a otro produciría dos valores de amplitud y fase diferentes. Así entonces, una zona homogénea de una escena con una sección de dispersión constante estaría representada en la imagen por una colección de pixeles de valores diferentes. Esta conclusión se desprende de la suma vectorial arriba expresada, ya que la señal observada está afectada por el fenómeno de interferencia debido a las diferentes fases de las señales provenientes de cada elemento dispersor. La principal fuente de las variaciones de los valores de los pixeles, con apariencia de ruido en la imagen, es la distribución de los términos de fase i. Recordemos que la fase es función del rango, de tal manera que en un CIV los elementos dispersores presentan un rango diferente. De aquí entonces, los elementos dispersores contribuyen con fases diferentes a la señal retrodispersada, aun cuando tengan la misma sección diferencial o. Este fenómeno, llamado ruido coherente o speckle, es inherente a la formación de la imagen radar y no puede ser evitado durante el proceso de formación de la misma. Es necesario puntualizar que en la literatura científica al speckle se le denomina como ruido. Sin embargo, el speckle es más bien el resultado de un fenómeno físico producido por la interacción coherente de la radiación empleada para iluminar la
56
CYTED – Red FORCLIM escena de interés. La apariencia del speckle en la imagen es la de un ruido que puede ser modelado como multiplicativo tal como se explica en la sección 5.7.2. Las imágenes radar muestran una gran riqueza de textura y a menudo su análisis depende de ésta. En imágenes ópticas, la textura es un modelo de la rugosidad de la escena. En imágenes radar, sin embargo, el speckle introduce un elemento de textura en la imagen que no tiene relación con la escena. La ocurrencia del speckle está determinada por la operación del sistema radar debido al empleo de radiación coherente en la observación de la escena. El speckle está presente en todo sistema de generación de imagen que emplee radiación coherente. De aquí entonces es factible afirmar que el speckle es formado por el procedimiento de generación de imagen empleado por el sistema radar y no por la escena.
Modelación del speckle Supongamos ahora que se tiene un gran número Ns de dispersores en un CIV de la escena, cada uno de estos produciendo una retrodispersión con amplitud Ai y fase i, por lo que la amplitud del pulso retrodispersado es la suma coherente (Oliver y Quegan, 1998) dada por Ns
A A 0 e j A i e j i i 1
(51)
La suma expresada en la ecuación (51) puede interpretarse como una suma vectorial de vectores con magnitud Ai y dirección polar i referidos a un sistema de coordenadas polares. El vector resultante de esta suma sería un vector con magnitud A0 y dirección polar . Existen dos modos de detección en un sistema radar, uno, llamado detección lineal donde se mide A (amplitud), el otro, llamado detección cuadrática donde se mide A2 (intensidad). Se dice también, que en el modo de detección cuadrática, se mide la potencia. En el modo de detección lineal, para un look y al suponer que Ai y i son variables aleatorias independientes se tiene que la amplitud A presenta una distribución (Mascarenhas, 1997) de probabilidad de Rayleigh
p R (A)
Ai exp{ A 2i / 2 20 } 20
(52)
A la expresión (38) se le conoce también como la función de densidad. La cantidad 0 es la sección diferencial de dispersión, llamada también varianza de la señal radar. Por otro lado, la fase presenta una distribución uniforme
pR() = 1/2
(53)
La distribución dada por (52) se satisface únicamente si la dimensión del CIV (DCIV) es un múltiplo de la longitud de onda empleada en la generación de la imagen de tal manera que: DCIV = k, donde k 10. Esta condición se cumple para todas las imáge-
57
CYTED – Red FORCLIM nes generadas por los satélites ERS, Radarsat, Seasat y TerraSar. La ecuación (53) implica que la dirección de la fase i es completamente aleatoria. La ecuación (52) muestra que cuando se mide la amplitud de los pulsos retrodispersados la distribución de los valores de pixel es de Rayleigh. La media de la distribución de Rayleigh está dada por
R
zp R (z)dz
0 2
Además, la varianza de esta distribución se escribe como
2R (z R )2 p R ( z)dz
4 2 0 2
El cociente de la media entre la varianza proporciona una medida de la relación señal/ruido en la imagen radar
2R 2R
3.6598
R 0.5227 R
En el modo de detección cuadrática este cociente es uno tal como se ve más adelante en la ecuación (55). Recordemos que el valor de este cociente, para cualquiera de los dos modos de detección, se produce para un look, es decir, para N = 1. En cualquier caso es claro que = k, donde k es una constante, implicando esto que el speckle es un ruido dependiente de la señal radar de carácter multiplicativo. La relación anterior expresada en decibeles es
2 10 log 2R 5.6346 dB R
(54)
El resultado dado por (54) implica que, para una observación de la escena (un look), la relación señal/ruido no puede ser mejor que 5.6346 decibeles, a menos que se promedien varias muestras independientes. En otras palabras, para mejorar la relación señal/ruido es necesario realizar el promedio de varias vistas de la escena. El cálculo anterior se refiere a la medida, por la antena radar, de la amplitud de los pulsos retrodispersados. Si se mide la potencia (modo de detección cuadrática) de los pulsos retrodispersados la distribución resultante es una función Chi-cuadrada con 2N grados de libertad
p 2 N (P )
P P N1 exp 2 2 N 20N (N) 2 0
58
(55)
CYTED – Red FORCLIM Donde (N) es la función gamma. La distribución Chi-cuadrada, para un look, es decir, cuando N = 1, se reduce a una simple distribución exponencial
P 1 exp 2 2 2 0 2 0
p e (P )
De la ecuación (54) se obtiene fácilmente la media
chi
zp 2N (z)dz 2N 0 2
Y la varianza
2chi
( z chi )2 p chi ( z)dz 4N 40
Por lo que el factor señal/ruido es
2chi 2chi
N
chi 1 chi N
(56)
En la figura 18 se muestra una comparación de las funciones de densidad Chicuadrada, Rayleigh y Gaussiana. En el modo lineal de detección se mide la amplitud A, al resultado se le llama imagen de amplitud. En el modo cuadrático de detección se mide la intensidad o potencia A2, al resultado se le llama imagen de intensidad. De la ecuación (37) es claro que la imagen radar es una cantidad compleja: A0ej = A0Cos + jA0Sen, a la parte real se le conoce como la componente de fase y a la parte compleja se le conoce como la componente de cuadratura. La distribución de probabilidades de ambas componentes es modelada por una función de densidad gaussiana
p g (z i )
z exp i 2 2 0 2
1
2
2 1/ 2 0
Donde z1 = A0Cos y z2 = A0Sen. Al cociente dado por (56), evaluado en una región homogénea de la imagen, se le conoce como el número equivalente de looks. A N se le conoce como el número de looks. Para que esta definición sea válida, tal cociente debe ser evaluado a partir de datos de intensidad. Si la imagen es de amplitud el número equivalente de looks es
0.5227 N
59
CYTED – Red FORCLIM Es claro que al aumentar el número de looks el cociente (56) se incrementa, lo que implica que para una zona homogénea, la varianza disminuye y la relación señal/ruido mejora. Al aumentar el cociente (56) es factible obtener mejores estimaciones de la sección de dispersión para tal zona. Al aumentar el número de looks se modifica el histograma, desde una función Rayleigh, hasta una gaussiana (figura 19).
Figura 18. Función de densidad en relación con el número de looks.
Es factible realizar una estimación del valor de la desviación estándar del speckle empleando el siguiente procedimiento. En una zona homogénea de la imagen se selecciona un conjunto de ventanas, en cada una de ellas se calcula la media y la desviación estándar . El conjunto de valores de y se grafican en un sistema bidimensional de ejes cartesianos y se ajusta una línea recta por mínimos cuadrados. La pendiente de esta línea recta es una estimación de la desviación estándar del speckle. Para una imagen de amplitud del SEASAT la pendiente de la línea recta se produce el resultado speckle = 0.27. Otros métodos automáticos y manuales para estimación de la desviación del speckle han sido publicados en la literatura (Frulla et al., 2000). Las expresiones (52) a (56) resultan de suponer que el speckle es el resultado de un proceso aleatorio donde están involucrados muchos dispersores en un CIV. El speckle aparece como un fenómeno de modulación multiplicativa de la reflectividad de la escena caracterizada por la sección diferencial de dispersión 0. Es decir, el speckle se sobrepone de manera multiplicativa a los valores de la imagen. El modelo multiplicativo es válido únicamente cuando se presenta un speckle totalmente desarrollado. Para que el speckle sea totalmente desarrollado se requiere de las siguientes condiciones i) Existe una gran cantidad de dispersores en cada CIV. ii) Ninguno de los dispersores domina la señal retrodispersada. iii) Los dispersores son estadísticamente independientes. iv) La fase proveniente de cada dispersor está uniformemente distribuida. En ciudades, las condiciones (i) – (iv) no se cumplen cabalmente por lo que se dice que el speckle es semi-desarrollado. El speckle no es desarrollado cuando un dispersor dominante se encuentra en un fondo de dispersores aleatorios difusos en un mismo CIV. Esta situación se presenta cuando en el CIV existe un trihedro ya sea natural o
60
CYTED – Red FORCLIM artificialmente colocado para propósitos de calibración de la imagen o bien cuando existe un objeto metálico como un barco o un automóvil. Es común que reflectores tipo trihedro ocurran en ciudades debido a las paredes de los edificios.
61
CYTED – Red FORCLIM
Reducción del speckle La reducción del speckle se alcanza por cualquiera de dos métodos: a) promediando varias vistas o imágenes de la misma escena, b) aplicando un filtraje digital a la imagen radar. El primero se considera como un método de naturaleza física, el segundo es de tipo digital.
Técnica multi-look En la imagen, las variaciones de valor de los pixeles de una zona homogénea son aleatorias debido al speckle, por lo que para caracterizar la sección de dispersión de ésta, sería necesario realizar un promedio de varias observaciones de la misma escena. Esto significa que, dadas N observaciones independientes, el promedio en intensidad preserva el valor medio de la sección de dispersión 0 y reduce la varianza de las medidas por un factor de N para convertirse en 0/N. A esta operación se le llama promedio incoherente debido a que se pierde toda la información de la fase. El promedio en intensidad produce los mejores resultados en cuanto a la reducción del speckle comparado con el promedio en amplitud, en log-amplitud, o el promedio de la parte compleja. En la práctica no es factible realizar varias observaciones de la misma escena al mismo tiempo ya que la plataforma del sistema radar se desplaza a una velocidad constante. En el dominio de frecuencias, el segmentar el dominio de la imagen radar en N bandas espectrales conduce a la generación de N looks. No obstante, para realizar esta partición se requiere que el ancho de banda de cada look sea reducido a 1/N del ancho original. El promedio, en intensidad, de N de estos looks se conoce como técnica multi-look; a la imagen resultante se le llama de N looks. Por tanto, la resolución espacial de cada look es reducida como lo es de la imagen promedio de N looks. Existe una equivalencia analítica entre el procesamiento multi-look llevado a cabo al partir el dominio de frecuencia y el promedio espacial de un conjunto de pixeles; es fácil demostrar que ambos procesos se pueden definir como un filtro lineal. El promedio espacial debe llevarse a cabo a partir de los datos radar de una misma observación. Para llevar este promedio a un cierto tamaño de pixel, es necesario partir de una imagen cuya resolución espacial sea mayor. Si de esta imagen se promedian Nr pixeles en la dirección de rango y Na pixeles en la dirección de azimut se produce un pixel de tamaño mayor, proporcional al promedio N = NaNr
(57)
A la cantidad N se le llama el número de looks. La imagen original generada por el sistema radar, a partir de la cual se realiza el promedio (57), es una imagen de un look. Así entonces, si la imagen original tiene un pixel de 2 m en la dirección azimutal y de 3 m en la dirección de rango y Na = 2, Nr = 3, se produce, por tanto, una imagen de 6 looks con un pixel de 4 x 9 m2. En una zona homogénea de la imagen, las fluctuaciones de valor asociadas al speckle son aleatorias, por lo que un promedio como el des-
62
CYTED – Red FORCLIM crito arriba tiende a reducir este ruido. No obstante, la reducción del ruido trae consigo una reducción en la resolución espacial de la imagen. La reducción del ruido en función del número de looks, para imágenes de potencia va de acuerdo con la expresión (56). La estrategia en la generación de imágenes radar consiste, por tanto, en definir la resolución espacial y el nivel de ruido tolerable en una aplicación específica. A partir de aquí, se calcula el número de looks y el tamaño de pixel necesarios para satisfacer estos requerimientos. Se genera entonces una imagen con un pixel suficientemente pequeño, a partir de la cual utilizando el promedio (57), se obtenga el tamaño de pixel y el número de looks deseados. El promedio de pixeles de una vecindad para aumentar el número de looks se realiza por medio de una operación de convolución de la imagen con una función de factores de peso acotada a un dominio finito: g = f
look, g es la imagen promedio de N looks y h axy,b
h axy,b
h axy,b
, donde f es la imagen original de un
es la función de factores de peso. La
función se desplaza, pixel a pixel sobre la imagen original, en cada posición se realiza la suma de la multiplicación de los factores de peso con los pixeles correspondientes en la ventana, es decir
g(k, l)
a b 1 f(k m, l n)h axy,b (m, n) (2a 1)(2b 1) m a n b
(58)
Donde (k,l) son las coordenadas de pixel y (2a + 1)(2b + 1) son las dimensiones de
h axy,b
en cuyo centro se coloca el origen de un sistema de coordenadas que se desplaza a la par de la ventana. De acuerdo con la notación anterior, Nr = 2a + 1 y Na = 2b + 1. Para evitar artefactos en la imagen de N looks es conveniente definir a a,b
una función binomial de factores de peso dada por
a
h axy,b
como
b
h xy h x h y
.
La operación de promedio aumenta la relación señal/ruido pero disminuye la resolución espacial de la imagen. Sin embargo, el incremento en la relación señal/ruido no va de acuerdo con N tal como lo expresa la ecuación (56). En la imagen original de un look existe una cierta correlación entre pixeles vecinos. Debido entonces a que los pixeles que se utilizan para el promedio ponderado (Ecuación 58) no son estadísticamente independientes, el número equivalente de looks no se incrementa en proporción al número de pixeles promediados. Por otro lado la correlación de pixeles vecinos disminuye como resultado del promedio ponderado, generando una degradación en la imagen resultante. El promedio de varias imágenes de la misma escena al mismo tiempo solo sería posible si no hubiese movimiento relativo entre el sistema radar y la escena. Además, al no haber movimiento relativo entre escena y el sistema radar no se podría emplear el efecto doppler para producir una imagen de apertura sintética. Por otro lado, em-
63
CYTED – Red FORCLIM pleando un sistema satelital cuya órbita es estable podría obtenerse una secuencia de imágenes en intervalos dados por el periodo de cobertura de tal manera que se obtendría una sucesión de imágenes de la misma escena en tiempos diferentes. Las sutiles variaciones de la órbita producen, no obstante, cambios en la geometría de iluminación, por lo que para hacer el promedio de varias imágenes en diferentes tiempos se requiere de una co-registración de las mismas. Además, los cambios que experimenta la escena en el lapso total de adquisición de la secuencia de imágenes conducen a que el speckle sea estadísticamente independiente entre éstas. El promedio de varias imágenes en tiempos diferentes es una aplicación de la técnica multi-look que reduce las variaciones aleatorias que experimenta la escena, mientras que refuerza los aspectos que no presentan cambio en la misma. Tanto el speckle como el clutter muestran variaciones aleatorias debido a los cambios de la escena misma y a los cambios en la geometría de iluminación del sistema radar. De aquí entonces, el promedio de una secuencia de imágenes en tiempos diferentes conduce a la reducción del speckle y del clutter y a un incremento en el número equivalente de looks. La técnica multi-look puede ser empleada también para observar los cambios que ha experimentado la escena en un lapso determinado. Estos cambios se manifiestan en una composición falso color de tres imágenes adquiridas en tiempos diferentes de la misma escena.
Métodos digitales La reducción del speckle en una imagen de radar es necesaria antes de emprender un análisis de la misma, ya sea en la generación de un modelo digital de elevaciones o de una segmentación a partir de una imagen polarimétrica. A continuación se describen los filtros más empleados en la reducción del speckle donde los resultados permiten seleccionar el mejor filtro. Tal como se apuntó en la sección 5.7.2, el speckle es un ruido multiplicativo ya que = k, donde y son la media y la desviación estándar evaluadas sobre una región homogénea de la imagen y k es una constante de proporcionalidad. Esta relación significa que entre mayor sea el valor de un pixel en la imagen mayor es la magnitud del speckle. En forma simplificada, el modelo multiplicativo de generación de una imagen radar se escribe como z(k,l) = x(k,l)(k,l), k,l = 1, 2, . . . M, N
(59)
Donde (k,l) son las coordenadas de los pixeles de la imagen, {x(k,l)} sería la función de retrodispersión del radar y {(k,l)} la función que denota el speckle. Para reducir el speckle se requiere, por tanto, de filtros diseñados con base en el modelo multiplicativo (Bustos, 1997; Lee et al., 1994; Xiao et al., 2003; Lira 2010) dado por la relación (59). A continuación revisamos algunos de los filtros más importantes para reducción del speckle.
64
CYTED – Red FORCLIM Filtro geométrico El filtro geométrico está basado en la operación intersecta o no-intersecta (hit or miss) de la morfología matemática (Lira, 2010). Este filtro no presupone distribución alguna para los valores de los pixeles de la imagen. El filtro geométrico se define de la siguiente manera: Se considera una ventana cuadrada de tamaño impar. En esta ventana se coloca un arreglo binario de factores de peso. A la ventana con los factores de peso se le llama templete. Los detalles del filtro geométrico se proporcionan en Lira (2010). En general una o dos iteraciones del filtro geométrico son suficientes para reducir el
speckle a un nivel tolerable. La figura 20a muestra la diferencia de una imagen de Radarsat 1 (figura 17) y el resultado del filtrado con el filtro geométrico aplicando una iteración. A partir de esta diferencia es factible apreciar que el filtro geométrico elimina únicamente el ruido sin afectar significativamente el contenido de información de la imagen. Filtro de Lee multiplicativo
~ En el filtro de Lee multiplicativo (Lee, 1981; Lira, 2010) la imagen filtrada x se escribe como ~ x (k, l) z(k, l)K(k, l) z (k, l)[1 K(k, l)]
(60)
Donde K es el llamado factor de ganancia, z es la imagen degradada con ruido, z es la media, en una ventana, de la imagen degradada. El factor de ganancia está dado por
K (k, l) 1
2z (k, l) 2 2 2z (k, l)
(61)
El filtro opera de la siguiente manera: se considera una ventana de tamaño impar vmn que se desplaza sobre todos los pixeles de la imagen z, en cada posición de la ventana se calcula la media z de z a partir de los pixeles p(k,l) vmn, es decir
z (k, l)
1 j( n 1) / 2 i(m 1) / 2 p(k i, l j) mn j (n 1) / 2 i ( m 1) / 2
(62)
2
La varianza del ruido se obtiene graficando, sobre ventanas con textura suave, la media versus la desviación estándar. La pendiente de la línea que se ajusta por míni2
mos cuadrados a tal gráfica es la estimación de . La varianza z se obtiene a partir de los pixeles p(i,j) vmn y de la media z de acuerdo con la expresión 2
2z (k, l)
1 j( n 1) / 2 i( m 1) / 2 z (k, l) p(i, j)2 mn j (n 1) / 2 i (m 1) / 2
65
(63)
CYTED – Red FORCLIM
2 Entonces en cada posición de la ventana vmn se actualizan los valores de z y de z , para calcular el factor de ganancia K que substituido en (60) permite evaluar los valo-
~
res de los pixeles de la imagen filtrada x . El resultado de aplicar el modelo de restauración (60) se escribe en un archivo de salida en una localidad en correspondencia con el pixel central de la ventana móvil. La figura 20b muestra la diferencia de la imagen original del Radarsat 1 (figura 19) menos la imagen filtrada con el filtro de Lee multiplicativo, con una ventana de 3 x 3,
2 = 0.25 y una iteración. A partir de esta diferencia se aprecia que este filtro elimina parte del ruido afectando un segmento del contenido de información de la imagen.
Figura 19. Diferencia de la imagen original menos el filtro geométrico (izquierda) y el filtro de Lee (derecha).
Filtro de Frost El filtro de Frost (Frost et al., 1982; Lira, 2010) considera un modelo de restauración circularmente simétrico con base en una gaussiana. El filtro se realiza ejecutando un
66
CYTED – Red FORCLIM promedio ponderado, empleando aquellos pixeles para los cuales p(k,l) v, de acuerdo con la expresión
1 ~ x (k, l) W
p( k i,l j)v
2 p(k i, l j) exp Q 2 z z (rij )
(64)
La exponencial involucrada en la ecuación (64) es una función de amortiguamiento que confiere mayor peso a los pixeles más cercanos al del centro (k,l) de una ventana v circularmente simétrica de radio . La cantidad W es una función de factores de peso dada por
W
2z exp Q 2z (rij ) p( k i,l j)v
(65)
r (k i)2 (l j)2
para un espacio Euclidiano, si bien podría emplearse la Donde ij distancia de Manhattan expresada por rij = ∣k – i∣ + ∣l – j∣. La cantidad Q se conoce 2
2
como el factor de amortiguamiento. Las cantidades z y z (r) son la varianza y la media de los pixeles que se encuentran en la ventana v. El resultado de aplicar el modelo de restauración (64) se escribe en un archivo de salida en una localidad en correspondencia con el pixel central de la ventana móvil. La figura 21a muestra la diferencia de la imagen original del Radarsat 1 (figura 17) menos la imagen filtrada con el filtro de Frost, con una ventana de 3 x 3, factor de amortiguamiento Q = 1 y una iteración. A partir de esta diferencia es factible apreciar que el filtro de Frost elimina parte del ruido afectando un segmento del contenido de información de la imagen. Si bien la afectación es menor que la introducida por el filtro de Lee multiplicativo y mayor que la del filtro geométrico. Filtro gamma En este filtro se supone una distribución Chi-cuadrada para los valores de los pixeles de la imagen. En el filtro gamma (Lopes et al., 1993; Lira 2010), se considera una ventana de tamaño impar vmn que se desplaza sobre todos los pixeles de la imagen z, en cada posición de la ventana se calcula la media z de los pixeles p(k,l) vmn. A partir de aquí, los pixeles de la imagen filtrada están dados por el siguiente modelo de filtraje
67
CYTED – Red FORCLIM
z 1 z , NL z K N L 12 2z 4KN L p(k, l) z ~ x K N L 1 z 2K p(k, l), z 2 z NL
1/ 2
,
1 NL
z z
2 NL
(66)
Donde
K
NL 1 2 N L 2z 1 z
NL – Número de looks, z – Media de la población de la ventana y z – Desviación estándar de la población de la ventana.
Figura 20. Diferencia de la imagen original menos el filtro de Frost (izquierda) y el filtro Gamma (derecha).
68
CYTED – Red FORCLIM El resultado de aplicar el modelo de restauración (66) se escribe en un archivo de salida en una localidad en correspondencia con el pixel central de la ventana móvil. La figura 20b muestra la diferencia de la imagen original del Radarsat 1 menos la imagen filtrada con el filtro Gamma, con una ventana de 3 x 3, una iteración y 4 looks. A partir de esta diferencia es factible apreciar que el filtro Gamma elimina parte del ruido afectando un segmento del contenido de información de la imagen. Si bien la afectación es mayor que la introducida por el filtro de Lee multiplicativo y de Frost. De los filtros estudiados en este apartado, el filtro geométrico es claramente superior debido a que reduce únicamente el speckle sin eliminar información relevante de la imagen original. Los otros filtros eliminan en menor o mayor grado información de la imagen original reduciendo al tiempo una porción del speckle. Algunas técnicas para cuantificar la reducción del speckle han sido publicadas en la literatura (EscalanteRamirez y Lira, 1996).
69
CYTED – Red FORCLIM
Radar polarimétrico En ocasiones es factible contar con imágenes radar, de la misma escena, bajo diferentes esquemas de polarización. Si los esquemas de polarización disponibles son HH, HV, VH y VV, es posible formar con estas imágenes la combinación [R,G,B] = [HH,HV,VV]. Por otro lado, los esquemas de polarización permiten observar características diferentes de la escena, es decir aspectos que pudieran no ser visibles en el esquema HH podrían distinguirse en el esquema VV. De esta manera, la consideración de los cuatro esquemas de polarización en una imagen multi-espectral de cuatro bandas conduce a incrementar el potencial de separabilidad en un clasificador. Al uso conjunto, ya sea para despliegue RGB o para análisis digital, de varios esquemas de polarización de una misma escena se le conoce como radar polarimétrico (Lee y Pottier, 2009). También, el radar polarimétrico puede ser combinado con imágenes ópticas tanto en análisis digital como en despliegue falso color. En el radar polarimétrico, se tienen cuatro secciones de retrodispersión llamadas HH, HV, VH, VV, que forman la matriz de dispersión
S HH VH
HV VV
(67)
A S se le conoce como la matriz de Sinclair. Las secciones de retrodispersión representan las bandas de una imagen multi-espectral de radar adquiridas en los cuatro esquemas de polarización arriba mencionados. Una imagen polarimétrica forma por tanto una imagen multi-espectral de cuatro bandas donde un pixel está compuesto por un vector de cuatro elementos; cada elemento contiene la información de la sección de retrodispersión para cada esquema de polarización. En muchas ocasiones HV = VH.
Descomposición coherente La descomposición coherente presenta una representación similar a la expansión canónica
S c i Si i
(68)
Donde S es la matriz de dispersión, ci son llamados coeficientes y Si son bandas que representan la respuesta de objetos (dispersores) de la escena; a las Si se les denomina objetos canónicos u objetos simples o bien objetos puros. La descomposición dada por (61) representa una de un conjunto infinito de representaciones de la matriz S. No obstante, algunas de tales descomposiciones son convenientes para analizar la información que contiene la matriz de dispersión. Una restricción que generalmente se impone es que las matrices Si sean ortogonales, es decir la correlación entre las ban-
70
CYTED – Red FORCLIM das resultantes de la descomposición debe ser cero. Se trata por tanto de una restricción similar a la descomposición en componentes principales En situaciones reales de escenas de la superficie terrestre, la matriz de dispersión corresponde a objetos complejos coherentes llamados objetos (dispersores) distribuidos. Un ejemplo de objetos simples serían los edificios de un área urbana cuya respuesta domina el valor de la señal retrodispersada. Ejemplos de objetos complejos coherentes serían la vegetación, el suelo y el agua. Una descomposición coherente se aplica a objetos puros y una descomposición incoherente se utiliza para estudiar objetos distribuidos. A continuación estudiaremos la descomposición de la matriz de dispersión empleando el esquema de representación construido a partir de una base definida en términos de las matrices de Pauli. Descomposición de Pauli Considérese la base de Pauli formada por las siguientes matrices
Sb
1 0 1 1 1 0 1 0 1 Sc Sa 2 0 1 2 1 0 2 1 0
(69)
Al emplear la base {Sa, Sb, Sc}, la matriz de dispersión puede ser expandida de la siguiente manera
S HH VH
HV Sa Sb Sc VV
(70)
Donde
HH VV 2
HH VV 2
2 HV
(71)
En consecuencia, la expresión (70) es un caso particular de la descomposición coherente dada por (68). Para efectos visuales de despliegue es posible considerar la composición falso color: [R,G,B] = [2,2,2]. También, para propósitos de clasificación se pueden emplear las bandas formadas por las intensidades 2, 2 y 2. Las matrices Sa y Sb están asociadas con retrodispersiones generadas por los elementos de áreas urbanas. La matriz Sc está asociada con la dispersión volumétrica producida por el dosel de la vegetación (Lee y Pottier, 2009).
71
CYTED – Red FORCLIM
Descomposición incoherente Descomposición (Entropía, Anisotropía, Alfa) La descomposición [Entropía, Anisotropía, Alfa] = H/A/ es un ejemplo de una descomposición incoherente. La matriz de dispersión S solo puede caracterizar la respuesta de los llamados dispersores puros o dispersores coherentes. Para caracterizar los dispersores distribuidos es necesario considerar la matriz de coherencia T3 a partir de la cual se propone la descomposición
T3 q i Ti
(72)
i
Donde qi son coeficientes y Ti es una base para representar objetos distribuidos. La ecuación (72) es similar a una expansión canónica. La matriz de coherencia se escribe de la siguiente manera (Holcomb, 1998)
2 HH T3 2 HH HV HH VV
2 HH HV 2
2 HV
2 HV VV
HH VV 2 HV VV 2 VV
(73)
La matriz T3 puede descomponerse de acuerdo con la siguiente expresión
T3 U 3 U 31 Donde es una matriz de dimensión 3 3 con elementos reales no negativos y U3 = [u1, u2, u3] es una matriz unitaria tal que u son vectores unitarios y ortogonales. Los vectores u son los eigenvectores de la matriz T3. La matriz es la matriz de eigenvalores de T3
1 0 0 2 0 0
0 0 3
Con base en estos eigenvalores se definen las cantidades Entropía
pi
3
H p i log[p i ] i 1
Anisotropía
72
,
i k k
(74)
CYTED – Red FORCLIM
A
2 3 2 3
(75)
Los eigenvectores u se pueden escribir de manera paramétrica ui = [Cosieji, SeniCosij(i+i), SeniSeniej(i+i)] Los parámetros (i, i, i, i) no son linealmente independientes y las fases i corresponden a fases absolutas de los dispersores. A partir de lo anterior se define el parámetro alfa Alfa 3
pii i 1
(76)
De aquí se obtiene la descomposición H/A/ . A través de esta descomposición es factible identificar en una imagen polarimétrica los siguientes dispersores: Dispersión volumétrica proveniente del dosel de la vegetación, retrodispersión doble asociada a áreas urbanas y dispersión especular ocasionada por cuerpos de agua (Lee y Pottier, 2009). La descomposición H/A/ genera un nuevo espacio de rasgos donde es factible producir una segmentación a través de un análisis de cúmulos. Consideremos primero el plano H dividido en ocho zonas básicas de diferente comportamiento de dispersión de la escena. En estas zonas es posible discriminar reflexión superficial, disper-
sión volumétrica y doble reflexión superficial a lo largo del eje . Así entonces, los campos agrícolas y el suelo desnudo están caracterizados por dispersión superficial. La dispersión de áreas forestales está caracterizada por dispersión volumétrica mientras que las áreas urbanas lo son por doble reflexión superficial.
73
CYTED – Red FORCLIM
Interferometría radar La suma vectorial expresada en la ecuación (51) es el resultado de la suma coherente de las contribuciones de un conjunto de dispersores en el CIV. Un cambio en la disposición geométrica o en las propiedades físicas de los dispersores trae como consecuencia un cambio de fase. La amplitud varía también, pero el cambio de fase proporciona la información necesaria y suficiente empleada en los métodos de interferometría. Así entonces, los desplazamientos de masas del terreno debido a sismos, vulcanismo, inundaciones, incendios y deslaves producen un reacomodo en la disposición geométrica de los dispersores. Además, las propiedades físicas del terreno tales como rugosidad y contenido de humedad varían como resultado de la interacción de la atmósfera con la superficie terrestre. Por otro lado, los datos de interferometría permiten la observación geodésica de gran precisión. Supongamos ahora que se adquieren dos imágenes radar de la misma zona pero en tiempos diferentes. Si en el lapso que existe entre las dos adquisiciones los dispersores de cada CIV no modifican su geometría y sus propiedades físicas permanecen inalterables, entonces la fase expresada en la ecuación (51) tampoco cambia. Si esta es la situación se dice que las dos imágenes son coherentes. Por el contrario, si se produce algún cambio ya sea físico o geométrico de los dispersores se genera una variación en la fase y se dice que se pierde la coherencia. El grado de variación de la fase determina la magnitud de la pérdida de coherencia. Si en un área ocurre una descarga de lluvia, las propiedades físicas del terreno se modifican y aun cuando la geometría de los dispersores permanezca inalterable se presenta una pérdida de coherencia. Por otro lado, en un desplazamiento de masas del terreno la geometría es transformada generándose pérdida de coherencia también. A las dos imágenes radar obtenidas en estas condiciones se les conoce como par interferométrico. La interferometría radar se basa precisamente en la variación de la fase producida por una modificación de las propiedades del terreno empleando dicho par (Hanssen, 2001). Otra condición para generar un par interferométrico es adquirir dos imágenes radar de la misma zona, en el mismo tiempo, pero desde distancias diferentes. El adquirir el par al mismo tiempo asegura que no haya cambios en los elementos dispersores de los CIV, por lo que la variación en la fase proviene únicamente de la diferencia en distancia desde la cual se producen las imágenes. En esta circunstancia, el cambio de fase puede ser aprovechado para determinar cambios de elevación de la escena generando con esto lo que se conoce como modelo digital de elevaciones o modelo digital del terreno.
Configuración de pares interferométricos La configuración de pares interferométricos presenta una modalidad donde la escena se observa desde la misma altura en dos posiciones laterales diferentes. Es factible el uso de esta configuración para generar imágenes al mismo tiempo para modelos de elevación, o en tiempos diferentes para medir cambios físicos en la escena. Los satélites tienen órbitas regulares y repetitivas. Este esquema puede establecerse con dos
74
CYTED – Red FORCLIM antenas montadas en la misma plataforma con lo que se genera un par interferométrico al mismo tiempo. En resumidas cuentas, para producir modelos digitales de elevación se requiere de imágenes generadas al mismo tiempo, para medir cambios en la escena se necesita de imágenes en tiempos diferentes. Supongamos ahora que se tiene un sistema radar montado en una plataforma que cuenta con dos antenas separadas una cierta distancia, tal como se muestra en la figura 22. A la línea que determina la dirección de separación de las dos antenas recibe el nombre de línea de base. La operación de un sistema así tiene dos modalidades i)
O1= 1: La antena 1 transmite y recibe pulsos, la antena 2 recibe únicamente.
ii)
O2 = 2: Las antenas 1 y 2 transmiten y reciben pulsos.
Esta segunda modalidad aumenta la distancia funcional entre antenas al doble. A cualquiera de estas modalidades de operación se le llama radar interferométrico bistático. Haciendo referencia a la configuración de la figura 22, aduciendo a las dos modalidades de operación para las antenas 1 y 2, y con base en la ecuación (12), la diferencia de fase es
O i R
2
(77)
Donde R = R1 – R2 y a se le conoce como la fase interferométrica (Ghiglia y Pritt, 1998). La ecuación (77) nos indica la diferencia de fase de dos imágenes radar obtenidas desde dos posiciones. A estas imágenes se les conoce como par interferométrico. Tal diferencia de fase es utilizada para proporcionar información sobre el relieve topográfico de la escena, así como detalles sobre cambios al mismo con una precisión de algunos centímetros.
75
CYTED – Red FORCLIM
Figura 21. Configuración de la geometría de observación de un par interferométrico.
Cálculo de la coherencia y del interferograma Al calcular la diferencia de fase de las dos imágenes que forman el par interferométrico se obtiene lo que se conoce como el interferograma. Las imágenes que forman el par interferométrico deben estar corregistradas a un error r.m.s. menor a un pixel. Para generar la imagen de fase, se multiplica una imagen por el conjugado complejo de la otra, es decir, si
f1 A 1e j1
y
f2 A 2 e j2
son las dos imágenes que forman el par interferométrico, entonces la multiplicación compleja es
f1f2 A 1 A 2 e j[1 2 ] Ae j
(78)
Donde las cantidades Ai y i dependen de las coordenadas espaciales x, y. Las imágenes f1 y f2 son cantidades complejas formadas por una amplitud Ai y una fase i; a la
76
CYTED – Red FORCLIM
cantidad A i e
ji
se le conoce también como fasor. A la imagen resultado del producto
f1f2
se le llama interferograma y a la magnitud f1f2 = A, se le conoce como la magnitud del interferograma (figura 17). A la imagen (x,y) se le llama la fase del interferograma y tiene un intervalo de valores de [,]. La correlación compleja normalizada entre las imágenes que forman el par interferométrico está dada por
C f f (k, l) 12
c1c 2 c1c1 c 2 c 2
(79)
Donde
c i c j
v ( n 1) / 2 u ( m 1) / 2
pi (k u, l v)p j (k u, l v)
v ( n 1) / 2 u ( m 1) / 2
Las cantidades p1 y p2 son los valores complejos de los pixeles de las imágenes f1 y f2 respectivamente. La suma del producto es evaluada sobre una ventana móvil de tamaño m x n, con p1, p2 vmn. A la correlación Cf1f2 se le conoce como la imagen de coherencia y tiene un intervalo de valores de [0,1]. A la medida de la fase por medio de la multiplicación coherente del par interferométrico se le conoce como interferometría multiplicativa. A la suma incoherente de las amplitudes del par interferométrico se le llama interferometría aditiva. Un intervalo de valores de la coherencia de [0.3 – 0.5] es aceptable, un intervalo de [0.5 – 0.7] es bueno y un intervalo de [0.7 – 1.0] excelente. En cuanto a clases de información en el terrenos se considera lo siguiente: coherencia muy baja usualmente agua; coherencia moderada frecuentemente vegetación en crecimiento o en movimiento; coherencia alta desierto, ciudad, u otras características estables de la escena. De aplicación particularmente interesante de las imágenes de radar, se encuentran los pares interferométricos a partir de los cuales pueden ser obtenidos rasgos del terreno. Empleando un par interferométrico, es factible producir imágenes de coherencia, de fase, del cociente de la parte real o imaginaria, del interferograma y la variación temporal de las imágenes de intensidad o de amplitud. Estas imágenes pueden ser empleadas para discriminar objetos producidos por actividad antropogénica (ciudades) de objetos naturales (vegetación) (Bruzzone et al., 2004). En interferometría de repetidas observaciones, la escena puede mostrar cambios en el lapso entre la adquisición de las imágenes que forman el par. Los rasgos de la escena producidos artificialmente como ciudades, no experimentan cambio significativo durante la adquisición del par, mientras que rasgos naturales como la vegetación pueden experimentar suficiente cambio. La invarianza o el cambio de tales rasgos se muestra en las imágenes producidas a partir del par interferométrico. Las áreas urbanas están caracterizadas en general por alta coherencia y alta intensidad de la señal retrodispersada. Los diferentes usos del suelo presentan baja o media intensidad en la señal
77
CYTED – Red FORCLIM retrodispersada (Strozzi y Wegmuller, 1998). Las zonas urbanas muestran alta coherencia a través del tiempo debido a su estabilidad física y geométrica, mientras que la vegetación o los suelos experimentan cambios debido al crecimiento, a la variación en la humedad y al desplazamiento de los dispersores presentes en el CIV. En una imagen de coherencia las regiones brillantes indican alta coherencia, es decir, sin cambio en el terreno, mientras que las zonas obscuras representan baja coherencia, es decir, cambio en el terreno. En la figura 22 se muestra la imagen de coherencia del par interferométrico detallado en la tabla 72. Tabla 7. Principales datos del par interferométrico Radarsat 1. Sensor
Imagen 1
Imagen 2
Radarsat 1 Mayo 19, 1998 Julio 6, 1998
Lugar México
Pixel (m2) Tamaño (km2) Looks 24 24 144.74 226.89
4
En interferometría de una sola observación, es decir, sin cambio en el terreno, la coherencia puede perderse debido a 1) El contenido de speckle, 2) La topografía del terreno tal como pendientes pronunciadas, zonas de sombra y cuerpos de reflexión especular donde la señal retrodispersada es pequeña, 3) Movimientos de objetos del terreno, tales como flujos de agua (ríos, avenidas), desplazamiento de hielo y cambio en la vegetación, 4) Errores en la trayectoria de la plataforma radar 5) Ambigüedad en el desarrollo de la fase y, 6) Registración incorrecta del par interferométrico. En esta modalidad, la línea de base es llamada línea de base espacial. En interferometría de repetidas observaciones, es decir, con imágenes adquiridas en tiempos diferentes, la coherencia se pierde, además de los puntos anteriores, debido a i) Variación de las propiedades ópticas de la atmósfera, ii) Desplazamiento de masas del terreno, iii) Cambios de elevación del terreno, iv) Modificación del aspecto y estructura de los objetos del terreno.
2
Imágenes proporcionadas por Alaskan Satellite Facility.
78
CYTED – Red FORCLIM En esta modalidad, la línea de base es llamada línea de base temporal. La influencia atmosférica es la principal limitante en la interferometría de repetidas observaciones.
Figura 22. Imagen de coherencia del par interferométrico detallado en la tabla 5.7.
Desarrollo de la fase En un esquema de radar interferométrico bistático, con el modelo de interferometría de una sola observación, la diferencia de fase la determina la diferencia del rango entre las dos antenas y el CIV. Por otro lado, la contribución a la fase debida a los dispersores del CIV resulta ser una cantidad determinista. Esto quiere decir que bajo las mismas condiciones de medida los elementos dispersores producen una fase igual. En el esquema bistático, las geometrías de observación de las dos antenas con respecto al CIV son prácticamente iguales. De aquí entonces es posible suponer que la contribución a la fase de los elementos dispersores del CIV con respecto a cada antena es la misma. Por tanto, la fase para un elemento de resolución (CIV) proviene únicamente de la diferencia del rango entre las dos antenas. Con base en este razonamiento, supon-
79
CYTED – Red FORCLIM gamos que los valores de fase observados para un elemento de resolución de la escena son
1 O i
2R 1 d,1
2 O i
y
2R 2 d,2
Donde d,i es la contribución a la fase debido a las características de dispersión del elemento de resolución al ser observado desde las dos antenas (figura 22). Si las características de dispersión son iguales para todo elemento de resolución, d,1 = d,2 y por tanto la diferencia de fase está dada por
1 2 O i
2R
(80)
Donde R = R1 – R2 y Oi es el parámetro determinado por el modo de operación del sistema radar que genera el par interferométrico. En la práctica, este método de medida impone una alta precisión en la definición de la geometría de la línea de base de las dos antenas que forman el esquema bistático. En el radar bistático de repetidas observaciones, la diferencia en el tiempo en la generación del par interferométrico puede resultar en un cambio de fase debida a los elementos dispersores. En el lapso entre una adquisición y la siguiente, las características de los elementos que forman el CIV pueden cambiar debido a causas naturales o como resultado de actividades antropogénicas. Para estudiar la elaboración de un modelo digital del terreno es necesario reescribir la altura z(y) en función del rango R, el ángulo de depresión , la longitud de onda y el cambio de fase , para esto retomemos la figura 22. En esta figura, la línea de base B se muestra en dos componentes tales que Br ∥ R1 y Bn R1. Además, la distancia entre los puntos (a) y (b) se ha descompuesto en dos segmentos tales que zr ∥ R1 y zn R1. De aquí entonces, la relación vectorial de los lados del triángulo formado por R1, R2 y B debido a la ley de los cosenos es R1 R1 = R2 R2 + B B + 2R1 B Por lo que
R 12 R 22 B 2 2R 1BCos De aquí
Cos
R1 R 2 R1 R 2 2R1B
B 2R1
Sin embargo, debido a que B ≪ R1 y que R1 ≈ R2, se tiene
Cos
R1 R 2
80
2R1B
(81)
CYTED – Red FORCLIM Además, de la figura 22, es claro que la altura del terreno sobre el datum es
z h R1Sen h R1 1 Cos 2 Con base en la ecuación (70) (véase figura 22) se escribe que
Cos
2O i B
(82)
El cambio de la fase cuando el rango R cambia de un punto (a) a un punto (b), está dado por
R R Con base en la ecuación (82) y sabiendo que en general R = 2RBCos, es factible escribir que
OB 2 i Cos R R
(83)
El factor 2 nos indica que la fase experimenta un cambio cíclico de 360 a medida que se modifica el rango debido a la topografía del terreno. El grado en el que cambia la altura con cada ciclo de la fase es la sensibilidad del interferograma. La ecuación (83) ha sido deducida suponiendo que el cambio de fase se debe únicamente a las variaciones de la topografía del terreno. La cantidad R indica la variación en altura de la topografía a medida que el cambio de fase cambia de un ciclo a otro. La cantidad /R tiene, por tanto, unidades de: ciclo/m, donde el signo menos se debe a que un incremento de fase de un ciclo implica un decremento en altura de la topografía del terreno. La resolución de /R es directamente proporcional a la línea de base B y a la precisión con que se mida el ángulo de depresión y es inversamente proporcional a la longitud de onda . De aquí entonces, entre mayor sea B y menor sea , la resolución de /R es mejor. La ecuación (83) expresa un cambio diferencial de fase con respecto a la topografía, para producir alturas absolutas es necesario el uso de puntos de control. Estos puntos se generan en el par interferométrico por medio de trihedros cuya localización (x,y,z) en el terreno es conocida. De manera implícita se ha supuesto en la ecuación (83) que el cambio de fase puede ser generado a partir de las franjas observadas en el interferograma. Sin embargo, a partir del interferograma es posible obtener únicamente la cantidad compleja exp[j], es decir, el valor principal de limitado entre los valores y + . En otras palabras, la fase sola puede ser detectada en el intervalo y + , sin embargo, el corrimiento en fase es en realidad mayor. Se dice entonces que el interferograma representa la fase enrollada, es decir, el valor principal de en el intervalo y + . El desarrollo de la fase es, por tanto, el proceso por el cual se
81
CYTED – Red FORCLIM reconstruye la fase original a partir de la representación enrollada. Tal proceso consiste básicamente de adicionar o substraer múltiplos de 2 en lugares apropiados del interferograma para hacerlo aparecer tan suave como sea posible.
Producción de un modelo digital de elevaciones La elaboración de modelos digitales del terreno a partir de pares interferométricos es una tarea rutinaria con base en la tecnología radar actual. Satélites como ERS, Radarsat y TerraSar generan pares interferométricos de gran precisión sobre una base repetitiva; a partir de estos pares es factible producir el modelo digital del terreno de todo el planeta. En la producción de pares interferométricos se tienen dos posibles modos de operación: interferometría de una sola observación e interferometría de repetidas observaciones, con las restricciones y limitaciones ya discutidas. La interferometría de una sola observación, en la configuración mostrada en la figura 22, es la más recomendable para la producción de modelos digitales del terreno. Un radar de apertura sintética no puede distinguir dos objetos al mismo rango pero sí a dos ángulos de depresión diferentes (figura 16). Sin embargo, empleando dos imágenes radar adquiridas, ya sea por dos antenas o por una antena en repetidas observaciones, es posible obtener medidas simultáneas de rango y ángulo para los puntos de la escena. Esto conduce por tanto a la evaluación de la topografía de la escena. La hipótesis en la que se basa la generación del modelo digital del terreno tiene su fundamento en el razonamiento expuesto en los siguientes párrafos. La medida de la fase para un elemento de resolución (CIV) de la escena es la suma de dos contribuciones: a) la fase proporcional a la distancia entre la antena radar y el CIV y b) la fase resultante de las características de dispersión de los elementos dispersores presentes en el CIV. Cuando los cambios producidos por el punto (b) son relativamente menores, es factible entonces asociar el cambio de fase con la topografía del terreno tal como lo describe la Ecuación 83. Para convertir la fase interferométrica en elevaciones del terreno, es necesario realizar el desarrollo de la fase. Es relativamente fácil realizar el desarrollo de la fase en zonas de alta coherencia, por el contrario, en lugares con traslape y escorzo la extracción de la topografía es deficiente o imposible. El método de interferometría arriba expuesto ha sido aplicado en la generación del modelo digital del terreno del área al este de la Ciudad de México (Véase apartado 5.4.2.1), localizada en el centro de la república mexicana. Las imágenes necesarias fueron adquiridas en Mayo y Julio de 1998. El modo de adquisición del par interferométrico es el de repetidas observaciones, cuyas características principales se resumen en la tabla 7. En la figura 17 se aprecia la magnitud del interferograma (Véase Ecuación 78). En la figura 22 se aprecia la imagen de coherencia (Ecuación 79). La imagen de coherencia muestra un cambios moderados en las zonas de vegetación y cambios marginales en las áreas de los volcanes donde está expuesta la roca y el suelo. Finalmente, en la figura 23 se muestra el modelo digital del terreno, donde los tonos claros representan
82
CYTED – Red FORCLIM alturas mayores que los tonos obscuros. Al modelo digital del terreno se le conoce también como modelo numérico de elevaciones, modelo digital de elevaciones o modelo numérico del terreno. En la izquierda abajo de esta figura, se observa una escala de las alturas en la zona de estudio. El modelo digital de elevaciones permite obtener las alturas a las cuales ocurren las masas boscosas del área de estudio. Para obtener la variación de la altura a la que ocurren las áreas boscosas, se ha llevado a cabo un proceso de correlación cruzada entre el modelo digital de elevaciones y los bitmaps de los años 1989 y 2001. Los bordes inferior y superior del área boscosa varían en la zona de estudio (Tabla 8, Figura 24). La variación de estos bordes es relativamente menor del año 1989 al 2001 en la mayor parte de la zona boscosa, no obstante, algunas áreas han sido afectadas significativamente tal como lo muestra la tabla 8 y la figura 24.
Tabla 8. Cambio de altura de la zona boscosa en diferentes áreas de la zona de estudio. Año 1989‐ Zona
Alturas (metros)
Observaciones
A
2650‐3960
Cambios marginales
A1
3050‐3960
Zona de mayor cambio
B
2550‐3960
Cambios marginales
C
2500‐3830
Cambios marginales
C1
3050‐3830
Zona de mayor cambio
Año 2001‐ Zona
Alturas (metros)
Observaciones
A
2850‐3950
Cambios marginales
A1
3160‐3960
Zona de mayor cambio
B
2550‐3960
Cambios marginales
C
2600‐3830
Cambios marginales
C1
3250‐3830
Zona de mayor cambio
83
CYTED – Red FORCLIM
Figura 23. Modelo digital de elevaciones generado a partir de un par intrferométrico del satélite Radarsat 1.
84
CYTED – Red FORCLIM
Discusión y conclusiones Se ha desarrollado un grupo de modelos y procedimientos para segmentar y cuantificar la morfología de áreas boscosas empleando como zona de estudio un área al este de la Ciudad de México. Para segmentar las áreas boscosas del resto de la imagen, se ha elaborado un modelo de respuesta espectral de los bosques. Este modelo está basado en un grupo de tres variables canónicas. Con base en un algoritmo de crecimiento de regiones, se produjo una imagen binaria con dos clases: áreas boscosas y resto de la imagen. Esta imagen binaria, denominada bitmap, permite la cuantificación de la morfología de las áreas boscosas para los años mencionados. Además, el modelo espectral es el fundamento para construir un campo vectorial que caracteriza el estado espectral de las áreas boscosas. Así entonces, con base en los campos vectoriales de las imágenes de los años considerados, es factible cuantificar el grado de cambio que ha experimentado la zona boscosa en el lapso considerado de once años.
Figura 24. Correlación cruzada entre los bitmaps de los años 1989 y 2001 y el modelo digital de elevaciones.
85
CYTED – Red FORCLIM Las imágenes de radar forman un complemento para el estudio de la modificación de áreas boscosas, este complemento presenta dos vertientes. Una, es la elaboración de un modelo digital de elevaciones empleando un par interferométrico. Con este modelo es factible determinar con precisión las alturas a las cuales ocurren las áreas boscosas. La otra vertiente consiste en usar una imagen de radar polarimétrica con cuatro polarizaciones. Las imágenes ópticas para calcular el modelo espectral mencionado, solo pueden ser empleadas en regiones y épocas del año donde la nubosidad es casi nula. Sin embargo, para latitudes nubosas, es imperativo el empleo de imágenes de radar. En particular las imágenes polarimétricas han mostrado un potencial para segmentar áreas boscosas con gran precisión. Este es un posible camino de investigación que podría continuarse desde los resultados presentados en el presente trabajo.
86
CYTED – Red FORCLIM
Referencias ALLEN TR, KUPFER JA (2000) Application of spherical statistics to change vector analysis of Landsat data: Southern appalachian spruce-fir forest, Remote Sensing of Environment 74: 482-493. BUSTOS OH (1997) Robust statistics in SAR image processing. Proceedings of the First Latino-American Seminar on Radar Remote Sensing, ESA SP-407: 81-89. BRUZZONE L, MARCONCINI M, WEGMULLER U, AND WIESMANN A (2004) An advanced system for the automatic classification of multitemporal SAR images. IEEE Transactions on Geoscience and Remote Sensing 42: 1321-1334. CAKIR HI, KHORRAM S, NELSON SAC (2006) Correspondence analysis for detecting land cover change. Remote Sensing of Environment 102: 306-317. COPPIN P, JONCKHEERE I, NACKAERTS K, MUYS B. (2004) Digital change detection methods in ecosystem monitoring: A review. International Journal of Remote Sensing 25: 1565-1596. CRIPPEN RE (1989) A simple spatial filtering routine for the cosmetic removal of scanline noise from Landsat TM P-Tape imagery. Photogrammetric Engineering and Remote Sensing 55: 327-331. DOUGHERTY ER, ASTOLA J (1994) An introduction to nonlinear image processing. SPIE Press. ELACHI CH (1987) Introduction to the physics and techniques of remote sensing. John Wiley & Sons. ESCALANTE-RAMIREZ B, LIRA J (1996) Performance-oriented analysis and evaluation of modern adaptive speckle reduction techniques in SAR images. Proceedings, SPIE 10th Annual International Aerosense Symposium, Orlando, Florida, 2753: 18 -27. FRASER RH, ABUELGASIM A, LATIFOVIC R (2005) A method for detecting large-scale forest cover change using coarse spatial resolution imagery. Remote Sensing of Environment 95: 414-427. FRERY C, MÜLLER HJ, YANASSE CDF, SANTANNA SJS (1997) A model for extremely heterogeneous clutter. IEEE Transactions on Geoscience and Remote Sensing 35: 648659. FRULLA LA, MILOVICH JA, GAGLIARDINI DA (2000) Automatic computation of speckle standard deviation in SAR images. International Journal of Remote Sensing 21: 28832899. GALICIA L, GARCÍA-ROMERO A (2007) Land use and land cover change in highland temperate forests in the Izta-Popo National Park, Central Mexico. Mountain Research and Development 27: 48-57.
87
CYTED – Red FORCLIM GALICIA L, ZARCO-ARISTA AE, MENDOZA-ROBLES KI, PALACIO-PRIETO JL, GARCÍAROMERO A (2008) Land use/cover, landforms and fragmentation patterns in a tropical dry forest in the southern pacific region of Mexico. Singapore Journal of Tropical Geography 29: 137-154. HANSSEN RF (2001) Radar interferometry, data interpretation and error analysis. Kluwer Academic Publishers. HENDERSON FM, LEWIS AJ (eds.) (1998) Principles and applications of imaging radar, John Wiley and Sons, Inc. HOLCOMB DW (1998) Principles and applications of imaging radar. Manual of Remote Sensing, 2. Chapter 16. John Wiley & Sons, Inc. JOHNSON RD, KASISCHKE ES (1998) Change vector analysis: A technique for the multispectral monitoring of land cover and condition. International Journal of Remote Sensing 19: 411-426. KONTOES CC (2008) Operational land cover change detection using change vector analysis. International Journal of Remote Sensing 29: 4757-4779. LAMBIN EF, STRAHLER AH (1994) Change-vector analysis in multitemporal space: A tool to detect and categorize land-cover change processes using high temporalresolution satellite data. Remote Sensing of Environment 48: 231-244. LAMBIN EF, STRAHLER AH (1994) Indicators of land-cover for change-vector analysis in multitemporal space at coarse spatial scales. International Journal of Remote Sensing 15: 2099-2111. LAMBIN EF, EHRLICH D (1997) Land-cover changes in sub-Saharan Africa (1982(1991): Application of a change index based on remotely sensed surface temperature and vegetation indices at a continental scale. Remote Sensing of Environment 61: 18120. LEE JS (1981) Refined filtering of image noise using local statistics, Computer Graphics and Image Processing 15: 380-389. LEE JS, JURKEVICH I, DEWAELE P, WAMBACQ P, OOSTERLINCK A (1994) Speckle filtering of synthetic aperture radar images: A Review. Remote Sensing Reviews 8: 313-340. LEE JS, POTTIER E (2009) Polarimetric radar imaging. From basics to applications. CRC Press. LE HÉGARAT-MASCLE S, SELTZ R (2004) Automatic change detection by evidential fusion of change indices. Remote Sensing of Environment 91: 390-404. LIRA J, GARCÍA E (2003) Characterization of vegetation in the south of México by means of a canonical expansion. International Journal of Remote Sensing 24: 10831093. LIRA J, RODRIGUEZ A (2006) A divergence operator to quantify texture from multispectral satellite images. International Journal of Remote Sensing 27: 2683-2702.
88
CYTED – Red FORCLIM LIRA J (2006) Segmentation and morphology of open water bodies from multi-spectral images. International Journal of Remote Sensing 27: 4015-4038. LIRA J (2010) Tratamiento digital de imágenes multiespectrales. Universidad Nacional Autónoma de México, México. LOPES A, NEZRY E, TOUZI R, LAUR H (1993) Structure detection and statistical adaptive speckle filtering in SAR images. International Journal of Remote Sensing 14: 17351758. MCCLUNEY WR (1994) Introduction to radiometry and photometry. Artech House. MASCARENHAS NDA (1997) An overview of speckle noise filtering in SAR images. Proceedings, First Latino-American Seminar on Radar Remote Sensing, ESA SP-407: 7179. NACKAERTS K, VAESEN K, MUYS B, COPPIN P (2005) Comparative performance of a modified change vector analysis in forest change detection. International Journal of Remote Sensing 26: 839-852. NILSSON NJ (1986) Probabilistic logic. Artificial Intelligence 28: 71-87. RANEY RK (1998) Principles and applications of imaging radar. Manual of Remote Sensing 2, chapter 2, John Wiley & Sons, Inc. REES WG (2001) Physical principles of remote sensing. Cambridge University Press. SÁNCHEZ FLORES E, YOOL SR (2007) Sensitivity of change vector analysis to land cover change in an arid ecosystem. International Journal of Remote Sensing 28: 10691088. SLATER PN (1980) Remote sensing, optics and optical systems. Addison-Wesley, Reading, Massachusetts. STROZZI T, WEGMULLER U (1998) Delimitation of urban areas with SAR interferometry. IEEE International Geoscience and Remote Sensing Symposium Proceedings, IGARSS '98. 6–10 July, New York: 1632–1634. WARNER T (2005) Hyperspectral direction cosine change vector analysis. International Journal of Remote Sensing 26: 1201-1215. XIAO J, LI J, MOODY A (2003) A detail-preserving and flexible adaptive filter for speckle suppression in SAR Imagery. International Journal of Remote Sensing 24: 2451-2465.
89