You are on page 1of 9

La Transformada de Hotelling

Al contrario de las transformadas presentadas hasta ahora, la transformada de


Hotelling (comúnmente conocida como transformada del autovector, de la
componente principal o transformada discreta de Karhunen-Loève), que se
desarrollará en esta sección, se basa en las propiedades estadísticas de las
representaciones vectoriales. La transformada de Hotelling tiene varias
propiedades útiles que la convierten en una herramienta para el procesamiento
de imágenes.

Considérese una población de vectores aleatorios de la forma

⎡ x1 ⎤
⎢ x 2 ⎥⎥
⎢
⎢ x3 ⎥
X = ⎢ ⎥ (3.6-1)
⎢  ⎥
⎢  ⎥
⎢ ⎥
⎢⎣ x n ⎥⎦

El vector medio de esta población se define como

m x = E {x} (3.6-2)

Donde E {arg} es el valor de lo esperado del argumento, y el subíndice indica


que m está asociado con la población de vectores x. Recuérdese que el valor
esperado de un vector o de una matriz se obtiene tomando el valor esperado
de cada elemento.

La matriz de covarianza de la población de vectores se define como

{
C x = E ( x − mx ) ( x − mx )T } (3.6-3)

Donde T indica el vector traspuesto. Puesto que x es n dimensional, C x y


( x − m x ) ( x − m x ) T son matrices de orden n x n. El elemento c ii de C x es la
varianza x i , la i-ésima componente de los vectores x de la población, y el
elemento c ij de C x es la covarianza entre los elementos x i y x j de estos
vectores. La matriz C x es real y simétrica. Si los elementos x i y x j no están
correlacionados, su covarianza es cero y, por lo tanto, c ij = c ji = 0.

Para M muestras vectoriales de una población aleatoria, el vector medio


y la matriz de covarianza se pueden aproximar por:

M
1
mx = ∑x k (3.6-4)
M k =1
y

M
1
Cx = ∑x k x kT − m x m Tx (3.6-5)
M k =1

Ejemplo: Como ejemplo para ilustrar la mecánica de las (3.6-4) y (3.6-5),


considérese los cuatro vectores columna x 1 = (0, 0, 0) T , x 2 = (1, 0, 0) T , x 3 =
(1, 1, 0) T , x 4 = (1, 0, 1) T , donde se ha empleado la traspuesta para poder
escribir los vectores columna convenientemente en forma horizontal en una
línea de texto. Aplicando la ecuación se obtiene el siguiente vector medio:

⎡3⎤
1 ⎢ ⎥
m x = ⎢1⎥
4
⎢⎣1⎥⎦

De forma similar, aplicando (3.6-5) se obtiene la siguiente matriz de


covarianza:

⎡3 1 1 ⎤
1 ⎢
Cx = ⎢ 1 3 − 1⎥⎥
16
⎢⎣1 − 1 3 ⎥⎦

Todos los elementos de la diagonal principal son iguales, lo que indica que las
tres componentes de los vectores de la población tienen la misma varianza.
Asimismo, los elementos x 1 y x 2 , al igual que x 1 y x 3 , están positivamente
correlacionados; los elementos x 2 y x 3 están correlacionados negativamente.

Como C x es real y simétrica, siempre es posible hallar un conjunto de n


autovalores ortonormales (Noble [1969]). Sean e i y λ i , i = 1, 2, …, n los
autovectores y sus autovalores correspondientes de C x ( por definición, los
autovalores y autovectores de una matriz n x n, C, satisfacen la relación Ce i ,
para i= 1, 2, …,n), ordenados (por conveniencia) en orden decreciente de
forma que λ j ≥ λ j + 1, para j = 1, 2, …, C x , ordenadas de forma que la primera
fila de A sea el autovector correspondiente al mayor autovalor, y la última fila
sea el autovector correspondiente al menor autovalor.

Supongamos que A es una matriz de transformación que aplica las x en


otros vectores, a los que llamaremos y, de la forma

y = A( x − mx ) (3.6-6)

La ecuación (3.6-6) se denomina la transformada de Hotelling. La media de los


vectores y resultante de esta transformación es cero; es decir:
my = 0 (3.6-7)

Y la matriz de covarianza de las y puede obtenerse en términos de A y C x por

C y = AC x AT (3.6-8)

Además, C y es una matriz diagonal cuyos elementos de la diagonal principal


son los autovalores de C x ; es decir:

⎡λ1 0 ⎤
⎢ λ2 ⎥
⎢ ⎥
C y = ⎢  ⎥
⎢ ⎥
⎢  ⎥
⎢⎣ 0 λn ⎥⎦

Los elementos que están fuera de la diagonal de la matriz de covarianza son 0,


por tanto los elementos de los vectores y no están correlacionados.
Recuérdese que las λ j son los autovalores de C x y que los elementos de la
diagonal principal de una matriz diagonal son sus autovalores (Noble [1969]).
Por tanto, C x y C y tienen los mismos autovalores. De hecho, lo mismo lo
mismo es válido para los autovectores.

Ejemplo: La figura3.30 ilustra los conceptos que se acaban de exponer. El


objeto binario mostrado se trata como una población bidimensional. En otras
palabras, cada píxel del objeto es tratado como un vector bidimensional x = (a,
b) T , donde a y b son los valores de las coordenadas de ese punto con respecto
a los ejes x 1 y x 2 . Esos vectores se emplean para calcular el vector medio y la
matriz de covarianza de la población (objeto).
Figura 3.30 (a) Un objeto binario; (b) sus ejes principales (autovalores);
(c) rotación del objeto utilizando la ecuación (3.6-6)

El efecto neto de emplear la ecuación (3.6-6) es establecer un nuevo


sistema de coordenadas cuyo origen quede en el centroíde y cuyos ejes estén
en las direcciones de los autovectores de C x , como se muestra en la figura
3.30 (b). Este sistema de coordenadas muestra claramente que la
transformación de la ecuación (3.6-6) es una transformación de rotación que
alinea los datos con los autovectores, como se muestra en la Figura 3.30 (c).
De hecho, es alineamiento es precisamente el mecanismo que descorrelaciona
los datos. Además, como los autovalores aparecen sobre la diagonal principal
de C y , λ i , es varianza de componente y i a lo largo del autovector e i .

El concepto e alinear un objeto bidimensional con su autovector


principal desempeña un papel importante en el análisis de imágenes. Como se
mostrará en los capítulos 8 y 9, después de haber extraído un objeto de la
imagen, las técnicas de la computadora empleadas para reconocerlo son
generalmente sensibles a la rotación del mismo. Debido a que la identidad del
objeto evidentemente no se conoce antes de su reconocimiento, la capacidad
de alinear el objeto con sus ejes principales proporciona un método fiable para
eliminar los efectos de la rotación en el proceso de análisis de la imagen.

Otra importante propiedad de la transformada de Hotelling consiste en la


reconstrucción de x a partir de y. Debido a que las filas de A son vectores
ortonormales, A −1 = A T , y todo vector x puede ser reconstruido de su
correspondiente y, empleando la relación:

x = AT y + m x (3.6-10)

Supóngase, sin embargo, que en lugar de emplear todos los


autovectores de C x se forma una matriz A K a partir de los K autovectores
correspondientes a los K autovalores mayores, dando una matriz de
transformación de orden K x n. Los vectores y serían por tanto K
dimensionales, y la reconstrucción dada en la ecuación (3.6-10) ya no sería
exacta. El vector reconstruido empleando A K es:


x = AKT y + m x (3.6-11)


Puede demostrarse que el errror cuadrático medio entre x y x viene
dado por la expresión:

n K
ems = ∑ λ j − ∑ λ j (3.6-12)
j =1 j =1

n
= ∑λ
j = K +1
j

La primera parte de la ecuación (3.6-12) indica que el error es cero si K


= n (es decir, si se emplean en la transformada todos los autovectores). Puesto
que las λ j decrecen monótonamente, la ecuación (3.6-12) también demuestra
que el error puede ser minimizado seleccionando los K autovectores asociados
con los mayores autovalores. Así, la transformada de Hotelling es óptima en el
sentido que minimiza el error cuadrático medio entre los vectores x y sus

aproximaciones x .

Ejemplo: Se concluye esta sección con otro ejemplo de la capacidad de la


transformada de Hotelling para el procesamiento digital de imágenes. La Figura
3.31 muestra seis imágenes generadas mediante un escáner multiespectral de
6 bandas operando en las longitudes de onda mostradas en la tabla 3.6.
Viendo las imágenes como se muestran en la Figura 3.32, se puede formar un
vector de dimensión seis, x = ( x1 , x 2 ,...., x6 ) T , a partir de cada conjunto de los
pixeles correspondientes. Las imágenes de esta aplicación en particular eran
de una resolución 384 x 239, de forma que la población consistía en 91776
vectores de los que había que calcular el vector medio y la matriz de
covarianza. La tabla 3.7 muestra los autovalores de C x ; obsérvese la
dominancia de las dos primeras componentes.

Canal Banda de longitud de onda (µm)


1 0,40-0,44
2 0,62-0,66
3 0,66-0,72
4 0,80-1,00
5 1,00-1,40
6 2,00-2,60

Tabla 3.6. Números de canal y longitudes de onda


λ1 λ2 λ3 λ4 λ5 λ6
3.210 931.4 118.5 83.88 64.00 13.40

Tabla 3.7. Autovalores de la matriz de covarianza de las imágenes de la figura


3.31.

El empleo de la ecuación (3.6-6) genera un conjunto de vectores


transformados y correspondientes a los vectores x. A partir de ellos, se
construyeron las seis componentes principales de la imagen invirtiendo el
proceso de la Figura 3.32. La Figura 3.33 muestra los resultados. La
componente 1 corresponde a la imagen formada por todas las componentes y 1
de los vectores transformados, y así sucesivamente para las otras cinco
imágenes. Recuérdese de la teoría básica de matrices que y 1 se obtiene
llevando a cabo el producto interno de la primera fila de A con el vector
columna (x - m x ) T . La primera fila de A es el autovector correspondiente al
mayor autovalor de la matriz de covarianza de la población, y este autovalor da
la varianza de los niveles de gris de la primera imagen transformada. Así,
basándose en los valores de la Tabla 3.7, esa imagen tendría el mayor
contraste. La figura 3.33 muestra que esto es lo que sucede realmente. Puesto
que las dos primeras imágenes suman el 94 por 100 de la varianza total, no es
sorprendente el hecho de que las cuatro imágenes de componentes principales
tengan bajo contraste. Por ello, si en lugar de almacenar permanentemente las
seis imágenes sólo se almacenasen las dos primeras imágenes transformadas,
junto con m x y las dos primeras filas de A, posteriormente se podría realizar
una labor aceptable de reconstrucción aproximada de las seis imágenes
originales. Esta posibilidad de realizar una compresión de datos, aunque no es
impresionante, dados los estándares actuales (véase Cap. 6), es un
subproducto útil de la transformada de Hotelling.

Figura 3.32: Formación de un vector a partir de los píxeles


correspondientes de seis imágenes
Canal 1 Canal 2

Canal 3 Canal 4

Canal 5 Canal 6

Figura 3.33: Seis imágenes espectrales procedentes de un escáner aéreo.


(Cortesía del laboratorio para Aplicaciones de Teledección,
Universidad de Purdue).

CONCLUSIONES
El principal propósito de este ha sido presentar los fundamentos teóricos
de las transformadas de la imagen y sus propiedades. Dentro de este contexto,
se han desarrollado e ilustrado los puntos esenciales necesarios para una
compresión básica de esos conceptos.
El énfasis dado a la transformada de Fourier refleja su amplio campo de
aplicación en problemas de procesamiento de la imagen. El estudio de la
transformada rápida de Fourier es de particular importancia debido a sus
implicaciones en el cálculo. Las propiedades de separabilidad, centralización y
convolución de la transformada de Fourier también se emplean ampliamente en
los capítulos siguientes.

La teoría de las transformadas ha desempeñado un papel fundamental


en el desarrollo del procesamiento de imágenes como una disciplina formal,
como se verá en las presentaciones posteriores. En los capítulos siguientes, se
considerarán algunas aplicaciones de la transformada de Fourier en la mejora y
restauración de imágenes. En el capítulo 6 se llevará a cabo una presentación
más amplia de las restantes transformadas en la sección 3.5 considerándose
en detalle su utilidad para la comprensión de datos. La transformada Hotelling
se menciona de nuevo en los capítulos 8 y 9 en relación con normalización de
la rotación e objetos.

Referencia

El tratamiento de la transformada e Fourier en este libro es de naturaleza


introductoria. Los textos clásicos de Titchmarsh [1948] y Papoulis [1962 ]
ofrecen tratamientos teóricos compresibles de la transformada continua de
Fourier y de sus propiedades. La mayor parte de textos sobre ingeniería de
circuitos y comunicaciones ofrecen una variedad de desarrollos y explicaciones
de la transformada de Fourier. Los libros de Van Valkenburg [1955], Carlson
[1968] y Thomas [1969] son representativos de ello.

La derivación de la transformada discreta de Fourier a partir de su forma


continua está también extensamente tratada en la literatura. Tres buenas
referencias sobre este tema son Blackman y Tukey [1965]. Sin embargo, la
FFT tiene una interesante historia que es bueno indicar brevemente aquí. En
respuesta al artículo de Cooley-Tukey, Rudnick [1966] informó que él había
usado una técnica similar, cuyo número de operaciones también era
proporcional a N log 2 N, y que estaba basada en un método publicado por
Danielson y Lanczos [1942]. Estos autores, a su vez, hacían referencia a los
trabajos de Runge y König [1942], contienen las mejoras de cálculos esenciales
de los actuales algoritmos de la FFT. Técnicas similares también fueron
publicadas por Yates [1937], Stumpff [1939], Good [1958] y Thomas [1963]. Un
artículo de Cooley, Lewis y Welch [1967ª] presenta una recopilación histórica y
una interesante comparación de los resultados previos al artículo de Cooley-
Tukey en 1965.

El algoritmo FFT presentado en este capitulo no es absoluto la única


formulación posible. Por ejemplo, el denominado algoritmo de Sande-Tukey
(Gentleman y Sande [1966] ) está basado en una descomposición alternativa
de los datos de entrada. El libro de Brigham [1974] contiene un extenso análisis
de este algoritmo así como muchas otras formulaciones de la FFT, incluyendo
procedimientos para otras bases diferentes de la binaria.
Aunque nos hemos centrado exclusivamente en las técnicas digitales,
debe indicarse que las transformadas de Fourier bidimensionales también
pueden obtenerse mediante medios ópticos. Los libros de Papoulis [1968],
Goodman [1968] y Hecht y Zajac [1975] recorren aspectos teóricos y aplicados
de la óptica y de las transformadas ópticas a nivel de introducción.

Para una lectura adicional sobre la formulación matricial de las


transformadas de la imagen, puede consultarse el libro de Andrews [1970], que
desarrolla también el concepto de descomposición matricial y presenta otras
técnicas de transformación de las imágenes además de las presentadas en
este capitulo. Los artículos de Good [1958], Gentleman [1968], Kahaner [1970],
y el libro de Elliot y rao [1983] también son interesantes.

El trabajo original de la transformada de Walsh (Walsh [1923] ) es de


recomendada lectura desde un punto de vista histórico. Otras referencias
adicionales sobre la transformada son Fine [1949, 1950], Hammond y Jonson
[1962], Henderson [1964], Shanks [1969] y Andrews [1970].

Como lectura adicional sobre la transformada de Hadamard, puede


verse el trabajo original de Hadamard [1893]. También pueden verse
Williamson [1944], Whelchel [1968] y Andrews [1970]. Dos comentarios
interesantes sobre la búsqueda de las matrices de Hadamard no basadas en
potencias enteras de 2 se encuentran en Baumert [1962] y Golomb [1963]. El
concepto de secuencia parece haber sido introducido por Harmuth [1968]. Las
referencias sobre la transformada del coseno discreta son Ahmed y otros
[1974] y Ahmed y Rao [1975]. La última contiene también una extensa
presentación sobre las transformadas ortogonales. Sobre las transformadas de
Haar y Slant se pueden consultar Harmuth [1970], Shore [1973], Jain [1989] y
Pratt [1991].

Hotelling [1933] fue el primero en desarrollar y publicar las


transformadas que convierte variables discretas en coeficientes
descorrelacionados. El propio autor se refirió a su técnica como el método de
las componentes principales. Su trabajo proporciona una nueva perse3pción
sobre el método y es de lectura recomendable. La transformación de Hotelling
fue redescubierta por Kramer y Mathews [1956] y Huang y Schultheiss [1963].
Véanse Lawley y Maxwell [1963] para una presentación general de ese tema.
Una transformación análoga para convertir datos continuos en un conjunto de
coeficientes no correlacionados fue descubierta por Karhunen [1947] y Loève
[1948] y se denomina el desarrollo de Karhunen-Loève. Un estudio excelente
puede verse en Selin [1965]. La consecuencia de que el desarrollo de
Karhunen-Loève minimiza el error cuadrático medio de truncado fue publicada
en primer lugar por Koschman [1954] y redescubierta por Brown [1960].

You might also like