You are on page 1of 125

Introducción a los Sistemas de Información Geográfica

Francisco Alonso Sarría


2
Tema 1

Introducción a los Sistemas de


Información Geográfica

1.1 ¿Que es un SIG?


Una de las constantes en los manuales escritos sobre SIG es la enorme complejidad en su
definición. Las causas fundamental de esta dificultad es que integran en un mismo concepto:

• Datos y teorías sobre los datos

• Hardware y software

• Diversos intereses (científicos, de gestión y comerciales)

• Diversas disciplinas científicas (matemáticas, informática, cartografía, geografía, biología,


ingeniería, etc.) que previamente aparecían aisladas

En general, un Sistema de Información consiste en la unión de información y herramientas


informáticas (programas) para su análisis con unos objetivos concretos. En el caso de los SIG,
se asume que la información incluye la posición en el espacio.
La base de un Sistema de Información Geográfica es, por tanto, una serie de capas de infor-
mación espacial en formato digital que representan diversas variables (formato raster), o bien
capas que representan objetos (formato vectorial) a los que corresponden varias entradas en una
base de datos enlazada. Esta estructura permite combinar, en un mismo sistema, información
con orígenes y formatos muy diversos incrementando la complejidad del sistema.

3
4

Por otro lado las herramientas-programas para su manejo son muy diferentes, a menudo contra-
dictorias, ya que reflejan diferentes tipos de teorías sobre el espacio procedentes de disciplinas
científicas diversas. Por tanto utilizar una determinada herramienta SIG para resolver un prob-
lema implica la aplicación de una teoría, una hipótesis, acerca de los datos que manejamos.
Este problema está en el centro de los debates acerca de si los SIG deben considerarse tan sólo
como una herramienta neutra o como una disciplina científica en si mismos. Debates con con-
secuencias profundas en el modo en que la docencia y práctica de los SIG debe plantearse en
las universidades.
Los Sistemas de Información Geográfica se han desarrollado además a partir de la unión de
diversos tipos de aplicaciones informáticas: la cartogafía automática tradicional, los sistemas
de gestión de bases de datos, las herramientas de análisis digital de imágenes, los sistemas de
ayuda a la toma de decisiones y las técnicas de modelización física. Por ello tienden a veces a ser
considerados un subproducto de las facultades de informática para ser usados por informáticos.
Sin embargo la fuerte carga teórica de los SIG los convierte en un auténtica pesadilla para los
informáticos que acaban buscando SIG simples, blandos donde la flexibilidad (y por tanto las
decisiones científicas que hay que tomar) a la hora de trabajar es mínima.
Por otro lado, para un experto en estas materias (ciencias de la tierra y ambientales) resulta
imprescindible, lógicamente, una formación informática sólida. Se ha llegado a considerar a los
SIG como un enlace entre la Geografía y la Informática al igual que la Geomorfología enlazaría
Geografía y Geología.
Una de las primeras percepciones que se tienen de un SIG son las salidas gráficas a todo color,
impresas o en la pantalla de un ordenador. Conviene recordar sin embargo que hay una difer-
encia fundamental entre los programas de manejo de gráficos y los SIG. En los primeros, lo
fundamental es la imagen que vemos, siendo irrelevante como se codifique, en un SIG la im-
agen es sólo una salida gráfica sin mayor importancia, lo relevante son los datos que se están
representando.

1.2 Definición
Se han dado diversas definiciones de Sistema de Información Geográfica, las siguientes que
constituyen ejemplos claros de los modos habituales de concebir un SIG.
La primera referencia al término SIG aparece en TOMLINSON (1967) referida a una aplicación
informática cuyo objetivo era desarrollar un conjunto de tareas con información geográfica
digitalizada. Se trataba del Sistema de Información Geográfica de Canada (CGIS)
Para BERRY (1987) un Sistema de Información Geográfica es un sistema informático diseñado
para el manejo, análisis y cartografía de información espacial.
5

Para BURROUGH (1988), se trata de un conjunto de herramientas para reunir, introducir, al-
macenar, recuperar, transformar y cartografiar datos espaciales sobre el mundo real para un
conjunto particular de objetivos. El National Center for Geographic Information and Analysis
de USA los define como Sistema de hardware, software y procedimientos elaborados para fa-
cilitar la obtención gestión, manipulación, análisis, modelado, representación y salida de datos
espacialmente referenciados para resolver problemas complejos de planificación y gestión (NC-
GIA, 1990)
Como se observa, estas definiciones no sólo son consecutivas en el tiempo, sino que además
cada una supone un mayor nivel de complejidad sobre la anterior. La primera hace referencia
únicamente a las bases de datos espaciales; la segunda y la tercera a las herramientas (software)
de tratamiento de estos datos, el típico paquete de módulos de SIG (GRASS, Erdas, ArcIfnfo,
Idrisi, Atlas-Gis, etc.); finalmente la tercera incluye el hardware utilizado y los procedimientos
complementarios que puedan ser necesarios.
Aunque en sentido estricto no sería necesario, se han desarrollado un tipo específico de aplica-
ciones informáticas para el manejo de estos sistemas. Estos programas es lo que popularmente
(y equivocadamente) se conoce cómo SIG (IDRISI, ArcInfo, GRASS, etc.), pero que realmente
constituyen tan sólo un componente de lo que es realmente un SIG. Podríamos considerar, en
sentido amplio que un SIG está constituido por:

1. Bases de datos espaciales en las que la realidad se codifica mediante unos modelos de
datos específicos.

2. Bases de datos temáticas cuya vinculación con la base de datos cartográfica permite asig-
nar a cada punto, linea o área del territorio unos valores temáticos.

3. Conjunto de herramientas que permiten manejar estas bases de datos de forma útil para
diversos propósitos de investigación, docencia o gestión.

4. Conjunto de ordenadores y periféricos de entrada y salida que constituyen el soporte


físico del SIG. Estas incluyen tanto el programa de gestión de SIG cómo otros programas
de apoyo.

5. Comunidad de usuarios que pueda demandar información espacial.

6. Administradores del sistema encargados de resolver los requerimientos de los usuarios


bién utilizando las herramientas disponibles o bien produciendo nuevas herramientas.
6

Figura 1.1: Esquema de la base de datos de un SIG


7

Figura 1.2: Modelo de datos vectorial

1.3 Bases de datos espaciales y temáticas

Uno de los problemas fundamentales en el desarrollo de un proyecto de SIG es, al igual que
en el caso de la cartografía tradicional, cómo representar una realidad compleja y continua de
forma siplificada y en elementos discretos. El desarrollo de una base de datos espacial conlleva
una simplificación de la realidad para adaptarla a un modelo de datos. Existen dos modelos de
datos básicos, vectorial y raster.
En el modelo vectorial se considera que la realidad está dividida en una serie de objetos discre-
tos (puntos, lineas, polígonos) a los que se puede asignar diversas propiedades, cualitativas o
cuantitativas. Estos objetos se codifican por su posición en el espacio (puntos y lineas) o por la
posición de sus límites (polígonos). Los cambios de escala van a suponer en muchos casos que
los objetos cambien de un tipo a otro.
8

Figura 1.3: Modelo de datos raster

En el modelo raster por el contrario considera la realidad como un continuo en el que las fron-
teras son la excepción y la regla la variación continua. La representación se realiza dividiendo
ese continuo en una serie de cedillas o pixeles y asignandole a cada una un valor para cada
una de las variables consideradas. Los cambios de escala van a reflejarse en el tamaño de estas
celdillas.

La representación que en la base de datos espacial se haga de la realidad es una de las cuestiones
fundamentales ya que condiciona enormemente la estructura de la misma y los modos de trabajo
posteriores. Las ventajas e inconvenientes de uno u otro se verán a lo largo del curso. Hoy en
día sin embargo se tiende a compaginar al máximo ambos modelos para conseguir una mayor
versatilidad. Existen diversos perifericos de entrada de datos espaciales (tableta digitalizadora,
escaner o incluso por el teclado). Otra forma importante de entrada de datos es la importación
de los mismos desde otros sistemas.

Las bases de datos temáticas se introducen mediante teclado, escanner y OCR o importación
desde otros ficheros. Suelen asignar a cada objeto (representado en formato vectorial o raster)
diversos atributos temáticos cualitativos o cuantitativos.
9

Figura 1.4: Enlace a bases de datos en un SIG vectorial

1.4 Tipos de programas SIG


Evidentemente ningún programa de SIG puede ser el mejor de los programas posibles y cubrir
todas las posibles espectativas. Por tanto los programas acaban especializándose en función del
tipo de datos que se supone que se van a utilizar, el tipo de aplicaciones y la lógica de trabajo.

• Según el tipo de datos

– SIG Raster. Incluyen principalmente herramientas para el manejo de variables espa-


ciales (IDRISI, GRASS, ERMapper, SPRING,PCRaster)
– SIG Vectorial. Manejo de objetos (ArcInfo, ArcView, MapInfo, Geomedia)

• Respecto a la forma de organizar el trabajo:

– SIG basados en menus, orientados normalmente a la gestión tanto en empresa como


en administración (ArcView, IDRISI para windows, MapInfo, Geomedia, SPRING)
– SIG basados en comandos, orientados a la investigación (GRASS, ArcInfo, IDRISI
para MSDOS, PCRaster). La ventaja de los programas basados en comandos es la
capacidad de programar y ejecutar scripts complejos.
10

Figura 1.5: Pantalla de geomedia

• Respecto a la filosofía y objetivos de desarrollo.

– SIG comerciales (ArcInfo, Geomedia, ArcVIew, MapInfo, Smallworld)


– SIG gratuitos o semigratuitos (SPRING, PCRaster, IDRISI)
– SIG abiertos (GRASS)

• SIG para Windows o para UNIX.

1.5 Usos de los Sistemas de Información Geográfica


La inclusión de información espacial y temática permite llevar a cabo consultas de diverso
tipo, desde las más simples a las más complejas, así como ejecutar modelos cartográficos o
dinámicos.
Quizás la operación más sencilla sea la producción de mapas de las variables contenidas en
una base de datos o de nuevas variables calculadas a partir de las disponibles. Por ejemplo
si disponemos de un mapa de municipios y una base de datos con la población y el PIB de
los distintos países podemos generar mapas de ambas variables o de la renta per capita. Esto
11

Figura 1.6: Pantalla de GRASS

no supone la obtención de nueva información, es simplemente una operación de cartografía


automática.
Hoy en día están apareciendo un gran número de programas sencillos para realizar esta labor,
lo que se conoce como desktop mapping, que es un complemento a los SIG más que SIG en
si mismo. Sin embargo gran parte de la popularización de los SIG se debe a este tipo de apli-
caciones ya que han permitido introducir la dimensión espacial de la información de forma
sencilla.
Un paso adelante sería la obtención de respuestas a una serie de consultas sobre los datos y su
distribución en el espacio:

• ¿Que hay en el punto X?

• ¿Que características tiene el punto X respecto a ....?

• ¿Que puntos cumplen determinadas condiciones?

• ¿Que relación hay entre A y B?

• Distancia entre dos puntos

• Conexión entre dos puntos


12

• Pertenencia a un mismo conjunto

Más sofisticado sería el uso de herramientas de análisis espacial y álgebra de mapas para el
desarrollo y verificación de hipótesis acerca de la distribución espacial de las variables y objetos.

• ¿Disminuye la temperatura con la altitud?


• Los individuos de una determinada especie, ¿tienden a agruparse o permanecen aislados?
• ¿Cual es el tamaño mínimo de un área de bosque para mantener una población viable de
osos?

En algunos casos resulta necesaria la utilización de programas de análisis estadístico externos a


los programas de SIG, debe buscarse entonces la mayor integración posible entre ambos tipos
de programas en cuanto a tipos de datos manejados y compatibilidad de formatos de ficheros.
A partir de los resultados de este tipo de análisis podemos, en algunos casos, generar nuevas
capas de información. Por ejemplo, una vez determinada la relación entre tempertatura y altitud,
puede generarse una capa de temperaturas a partir de una capa de elevaciones mediante técnicas
de modelización cartográfica.
Un punto más allá de sofisticación sería la utilización de un SIG para resolver problemas de
toma de decisión en planificación física, ordenación territorial, estudios de impacto ambiental,
etc. mediante el uso de instrucciones complejas del análisis espacial y álgebra de mapas. En
definitiva se trataría de resolver preguntas del tipo:

• ¿Que actividad es la más adecuada para un area concreta?


• ¿Cual es el mejor lugar para la instalación de determinada actividad?
• ¿Cual va a ser el impacto sobre el medio?
• ¿Cual es la forma y tamaño adecuados de los espacios naturales?

Finalmente, las aplicaciones más elaboradas de los SIG son aquellas relacionadas con la inte-
gración de modelos matemáticos de procesos naturales, dinámicos y espacialmente distribuidos.
El objetivo puede ser tanto científico como de planificación y ordenación.

• ¿Que áreas pueden inundarse con período de retorno T?


• ¿Que consecuencias ambientales puede tener un embalse aguas abajo?
• ¿Cómo podría mejorarse la eficiencia en el uso del agua?

En estos casos los programas se utilizan tanto para introducir las capas de información inicial
como para ver y analizar los resultados del modelo en su distribución espacial.
13

1.6 Producción de mapas


Una capa de un Sistema de Información Geográfica es, simplemente un conjunto de números
georreferenciados (formato raster) o grupos de coordenadas que definen la ubicación de objetos
espaciales (formato vectorial), para su visualización es necesario aplicar una paleta de colores.
Sin embargo la presentación de resultados requiere la introducción de otros elementos como
escalas, títulos, mallas, leyendas, etc. heredados de la cartografía tradicional. Los SIG suelen
tener herramientas máso menos sofisticadas para la producción de salidas de este tipo.

1.7 Herramientas y desarrollo de herramientas


Respecto al conjunto de herramientas de tratamiento de datos, suelen centrarse en un Programa
de Gestión de Sistemas de Información Geográfica, pudiendose desarrollar a su alrededor di-
versas herramientas complementarias que faciliten el trabajo o que realicen operaciones que el
PGSIG no es capaz de llevar a cabo. En este sentido un buen PGSIG debe ser potente, abierto,
flexible, transparente, etc. Dentro de las herramientas habría que considerar también las her-
ramientas externas como pueden ser otros programas o los propios comandos del Sistema Op-
erativo. Por tanto las características que eran desebles en un PGSIG son también deseables para
un SO.
Debido al gran número y complejidad de las operaciones que un SIG debe llevar a cabo, existen
una serie de características deseables en un buen programa de gestión de SIG:

• Modularidad. Prácticamente todas las operaciones de SIG pueden descomponerse en


una serie de operaciones más sencillas. Por tanto un enfoque modular en el que cada
operación sencilla pueda ejecutarse de forma independiente del sistema incrementa al
mismo tiempo la sencillez y la flexibilidad.

• Trabajo en linea de comandos. En relación con la característica anterior, si utilizamos


la linea de comandos podemos combinar fácilmente distintos módulos para crear opera-
ciones complejas.

• Sistema abierto. Hoy en día los sistemas informáticos se dividen en abiertos o propi-
etario. Los sistemas abiertos son aquellos de los que se conoce el código fuente (es decir
como hacen las cosas) y, por tanto, como se almacenan los datos. Las ventajas de un
sistema abierto estriban en que podemos decidir s los algoritmos utilizados son válidos
para nuestros objetivos o no, y que podemos combinar fácilmente el programa con otros
ya que si existen otros programas que funcionen mejor para algunas de las operaciones,
estos deben ser usados.
14

Figura 1.7: Mapa de planeamiento en la Región de Murcia


15

Figura 1.8: Desarrollo de herramientas SIG

• Facilidad de programación. El nivel más avanzado de usuario de SIG es el de progra-


mador de SIG. En proyectos grandes y complejos, las herramientas disponibles en un SIG
pueden no ser suficientes, por tanto el usuario necesita incorpora sus propios módulos.

De hecho podemos entender el trabajo en SIG como la capacidad de expresar problemas espa-
ciales complejos en forma de algoritmos que utilicen como expresiones operaciones básicas de
SIG.
El desarrollo de herramientas de SIG más complejas se apoya decisivamente en las solicitudes
de los usuarios, tanto si se trata de consultas simples a la base de datos cómo si se trata de prestar
apoyo al trabajo de grupos de investigación. Las nuevas herramientas pueden estar destinadas,
tanto a la implantación de técnicas y algorítmos más sofisticados de análisis de datos a peti-
ción de los usuarios como al desarrollo de mejores interfaces con el usuario (mejores sistemas
de visualización, algoritmos más eficientes y seguros, etc. desarrollados por los informáticos
incluidos en el proyecto. Puesto que el desarrollo de un SIG tal como se ha planteado aquí con-
situye una apuesta compleja, es necesario que el conjunto de usuarios sea lo más amplio posible
de forma que el SIG no sea algo cerrado. Las aplicaciones son muy variadas tanto desde un
punto de vista científico cómo de gestión e incluso empresarial.
16

1.8 Aplicaciones de los SIG

Un Sistema de Información Geográfica es una herramienta que permite la integración de bases


de datos espaciales y la implementación de diversas técnicas de análisis de datos. Por tanto
cualquier actividad relacionada con el espacio, puede beneficiarse del trabajo con SIG. Entre
las aplicaciones más usuales destacan:

• Científicas

– Ciencias medioambientales y relacionadas con el espacio


– Desarrollo de modelos empíricos
– Modelización cartográfica
– Modelos dinámicos
– Teledetección

• Gestión

– Cartografía automática
– Información pública, catastro
– Planificación física
– Ordenación territorial
– Planificación urbana
– Estudios de impacto ambiental
– Evaluación de recursos
– Seguimiento de actuaciones

• Empresarial

– Marketing
– Estrategias de distribución
– Planificación de transportes
– Localización óptima
17

1.9 Bibliografía
Coppock, J.T. and Rhind,D.W. (1991) The History of GIS en Maguire, D.J.; Goodchild, M.F.
and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and Applications John
Wiley & sons pp. 21-43 (www.wiley.co.uk/wileychi/gis/resources.html)
Longley,P.A.; Goodchild, M.F.; Maguire, D.J.; and Rhind, D.W. (2001) Geographic Information
Systems and Science John Wiley & sons 454 pp.
Maguire, D.J. (1991) An overview and definition of GIS en Maguire, D.J.; Goodchild, M.F.
and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and Applications. John
Wiley & sons pp. 9-20 (www.wiley.co.uk/wileychi/gis/resources.html)
Openshaw,S. (1991) A view on the GIS crisis in geography Environment and Planning A 23,
621-628
Unwin, D.J. (1991) The academic setting of GIS en Maguire, D.J.; Goodchild, M.F. and Rhind,
D.W. (Eds.) Geographical Information Systems: Principles and Applications John Wiley & sons
pp. 81-90 (www.wiley.co.uk/wileychi/gis/resources.html)
Wright, D.J.; Goodchild, M.F. and Proctor, J.D. (1997) Desmytifying the Persistent Ambiguity
of GIS as "Tool" vs. "Science" The annals of the Association of American Geographers 87(2):
346-362 (dusk.geo.orst.eddu/annals.html)
18
Tema 2

Modelos y estructuras de datos

Cuando se trabaja con tecnologías digitales, por ejemplo los SIG, el usuario no suele tener ac-
ceso a la representación digital de los datos, en su lugar se presentan una serie de vistas estruc-
turadas de estos (mapas, gráficos, tablas, etc.). Por lo que respecta a la información espacial,
existen múltiples formas de representación no siendo ninguna de ellas necesariamente mejor
que las demás ya que los objetivos que persiguen los diferentes usuarios de los SIG pueden
llegar a ser muy diferentes y, por tanto, necesitar diferentes formas de representación. En este
tema se tratará la base teórica de la codificación de los diferentes elementos y atributos de la
superficie terrestre en formato digital para su tratamiento con un programa SIG.
Partiendo de la definición de modelo como representación simplificada de la realidad, que refleja
lo fundamental de esta ignorando los detalles accesorios; un modelo de datos sería el conjunto
de reglas utilizadas para representar la variedad del mundo real como un conjunto finito de datos
discretos y fácilmente manipulables con un ordenador. Pasar de la realidad a una representación
o modelo digital supone un gran salto que se entiende mejor si consideramos la existencia de
varios niveles de abstracción:

1. Realidad (montañas lagos y campos de cultivo). Nivel propio de los gestores preocupados
por problemas de gestión y planificación del espacio.

2. Modelo conceptual (variables y objetos). Nivel de los científicos (geógrafos, geólogos,


ecólogos, etc.) que desarrollan, verifican o aplican teorías e hipótesis sobre variables y
procesos que tienen lugar en el espacio.

3. Modelo lógico (raster y vectorial). Nivel de los técnicos en SIG que utilizan las herramien-
tas del sistema para llevar a cabo, en el ordenador, las tareas requeridas por gestores o
científicos.

19
20

4. Modelo digital (estructuras de datos y algoritmos). Nivel de informáticos, y desarrol-


ladores de SIG cuya misión es ampliar el repertorio de herramientas para cumplir con el
máximo número de necesidades.

La comunicación entre unos y otros se hace cada vez más difícil cuanto más alejados se en-
cuentren en la anterior jerarquía, por tanto es necesario la existencia de especialistas de los
diferentes niveles para el adecuado desarrollo de un proyecto, al mismo tiempo se requiere un
diálogo constante entre los mismos. No obstante suele darse el caso de personas que abarcan
varios niveles de esta jerarquía.

2.1 El modelo conceptual. Objetos y variables regionalizadas


La realidad, por ejemplo el trozo de realidad representado en la fotografía aerea de la figura 2.1
puede entenderse según dos modelos mentales (conceptuales) en principio contradictorios:

1. Como un continuo definido por una serie de variables que varían de forma más o menos
suave (por ejemplo topografía)

2. Como la yuxtaposición de objetos discretas y con características homogeneas que re-


cubren el espacio de forma completa (por ejemplo tipos de suelo).

2.1.1 Variables regionalizadas


En el primer caso podemos estudiar la realidad como un conjunto de variables (altitud, humedad
del suelo, precipitación, densidad de vegetación) que adquieren diferentes valores en diferentes
puntos del espacio, siendo estos valores más parecidos cuanto más cerca se encuentren los pun-
tos, a esta propiedad se denomina autocorrelación espacial. A este tipo de variables espaciales
se les denomina en algunos manuales de SIG como campos por analogía con el campo electro-
magnético que muestra propiedades similares, sin embargo parece preferible utilizar el término
variable regionalizada que procede del campo de la geoestadística (rama de la estadística que
estudia este tipo de variables). Tambien suele utilizarse el término superficie.
Las variables regionalizadas son objetos tridimensionales con dos dimensiones que representan
los ejes espaciales y una tercera que representa una tercera variable cuantitativa representada
en cada punto del espacio. Este tipo de modelos se suelen denominar como de dos dimensiones
topológicas y media (gráficos 2,5D), pues en realidad la tercera dimensión (la Z) no se analiza
en su totalidad, no se considera exactamente un hecho volumétrico, sino una superficie (las
21

Figura 2.1: Realidad

dos dimensiones) ondulada, levantada en tres dimensiones (la media dimensión). Los gráficos
y los análisis verdaderamente 3D necesitan emplear modelos de datos diferentes y bastante más
complejos que son de especial utilidad para algunas aplicaciones prácticas como en Geología.

Mientras que el resto de los objetos son más o menos perceptibles sobre el terreno o utilizando
la cartografía apropiada, las superficies suelen ser mucho más difíciles de determinar, ya que en
cada punto del territorio los valores son diferentes, al no disponer de un valor para cada punto,
es necesario realizar una estimación. Es necesario recurrir a técnicas de interpolación.

El ejemplo más típico de variable regionalizada son los Modelos Digitales de Elevaciones
(MDE). Se trata de una superficie que representa la topografía del terreno, es decir, las alturas
en cada punto (celdilla) de un territorio. Pero, en realidad, se puede crear superficies a partir
de cualquier variable que cumpla unas mínimas características, esencialmente la continuidad
espacial, sin que existan saltos bruscos en el valor de la variable. De este modo, diversos aspec-
tos físicos naturales, tales como las precipitaciones, las temperaturas, 1a composición litológica
o mineral, la acidez o basicidad de los suelos, etc., o también variables sociales: número de
habitantes, densidad de población, etc., se pueden representar y analizar como una superficie.
22

Figura 2.2:
23

2.1.2 Objetos
Si consideramos la realidad como una yuxtaposición de objetos, cualquier entidad que aparezca
en el espacio (casas, carreteras, cordilleras, lagos, etc.) puede modelizarse a la escala adecuada
como un objeto geométrico extraido de la geometría euclidiana. Pueden ser clasificados por su
dimensionalidad en 3 tipos (figura 2.3):

• Objetos puntuales. Objetos geométricos de dimensión 0, su localización espacial se rep-


resenta por un par de coordenadas (X,Y).

• Objetos lineales. Objetos geométricos de dimensión 1, su localización espacial se repre-


senta como una sucesión de pares de coordenadas llamados vértices, salvo el primero y
el último que se denominan nodos (en la figura 2.3 aparecen en negro).

• Objetos poligonales. Objetos geométricos de dimensión 2. Se representan como una


linea cerrada (modelo Orientado a Objetos) o como una sucesión de lineas denominadas
arcos (modelo Arco-Nodo).

El escoger un tipo u otro para representar determinado objeto dependerá en gran manera de
la escala y del tipo de abstracción que se pretenda hacer. Así una ciudad puede ser puntual
o poligonal y un cauce fluvial lineal o poligonal. Una ciudad sólo tendra sentido considerarla
poligonal en estudios de planificación urbana. Para casi todas las aplicaciones hidrológicas tiene
más sentido representar los cauces como objetos lineales y codificar su anchura y profundidad
como propiedades espaciales. Podemos considerar a priori 6 categorías de información que
caracterizan a los diferentes objetos geográficos:

1. Identificador. Se trata de una variable cuantitativa que identifica cada objeto dentro de un
conjunto de objetos del mismo tipo. El identificador será un valor único y las propiedades
de los objetos se almacenarán en una base de datos a la que se accede cada vez que es
necesario.

2. Posición. Indica la ubicación del objeto en un espacio, generalmente bidimensional. Im-


plicitamente indica también su dimensión y su forma. De este modo cada tipo de objeto
tiene, en función de su número de dimensiones, una serie de propiedades espaciales de
tamaño y forma directamente extraibles de su codificación espacial:

• Los objetos lineales tienen longitud, sinuosidad y orientación.


• Los objetos poligonales tienen area, perímetro, elongación máxima y diversos índices
de forma directamente calculables a partir de estas.
24

Figura 2.3: Tipos de objetos en formato vectorial a) Punto, b) Linea, c) Polígono en formato
OO, d) Polígono en formato Arco-Nodo.
25

3. Propiedades espaciales. Son variables cuantitativas medidas en magnitudes espaciales y


que indican algún aspecto de la extensión espacial de los objetos no representable debido
a la escala de trabajo, a tratarse de una magnitud en la tercera dimensión o a la dificultad
de representarla por el tipo de abstracción que implica su representación (por ejemplo la
profundidad de un cauce).

4. Propiedades no espaciales. Son variables cualitativas o cuantitativas que no tienen nada


que ver con el espacio pero que se relacionan con el objeto. Resultan de mediciones sim-
ples o de descripciones. Pueden ser constantes o variables en el tiempo. Por ejemplo toda
la información relativa a la demografía de un municipio. Existen diversas operaciones que
permiten derivar propiedades nuevas a partir de otras ya existentes.

• Reclasificación: Si P oblacion < 1000&P oblacion > 500 => Recl = 2


• Combinación aritmética: Densidad = P oblacion/Superf icie
• Combinación lógica: Si P oblacion < x&P IB > y => Riqueza = 1

5. Relaciones con el entorno. Todos los objetos geográficos tienen unas relaciones con su
entorno, es decir con el resto de los objetos del mismo o distinto tipo que aparecen a su
alrededor. Estas relaciones pueden ser de tipo puramente topológico (polígonos vecinos)
o de tipo físico (cauces tributarios que se conectan al cauce prncipal). Pueden codificarse
de forma explícita en la base de datos asociada al objeto o estar implícita en al codi-
ficación de su localización espacial. Estas relaciones pueden dar lugar a la creación de
tipos compuestos (redes, mapas de polígonos, etc.).

6. Metainformación. Información acerca de la información. Existe metainformación de


muy distinto tipo, en algunos casos es imprescindible. Casi todos los sistemas de SIG in-
corporan metainformación bien en ficheros de documentación como es el caso de IDRISI
o GRASS, o bien como cabeceras de los ficheros de datos. Otro tipo de metainformación
no imprescindible aunque útil es la relativa al método de obtención de los datos, cuando
se obtuvieron, definición de objetos y atributos, calidad de los datos, explicación acerca
de los valores que faltan, precisión con que se ha medido, etc. Se han propuesto den los
últimos años diversos estándares de metadatos sin que ninguno de ellos haya llegado a
imponerse.

2.1.3 Objetos compuestos

Además de los tipos de objetos simples pueden existir tipos complejos originados por la com-
binación de otros tipos. Por ejemplo un mapa de polígonos puede ser considerado un objeto
26

compuesto por varios polígonos complementarios vinculados unos con otros por relaciones de
contiguidad.
Uno de los ejemplos más típicos de objeto compuesto, son las redes. Pueden definirse como
un sistema interconectado de elementos lineales que forman una estructura espacial por la que
pueden pasar flujos de algún tipo. El análisis de redes tanto espaciales como aquellas que rep-
resentan relaciones de cualquier otro tipo ha recibido considerable atención durante toda la
segunda mitad de este siglo. El análisis de redes permite plantear y resolver un amplio conjunto
de problemas prácticos. Dentro del ámbito de las matemáticas existe una rama muy desarrollada
denominada teoría de grafos que estudia este tipo de objetos compuestos
Existen redes de muy diverso tipo, por ejemplo las redes de drenaje pertenecen a un tipo muy
específico que son los árboles (grafo sin circuitos) orientados (los flujos sólo pueden desplazarse
en un sentido). Estaría formada por un conjunto de lineas (cauces) con algunas características
propias que explican el modo en que tiene luhgar el transporte de los flujos.
Una red de comunicaciones podría definirse como una red de lineas (carreteras) de diverso
tipo y el conjunto de ciudades (nodos) que conectan. Un tipo de objeto más complejo pueden
ser la agrupación de tipos simples y complejos que tienen algún tipo de relación en cuanto
a transmisión de flujos de materia, energía y/o información. Una cuenca hidrográfica puede
considerarse como un area sobre la que se sitúan una serie de superficies, mapas de polígonos y
una red de drenaje. Estableciendose una serie de relaciones de transferencia de materia y energía
entre el area (escorrentía superficial) y la red de drenaje.

2.1.4 Tipos de variables

En Ciencias de la Tierra se maneja un gran número de datos de origen y naturaleza muy difer-
ente. Independientemente de que se trate de variables regionalizadas o de variables, espaciales
o no espaciales asociadas a on objeto, pueden distinguirse cuatro tipos de variables:

• Binomiales. Sólo tienen dos valores, suelen indicar presencia/ausencia o pertenencia/no


pertenencia.

• Cualitativas o nominales. Indican una cualidad no mensurable. Por ejemplo la litología,


tipos de suelo, etc.

• Semicuantitativas u ordinales. Se trata de variables cualitativas pero que pueden or-


denarse atendiendo a algún criterio. Por ejemplo el número de orden de los cauces, o el
tipo de carretera a la que pertenezca un tramo de la red, tipos de roca ordenados por su
erosionabilidad.
27

• Cuantitativas: Son variables mensurables que pueden adoptar cualquier valor, variables
continuas (altitud o temperatura) o sólo determinados valores, discretos (p.ej. número de
cauces de un determinado orden). Una variable continua puede convertirse en discreta por
su forma de medirse y registrarse.

En algunos casos pueden existir transformaciones de unos tipos de variables a otros. Por ejemplo
a partir de varios mapas de propiedades del suelo (cuantitativo continuo), puede construirse
por reclasificación un mapa de tipos de suelo (cualitativo). A la inversa, de una mapa de una
variable cualitativa (tipo de suelo) puede extraerse un mapa de porosidad, asignando a cada
punto el valor medio de su tipo de suelo o un valor obtenido a partir de dicho valor medio y
algún procedimiento que tome en consideración la variabilidad espacial de la porosidad.

2.2 Modelos lógicos. Raster y vectorial


El modelo logico hace referencia a como se muestrean y organizan las variables y objetos para
logrear una representación lo más adcuada posible.
Para representar variables podemos considerar hasta 4 modelos posibles:

• Malla de puntos

• TIN (Red Irregular de Triángulos)

• Isolineas (lineas en las que el identificador se sustituye por el valor de la variable).

• Raster

Los tres pimeros pueden considerarse como híbridos entre el modelo raster y el vectorial ya que
se utilizan objetos compuestos (mallas de puntos, puntos interconectados o lineas) para repre-
sentar variables regionalizadas. El problema fundamental que plantean es que no representan a
la totalidad del espacio, por tanto requieren una interpolación más o menos compleja para saber
cual es el valor en un punto concreto. El modelo raster completa el espacio y la obtenicón del
valor en cualquier punto es inmediata.
Para representar objetos está el modelo Arco-Nodo (cuya mayor virtud es ahorrar memoria
y facilitar algunas de las operaciones de análisis SIG y el modelo Orientado a Objetos más
adecuado para la modelización.
De los seis modelos planteados, el modelo raster y el vectorial Arco-Nodo son los más utilizados
y los que se van a tratar a continuación en detalle. El debate acerca de la conveniencia de uno
28

u otro modelo ha dado lugar a una abundante bibliografía, la decisión entre un modelo u otro
debe, en todo caso, basarse en el tipo de estudio o enfoque que se quiera hacer, pero también
del software y fuentes de datos disponibles.
Para la representación de los objetos resulta más eficiente la utilización de un formato vecto-
rial. Sin embargo en el caso de los polígonos el modelo raster tiene la ventaja de facilitar la
respuesta a preguntas acerca de posiciones geográficas concretas. Las superficies se representan
más eficientemente en formato raster y sólo pueden representarse en formato vectorial medi-
ante los modelos híbridos (mallas de puntos, TIN e isolineas) que no resultan eficientes para la
realización de posteriores análisis.

2.2.1 El modelo raster


El modelo ráster divide el área de estudio en una agrupación de celdas cuadradas ordenadas
en una secuencia específica. Cada una de estas celdas recibe un único valor que se considera
representativo para toda la superficie abarcada por la celda, por tanto se considera que el modelo
ráster cubre la totalidad del espacio. Este hecho supone una ventaja fundamental respecto a las
otras tres alternativas ya que pueden obtenese valores de forma inmediata para cualquier punto
del espacio. Un conjunto de celdas, junto con sus valores se denomina una capa ráster.

Aspectos espaciales

Sin embargo una capa ráster tal como se codifica en un ordenador es simplemente una lista
de números sin ninguna georreferenciación explícita. Se necesita, por tanto, cierta información
sobre esta matriz que permita al programa y al usuario ubicarla en el espacio, leer sus valores y
entender su significado. Esta información incluye:

• Número de columnas (nc )


• Número de filas (nf )
• Coordenadas de las esquinas de la capa (e, w, s, n)
• Resolución o tamaño de pixel en latitud (nsres) o en longitud (ewres)

Hay una serie de convenciones acerca de la forma de representación. Así la primera columna en
una capa ráster es la de la izquierda, mientras que la primera fila será la superior aumentando
hacia abajo, en sentido contrario al que siguen las coordenadas geográficas y las representa-
ciones en un modelo vectorial. Todo ello da lugar a una serie de relaciones entre las variables
que definen la situación espacial de las celdas:
29

El múmero de celdas es nc nf .
Normalmente nsres y ewres son constantes y van a tener el mismo valor. En algunos casos no
es así, por ejemplo en el caso de imágenes de satélite de baja resolución que se ven afectadas
por la curvatura de la Tierra.
Las ecuaciones para obtener las coordenadas del centro de cada celda partiendo de su número
de columna y de fila son:

X = w + (c + 0.5) ∗ ewres (2.1)


Y = s + (nf − f + 0.5) ∗ nsres (2.2)

A la inversa pueden obtenerse el número de columna y de fila a partir de los valores de X e Y:

c = int(X − w)/ewres (2.3)


f = nf − (int(Y − s)/nsres) (2.4)

Estas dos últimas ecuaciones asumen además la convención de que la primera fila y la primera
columna son la fila 0 y la columna 0.
En relación con la visualización de mapas ráster en la pantalla de un ordenador, se requiere
solventar dos cuestiones básicas:

• La correspondencia entre pixeles del mapa y pixeles de pantalla y como se ve afectada


por las herramientas de zoom

• La relación que hay que establecer entre valores y colores y la creación de una leyenda.

2.2.2 El modelo vectorial


La estructura vectorial define objetos geométricos (puntos, lineas y polígonos) mediante la cod-
ificación explícita de sus coordenadas. Este formato resulta especialmente adecuado para la
representación de objetos geométricos reales (carreteras, ríos, polígonos de usos del suelo). Los
mapas de isolineas no son realmente mapas de objetos lineales sino tan sólo una representación
de una variable regionalizada. Mientras que la estructura raster codifica de forma explícita el
interior de los objetos e implícitamente el exterior, el formato vectorial codifica explícitamente
la frontera de los polígonos e implícitamente el interior, aunque en ambos casos lo realmente
importante es el interior. Esto significa que resulta fácil saber lo que hay en cada punto del
30

territorio en un formato raster pero no en un formato vectorial. Este hecho implica que los
algorítmos utilizados para las operaciones de álgebra de mapas son competamente diferentes.
En general las operaciones son más difíciles y exigen mayor tiempo de computación para el
formato vectorial.
Existen dos sub-modelos lógicos dentro del formato vectorial:

1. el modelo arco-nodo, es el formato utilizado por Arcinfo hasta la versión 8. Adecuado


cuando los recursos informáticos son escasos para la tareas que se quiere ejecutar, sin
embargo ralentiza o imposibilita algunas operaciones de análisis espacial. Cada linea se
codifica una sola vez y los polígonos se construyen mediante la yuxtaposición de lineas

2. el modelo orientado a objetos, aparece en Arcinfo 8. Algunos programas viejos de análi-


sis espacial lo tenían ya.Cada polígono se codifica como una linea cerrada, aunque se
repitan tramos de las lineas.

En el formato vectorial, además de codificar la posición de los objetos, necesitamos establecer


las relaciones topológicas entre los mismos, especialmente en lo que se refiere a los mapas de
polígonos. El término topología hace referencia, en la jerga de los SIG vectoriales, a una serie
de propiedades que permiten que se reestablezcan las relaciones entre los diferentes objetos
para originar entidades de orden superior. Aunque los requisitos topológicos varían en función
de la implementación digital, básicamente son:

1. Los nodos de dos lineas en contacto deben tener las mismas coordenadas.

2. Un poligono se define, en el modelo arco-nodo, como un circuito perfecto de lineas que


puede recorrerse entero empezando y terminando en el mismo punto sin pasar dos veces
por la misma linea.

3. Existe un sólo identificador para cada objeto y este no se repite.

4. Se dispone de algún modo de codificar los polígonos isla. Se traa de los polígonos com-
pletamente rodeados por otro polígono

Finalmente hay que tener en cuenta la necesidad de incorporar la información espacial o no es-
pacial no extraible directamente de la localización. Para ello se utiliza una base de datos temática
asociada en las que una de las columnas corresponde al identificador de los objetos representa-
dos. En algunos casos se incluye información derivada de la localización (área, perímetro) en
esta tabla para utilizarla en operaciones matemáticas junto con el resto de las variables. A este
modo de trabajo se le llama modelo geo-relacional (figura 1.4).
31

Uno de los problemas del formato vectorial es que el paso del modelo lógico al digital puede
llevarse a cabo de modos muy diversos que dependen del programa con que se trabaje. El
resultado es un gran número de problemas en la importación y exportación de mapas de unos
modelos digitales a otros. Cuanto más completo sea el mapa (incluyendo topología y base de
datos enlazadas) más difícil será el cambio de formato.

2.2.3 Ventajas y desventajas del modelo raster respecto al vectorial


Las ventajas del modelo ráster incluyen la simplicidad, la velocidad en la ejecución de los oper-
adores y que es el modelo de datos que utilizan las imágenes de satélite o los modelos digitales
de terreno. Entre las desventajas del modelo ráster destaca su inexactitud que depende de la
resolución de los datos y la gran cantidad de espacio que requiere para el almacenamiento de
los datos. Este último problema puede compensarse mediante diversos sistemas de compresión.
Además en muchos casos la precisión en las coordenadas del modelo vectorial es más teórica
que real.
Resulta sin embargo evidente que el modelo vectorial resulta ineficiente para representar vari-
ables continuas como isolíneas, ya que todas las operaciones que permite el modelo ráster resul-
tarían terriblemente lentas y en la práctica imposibles de desarrollar. En general, cualquier tipo
de modelización física de procesos naturales que se base en Sistemas de Información Geográfica
requiere una modelo de datos de tipo ráster.
Existe una tendencia a compaginar ambos modelos facilitada por el aumento en la capacidad
de los ordenadores. Se trata de representar los diferentes fenómenos espaciales con el modelo
de datos más apropiado en cada caso. En líneas generales se pueden codificar las formas en
un modelo vectorial y los procesos con un modelo ráster, para ello se requieren herramientas
eficaces de paso de un formato al otro. Resulta sencillo, finalmente, la visualización simultánea
de datos en los dos formatos gracias a la capacidad gráfica actual.

2.2.4 Escala y modelos lógicos de datos


El concepto tradicional de escala en cuanto relación entre dos longitudes, no tiene sentido en
un SIG. Las herramientas de zoom de cualquier SIG permiten un cambio en la escala de repre-
sentación en la pantalla o en una salida impresa, sin embargo este cambio de escala de repre-
sentación no implica una cambio en la escala de los datos.
En general podemos asumir que la escala de un SIG es la de los mapas que se han utilizado
como información de entrada (en realidad la del mapa con escala inferior si se han utilizado
varias). Sin embargo no toda la información de entrada procede de mapas (conjuntos de puntos
de muestreo, imágenes de satélite, etc.).
32

En SIG podemos sustituir el concepto de escala por otro concepto, algo difuso, que es el de
precisión espacial de los datos. En el caso del formato raster la precisión se relaciona claramente
con el tamaño de las celdillas. Si hacemos un zoom excesivo aparecerán los bordes de estas
como advertencia de que la profundidad del zoom es excesiva, en el caso del formato vectorial
no tenemos este mecanismo de advertencia y en muchos casos se fuerzan los zoom para obtener
una precisión completamente ilusoria.

En el caso de los mapas de puntos, la resolución se relaciona con la distancia media entre los
puntos.

2.3 Modelos de datos y sistemas de codificación. Los modelos


digitales

Cada uno de los modelos lógicos puede implementarse de diferentes formas dando lugar a es-
tructuras de datos (formatos de ficheros) diferentes y por tanto incompatibles entre diferentes
programas. Los formatos de ficheros pueden ser públicos (con lo cual resulta más sencillo de-
sarrollar herramientas de importación-exportación) o privados (con lo que para implementar
herramientas I/O habría que pagar derechos).

Cuando se codifica información espacial se distingue entre información (los datos crudos) y
metainformación (información necesaria para ubicarlos en el espacio e interpretarlos). A con-
tinuación se presenta como ejemplo los formatos de ficheros que utiliza GRASS para almacenar
información espacial.

Los modelos lógicos que utiliza GRASS son el raster y el vectorial (Arco-Nodo), Este último
puede utilizarse para implementar modelos TIN o de isolineas. Incluye un tercer formato lla-
mado lista de puntos (site_list) para datos puntuales y que puede utilizarse para implementar
mallas de puntos.

En la figura 2.4 aparece un esquema de la estructura de directorios de una base de datos en


GRASS. Para mayor información sobre lo que son locations y mapsets ver El sentido de la
location y los mapsets en la práctica 1.

La figura 2.4 muesta como los distintos directorios conteniendo información y metainformación
cuelgan de un directorio que representa el mapset (espacio de trabajo) del usuario. Cada capa de
información esta compuesta por diversos ficheros (todos con el mismo nombre) almacenados
en diferentes directorios.
33

Figura 2.4: Estructura de directorios de una base de datos en GRASS


34

2.3.1 Modelo raster

• Los datos en crudo, es decir los números que contienen las diferentes celdillas se almace-
nan en un fichero contenido en el directorio /cell (formato binario)

• La información necesaria para leer y ubicar espacialmente los datos contenidos en el


fichero anterior se almacenan en un fichero en el directorio /cellhd (formato ASCII).

• En el directorio /cats se guarda información acerca de lo que significan los números


contenidos en el primer fichero. Es imprescindible para variables cualitativas (formato
ASCII).

• El fichero que cuelga del directorio /colr guarda información acerca de la paleta de colores
que se va a utilizar para representar el mapa (formato ASCII).

• Los directorios /fcell, /g3dcell o /cell_misc contienen información menos relevante o


demasiado compleja para abordarla aquí.

2.3.2 Modelo vectorial

• En el directorio /dig se almacenan los ficheros que contienen los datos vectoriales crudos,
es decir coordenadas que definen objetos puntuales, lineales, o poligonales (formato bi-
nario).

• En el directorio /dig_att se almacenan los ficheros que contienen los identificadores de


los objetos definidos anteriormente (formato ASCII).

• En /dig_cats se almacenan ficheros similares a los de /cats en el modelo raster. Es decir se


hacen corresponder categorías numéricas o alfanuméricas a los identificadores definidos
anteriormente (formato ASCII).

• En /dig_plus Se guardan ficheros que contienen una versión compacta, en un sólo fichero,
de la información definida en los ficheros almacenados en cada uno de los tres directorios
anteriores. Se genera con el comando v.support y es necesaria para cualquier tipo de
consula o análisis sobre los datos (formato binario).

• Finalmente en /dig_ascii se almacenan copias en formato ASCII de los ficheros que se


guardan en dig. Facilitan la importación y exportación de ficheros (formato binario).
35

2.3.3 ASCII y binario


Cada uno de los modelos conceptuales puede implementarse en formato ASCII o binario, que
son los dos formatioos básicos de codificación de información en un ordenador. La forma nat-
ural, desde el punto de vista de la máquina, es almacenar la información en formato binario; y
la forma natural para el usuario es hacerlo en formato ASCII. Ambos sistemas utilizan el byte
como unidad mínima de información capaz de almacenar 256 valores diferentes (normalmente
números entre 0 y 255).
El formato ASCII (American Standard Code for Information Interchange) se basa en un sistema
de codificación que asigna a cada carácter alfanumérico (A-Z, a-z, 0-9) o de control (retorno
de carro, paso de línea, etc.) un valor entre 0 y 255. Cuando almacenamos un número en este
formato lo que se hace es utilizar un byte para almacenar cada una de los dígitos que lo compo-
nen (incluyendo un byte para el punto en los decimales) más algún carácter de separación entre
números (espacio, coma, retorno de carro). En la figura 2.5 aparece el carácter que correspon-
dende a cada uno de los 256 valores.
Por ejemplo el número 274.96 utilizaría 6 bytes [50][55][52][46][57][54] y la palabra SIG 3
[83][73][71].
En el formato binario se establece en primer lugar el número de bytes que van a hacer falta para
almacenar una variable. Esto incluye saber cual será el valor mínimo, máximo y la precisión de
los decimales en caso de valores no enteros. Si en un byte pueden almacenarse 256 valores dis-
tintos, el número de valores que pueden almacenarse en n bytes se obtiene como 256n . De este
modo en el formato raster, todas las celdillas ocuparán el mismo número de bytes. En GRASS
el número de bytes necesarios para almacenar la información se establece automáticamente.
La codificación ASCII tiene la ventaja fundamental de que puede leerse con cualquier editor o
procesador de textos o con la orden type de MS-DOS o cat de Unix. Proporciona a los usuar-
ios menos avezados una sensación de seguridad, que en algunos casos está fundamentada. Sin
embargo tiene tres desventajas fundamentales:

• Los ficheros ASCII son mucho más largos (de dos a cuatro veces mayores) lo que es
especialmente relevante para el tipo de ficheros (muy grandes) que suelen manejarse en
un SIG.

• Es mucho más lento, primero por ser más largo y segundo porque el ordenador debe
transformar la cadena de dígitos que ha leído en un número.

• En el modelo raster, el formato binario permite acceso directo a los datos ya que, puesto
que todos los datos de un fichero tienen el mismo tamaño en bytes, podemos saber en que
punto del fichero se encuentra un determinado dato con sólo conocer su fila y columna.
36

Figura 2.5: Codigo ASCII


37

El formato ASCII solo permite acceso secuencial, uno por uno, ya que no todos los datos
tienen el mismo tamaño en bytes y hay que buscarlo en el fichero.

2.4 Bibliografía
Gatrell,A.C. (1991) “Concepts of space and geographical data” en Maguire, D.J.; Goodchild,
M.F. and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and Applications.
John Wiley & sons pp. 119-134 (www.wiley.co.uk/wileychi/gis/resources.html)
Moolenar, M. (1998) An introduction to the theory of Spatial Object Modelling for GIS, Taylor
& Francis, Londres, 246 pp.
38
Tema 3

Sistemas de proyección.
Georreferenciación

3.1 Conceptos de Geodesia


Geodesia es la ciencia que estudia la forma y tamaño de la Tierra y las posiciones sobre la
misma. El principal problema que debe resolverse es que la Tierra es un cuerpo geométrico
irregular denominado geoide que puede definirse como una superficie equipotencial en cuanto
a la gravedad, en la que todos sus puntos experimentan la misma atracción debido a la gravedad
siendo esta atracción equivalente a la experimentada al nivel del mar. Debido a las alteraciones
introducidas por la isostasia, esta superficie no es regular sino que contiene ondulaciones que
alteran los cálculos de localizaciones y distancias.
Debido a estas irregularidades suelen utilizarse modelos de la forma de la Tierra denominados
esferoides o elipsoides de referencia. Se trata de una esfera achatada por los polos resultado
de la revolución de una elipse. El achatamiento del esferoide se define mediante un coeficiente
como:
f = (a − b)/a
donde a y b son las longitudes del eje mayor y menor resectivamente. El achatamiento real es
aproximadamente de 1/300. Alterando los valores de estos coeficientes se obtienen diferentes
esferoides. La razón de tener diferentes esferoides es que cada uno se ajusta especialmente bien
a la forma del geoide en diferentes partes de la Tierra. El conjunto de:

1. un elipsoide

2. un punto llamado "Fundamental" en el que el elipsoide y la tierra son tangentes

39
40

Figura 3.1: Esferoide

3. un azimuth o dirección de referencia que define el Norte

4. la distancia entre geoide y elipsoide en el origen

define un datum.
Establecer cual es el datum de un sistema de coordenadas es tarea de los servicios nacionales de
geodesia. En España, el datum utilizado tradicionalmente en cartografía, tanto en los mapas del
Servicio Geográfico del Ejercito (SGE) como en los del Instituto Geográfico Nacional (IGN),
es el Europeo. Este puede ser el de 1950 si el mapa esta "formado" (información que se obtiene
en la letra pequeña del margen del mapa) antes o durante 1979 o el europeo de 1979, si el mapa
esta formado después de este año. Ambos datum tienen como elipsoide el de Hayford, también
llamado Internacional de 1924, y como punto fundamental Postdam (Gran Bretaña).
El elipsoide de Hayford se define por los parámetros:

• a=6378388

• b=6356911.946

• Aplanamiento=1:297

El sistema de coordenadas natural de un esferoide es el de latitud y longitud que suele denom-


inarse de coordenadas geográficas. Para definir latitud y longitud, debemos identificar el eje
de rotación terrestre. El plano perpendicular al eje de rotación que corta la tierra atravesándola
por su centro define el Ecuador en su intersección con el esferoide. El resto de posibles planos
41

perpendiculares definen los diferentes paralelos o lineas de latitud constante. Finalmente, los
diferentes planos que cortan el esferoide siendo paralelos al eje de rotación y perpendiculares al
Ecuador definen los meridianos o lineas de longitud constante. La longitud y latitud se miden
en grados sexagesimales, aunque ha habido intentos por introducir sistemas diferentes.

3.2 Transformaciones cartográficas


El proceso de transformar coordenadas geográficas (que suponen un cuerpo esférico) a coorde-
nadas planas para representarlo en dos dimensiones se conoce como proyección y es el campo
de estudio tradicional de la ciencia cartográfica. La repentina aparición de los SIG y la posibili-
dad de combinar información de diferentes mapas con diferentes proyecciones ha incrementado
la relevancia de la cartografía.
Básicamente, la proyección consiste en establecer una ecuación que a cada par de coordenadas
geográficas le asigne un par de coordenadas planas

x = f (lat, long) (3.1)


y = f (lat, long) (3.2)

Una proyección implica siempre una distorsión en la superficie representada, el objetivo de la


cartografía es minimizar estas distorsiones utilizando la técnica de proyección más adecuada a
a cada caso. Las propiedades del elipsoide que pueden mantenerse son:

• Conformidad. Si un mapa mantiene los ángulos que dos líneas forman en la superficie
terrestre, se dice que la proyección es conforme. El requerimiento para que haya con-
formidad es que en el mapa los meridianos y los paralelos se corten en ángulo recto y que
la escala sea la misma en todas las direcciones alrededor de un punto, sea el punto que
sea.

• Equivalencia, es la condición por la cual una superficie en el plano de proyección tiene la


misma superficie que en la esfera. La equivalencia no es posible sin deformar consider-
ablemente los ángulos originales. Por lo tanto, ninguna proyección puede ser equivalente
y conforme a la vez.

• Equidistancia, cuando una proyección mantiene las distancias reales entre dos puntos
situados sobre la superficie del Globo (representada por el arco de Círculo Máximo que
las une).
42

Figura 3.2: Tipos de proyecciones

Otra forma de clasificar las proyecciones es con referencia a la figura geométrica que genera
el plano bidimensional. Se habla entondces de proyecciones cilíndricas, cónicas y azimutales o
planas. En estos casos las distorsiones son nulas en la linea donde la figura corta al elipsoide y
aumentan con la distancia a esta. Para minimizar el error medio suelen utilizarse planos secantes
en lugar de planos tangentes.
El resultado es un plano en el que la Tierra, o una parte de la Tierra se representan mediante
un sistema de coordenadas cartesiano. El más conocido de todos y utilizado en España es la
proyección UTM. En la que la Tierra se divide en 60 husos con una anchura de 6 grados de
longitud. Las distorsiones son nulas en los lados y aumentan hacia el meridiano central (es
por tanto una proyección secante), especialmente cuando se incremente la latitud. Por tanto
la proyección UTM no debe usarse en latitudes altas y suele reemplazarse por proyecciones
azimutales polares. El meridiano central tiene siempre un valor X= 500.000 metros y en el
Ecuador Y=0 metros

3.2.1 Georreferenciación
El concepto de georreferenciación hace referencia a la asignación, a cada punto de la superficie
terrestre, de un par de coordenadas dentro de un sistema de coordenadas homogeneo. El prob-
lema de la proyección sería por tanto un caso particular de georreferenciación. Los problemas
habituales que deberán resolverse en un SIG son:

• Cambio de sistemas de coordenadas. Implica deshacer una proyección para obtener otra
vez coordenadas geográficas para posteriormente obtener coordenadas planas mediante
otra proyección.
43

Figura 3.3: Cilindro generador de la proyección UTM

Figura 3.4: Zonas UTM


44

• Pasar coordenadas planas no estandard a un sistema de proyección. Implica generar nues-


tras propias ecuaciones de proyección mediante un procedimiento estadístico de regresión
múltiple que incluye la toma de puntos de control. Este procedimiento es el que se utiliza
para georreferenciar imágenes de satélite o cuando se georreferencia un mapa en papel
previamente escaneado.

En este último caso, las correcciones necesarias para restaurar a cada punto de la imagen sus
coordenadas reales se basan en ecuaciones polinómicas que permiten modificar de forma flex-
ible las coordenadas de la imagen. El orden del polinomio determina la flexibilidad del ajuste
y de la tranfomación, normalmente se emplean transformaciones de tipo lineal (polinomio de
grado 1), cuadrático (polinomio de grado 2) o cúbico (polinomio de grado 3).Los casos más
habituales son la transformación lineal y cuadrática:

X = A + Bc + Df (3.3)
Y = E + Gc + Hf (3.4)
X = A + Bc + Df + Ec2 + If 2 + Jcf (3.5)
Y = E + Gc + Hf + Kc2 + Lf 2 + M cf (3.6)
(3.7)

la transformación cúbica es más compleja, las ecuaciones son similares a las lineales y cuadráti-
cas pero inclyendo términos elevados al cubo.
Empleando el procedimiento de los mínimos cuadrados, se pueden calcular los valores de los
coeficientes A,B,..., N, a partir de las coordenadas de un conjunto de puntos de control. Como
regla general, el número de puntos de control debería ser mayor que el número de parámetros
que se van a calcular, 6 en la transformación lineal, 12 en la cuadrática y 24 en la cúbica.
Es importante determinar cual es el tipo de transformación más adecuada en función del tipo de
distorsiones que se supone que aparecen en la imagen y de la cantidad y calidad de los puntos
de control. Es necesario tener en cuenta que cuanto mayor sea el grado de los polinomios im-
plicados, más sensible será la transformación a errores en la selección de los puntos de control.
La transformación lineal es la más sencilla, se asume que no hay distorsión en la imagen y
simplemente se requiere una traslación (coeficientes A y E), cambio de escala (coeficientes B y
H) y rotación de la imagen (coeficientes D y G).
Por tanto si el origen de coordenadas de la imagen original es (c=0,f=0) y asumimos que la
rotación es despreciable (hemos colocado bien el mapa en el scanner) entonces:

• A=valor de X en el punto en el que c=0


45

Figura 3.5: Corrección geométrica mediante transformación lineal


46

• E=valor de Y en el punto en el que f=0

• B y H factores de escala

• D=E=0

max(X) − min(X)
B= (3.8)
max(c) − min(c)
max(Y ) − min(Y )
H= (3.9)
max(f ) − min(f )

Casi todos los programas de SIG disponen de algún procedimientos para realizar este tipo de
transformación de coordenadas. En general se basan en una serie de etapas básicas:

1. Se busca una serie de puntos de control (generalmente lugares muy destacados y visibles)
y se averiguan las coordenadas de cada uno de ellos en los dos sistemas de coordenadas,
(X,Y) y (c,f). En el caso de los mapas escaneados, X e Y aparecen en la imagen con lo
que el procedimiento es más simple.

2. Determinación del tipo de transformación más adecuada en función del tipo de datos de
partida y del número de puntos de control que hayan podido encontrarse.

3. Mediante mínimos cuadrados se obtienen los valores de los coeficientes de regresión a,


b, c, d, e y f. Estos coeficientes así calculados permiten realizar una modificación del
sistema de coordenadas con el mínimo grado de error.

4. Se aplican las ecuaciones anteriores, con los valores calculados de los coeficientes, a todas
las coordenadas iniciales para obtener así sus nuevos valores en el sistema de referencia
final.

5. Transferencia la información de los pixels originales a los pixels resultantes del proceso
de transformación ya que con estas funciones de transformación va a crearse una nueva
matriz correctamente posicionada, pero vacia y posiblemente rotada (figura 3.5.b ). El
problema resulta más complejo de lo que pudiera pensarse a primera vista. Idealmente,
cada pixel de la capa transformada debería corresponderse a un solo pixel en la original.
Lo normal, sin embargo, es que el pixel de la nueva imagen se sitúe entre varios de la
original, incluso puede variar el tamaño de los pixels.
El trasvase de valores de la capa original a la transformada puede abordarse por tres méto-
dos dependiendo de la complejidad de la transformación realizada y del tipo de datos.
47

• Método del vecino más próximo. Sitúa en cada pixel de la imagen corregida el valor
del pixel más cercano en la imagen original. Esta es la solución más rápida y la que
supone menor transformación de los valores originales. Su principal inconveniente
radica en la distorsión que introduce en rasgos lineales de la imagen. Es la más
adecuada en caso de variables cualitativas, pero no en teledetección.
• Interpolación bilineal, supone promediar los valores de los cuatro pixels más cer-
canos en la capa original. Este promedio se pondera según la distancia del pixel
original al corregido, de este modo tienen una mayor influencia aquellos pixels más
cercanos en la capa inicial. Reduce el efecto de distorsión en rasgos lineales pero
difumina los contrastes espaciales.
• En la Convolución cúbica, se considera los valores de los 16 pixels más próximos.
El efecto visual es mas correcto en caso de que se trabaje con imágenes de satélite o
fotografías digitalizadas, sin embargo supone un volumen de cálculo mucho mayor.

Las etapas 3, 4 y 5 suelen llevarse a cabo automáticamente.

3.3 Bibliografía
Maling,D.H. (1991) “Coordinate systems and map projections for GIS” en Maguire, D.J.;
Goodchild, M.F. and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and
Applications. John Wiley & sons pp. 135-146 (www.wiley.co.uk/wileychi/gis/resources.html)

• http://www.gva.es/icv/GLOSARIO.HTM

• http://www.uco.es/ bb1rofra/documentos/proyecciones/proyecciones.html

• http://www.uco.es/ bb1rofra/documentos/utm/coordenadas_utm.html

• http://www.lsgi.polyu.edu.hk/cyber-class/geodesy/

• http://nivel.euitto.upm.es/ mab/tematica/htmls/proyecciones.html

• http://www.lsgi.polyu.edu.hk/cyber-class/geodesy/

• http://www.uco.es/ bb1rofra/documentos/proyecciones
48
Tema 4

Formato raster. Algebra de mapas.

Las operaciones que permiten obtener nuevas capas de información raster a partir de informa-
ción previa pueden dividirse en técnicas de interpolación (que se verán en el siguiente tema) y
herramientas de álgebra de mapas.
El álgebra de mapas incluye un amplio conjunto de operadores aritméticos y lógicos que se
realizan sobre una oa varias capas raster de entrada para producir una capa raster de salida. Por
operador se entiende un algoritmo que realiza una misma operación en todas las celdillas de una
capa raster. Estos operadores se definen mediante ecuaciones, por ejemplo el operador B = A ∗
100 genera una nueva capa (B) asignando a cada celdilla el valor de la celdilla correspondiente
multiplicado por 100. (figura 4.2). Se trata de operaciones entre capas raster completas, cada
una de ellas es una matriz de números y la operación se realiza para todos los números de la
matriz, para todas las celdillas de la capa raster.
Pueden definirse infinitos operadores, aunque normalmente se clasifican en función de las
celdillas implicadas en el cálculo en:

• Operadores locales
• Operadores de vecindad
• Operadores de area
• Operadores de area extendida

Pusto que los operadores de álgebra de mapas toman una o varias capas de entrada y producen
una capa de salida (figura 4.1), el análisis SIG puede concebirse como una especie de mecano
lógico mediante el cual diferentes piezas (operadores) se ensamblan formando análisis comple-
jos que, en definitiva, consituyen nuevos macrooperadores.

49
50

Figura 4.1: Esquema de agrupación de operadores


51

4.0.1 Operadores locales


Los operadores locales generan una nueva capa a partir de una o más capas previamente exis-
tentes. Cada celdilla de la nueva capa recibe un valor que es función de los valores de esa mismo
celdilla en las demás capas.

Zmx,y = f (Z1x,y , Z2x,y , .., Znx,y ) (4.1)

la función representada por f () puede ser aritmética, lógica o una combinación de ambas. El
caso más simple de operador local es la reclasificación o cálculo del nuevo valor a partir del
valor de la misma celdilla en otra capa:

Zmx,y = f (Z1x,y ) (4.2)

Sin embargo se admiten casos más complejos utilizando varias capas basados en el álgebra de
mapas. Un buen ejemplo sería la estimación de la erosión potencial mediante el modelo de la
USLE E=R x K x S x L x C x P:

Ex,y = Rx,y ∗ Kx,y ∗ Lx,y ∗ Sx,y ∗ Cx,y ∗ Px,y ) (4.3)

4.1 Operadores de vecindad


Los operadores de vecindad adjudican a cada celdilla un valor que es función de los valores de
un conjunto de celdillas contiguas, en una o varias capas. Los ejemplos más habituales son el
filtrado de imágenes y el cálculo de pendiente y orientación a partir de un Modelo Digital de
Terreno.
El filtrado (figura 4.5 de imágenes actúa moviendo una ventana, generalmente de 3x3 celdas,
por toda la capa que recorre la capa entera. Esta ventana adjudica al celdilla central la media
ponderada de los valores en las 9 celdillas que abarca la ventana. A partir de diferentes coefi-
cientes de ponderación se consiguen diferentes resultados.
La siguiente ecuación calcularía la media aritmética.

Zmx,y = (Z1x−1,y−1 +Z1x−1,y +Z1x−1,y+1 +Z1x,y−1 ++Z1x,y +Z1x,y+1 +Z1x+1,y−1 +Z1x+1,y +Z1x+1,y+1 )/9
(4.4)
52

Figura 4.2: Operador local aritmético

Figura 4.3: Operador local lógico


53

Figura 4.4: Operador de vecindad, filtro de la media

La pendiente (figura ??) se puede estimar con diferentes procedimientos, los más habituales
utilizan la máxima diferencia entre el valor en el celdilla central y los valores de los celdillas
vecinos, o bien calculan una pendiente media. En algunos casos, celdillas correspondientes a
cauces en aplicaciones de tipo hidrológico, puede ser preferible considerar la pendiente en el
sentido del flujo. La orientación puede obtenerse como orientación media o como la dirección
hacia la que se sitúa la mayor pendiente.

4.2 Operadores de vecindad extendida


Son aquellos que afectan a zonas relativamente extensas que cumplen determinado criterio pero
cuya localización precisa no se conoce previamente. Por tanto el operador (programa) debe
determinar previamente cual es el área que cumple dichas características. Entre los casos más
habituales están:

1. Areas situadas a una distancia, inferior a un valor umbral, de un objeto definido por una
o varias celdillas. Se genera así una zona tampón (buffer). El resultado sería una capa en
la que se codificaría de un modo el objeto de otro modo el área tampón y de un tercero el
área exterior al tampon (figura 4.7.
54

Figura 4.5: Operador de vecindad, filtro de la media

2. Cuencas de drenaje. Dado un celdilla, incluye todos los pixels que drenan a este. Se trata
de un operador fundamental en el desarrollo de modelos hidrológicos.

3. Cuencas visuales. Determina el area visible desde un determinado punto e igualmente el


area desde la que dicho punto es visible.

4.3 Operadores de área


Son aquellos que calculan algún parámetro (superficie, perímetro, índices de forma, distancias,
estadísticos) para una zona previamente conocida. Puede tratarse de diferentes niveles de una
variable cualitativa (superficies con diferente litología por ejemplo) o digitalizada e introducida
por el usuario.

4.4 Errores
Toda operación de álgebra de mapas implica la estimación de una variable a partir de otras, por
tanto implica la existencia de errores.
Los errores pueden proceder de las fuentes u originarse en el proceso de digitalización y poste-
rior procesado de los datos. Además los errores pueden propagarse y aumentar al llevar a cabo
55

Figura 4.6: Operador de distancias

Figura 4.7: Altitud media por áreas


56

operaciones con los datos. Sería deseable que las fuentes de los datos informaran acerca de los
errores esperables en los datos.
La digitalización supone errores en la localización de los objetos digitalizados. Un error de
digitalización de un milímetro en un mapa 1:50.000 supone un error de 50 metros que se añade
al propio error de partida del mapa.
Algunos de los operadores previamente tratados tienen capacidad para propagar y multiplicar
la magnitud de los errores. Si una pendiente tiene un error de + − 5% y elevamos al cuadrado
un valor de 20, el resultado estará entre 225 y 625 con lo que la indeterminación aumenta de
forma considerable.

4.5 Utilización de operadores en diferentes SIG


Los primeros programas de SIG desarrollaron módulos para los operadores más comunes. Con
el tiempo se fueron desarrollando módulos de propósito general que permitían establecer oper-
adores locales simples, operaciones matemáticas entre mapas o con un sólo mapa; mientras que
los operadores de vecindad o área más comunes seguían realizándose en módulos aparte.
Las últimas versiones de los SIG más avanzados como GRASS disponen de un módulo que es
prácticamente un lenguaje de programación que permite realizar operaciones locales, de vecin-
dad, de vecindad extendida o de área. Los operadores de vecindad extendida más complejos
(cuencas de drenaje o cuencas visuales) siguen realizándose en módulos aparte ya que son difí-
ciles de programar y siguen unos esquemas muy poco flexibles que siempre se van a programar
igual.
En el Departamento de Geografía de la Universidad e Utrech se ha desarrollado PCRaster. Se
trata de un SIG relativamente barato que es exclusivamente un interprete de un lenguaje de álge-
bra de mapas muy potente que incluye operadores de vecindad extendida muy potentes y fáciles
de programar. Se utiliza fundamentalmente en estudios de tipo hidrológico y geomorfológico.
Tema 5

Interpolación a partir de mapas de puntos


e isolineas.

El proceso de interpolación espacial consiste en la estimación de los valores que alcanza una
variable Z en un conjunto de puntos definidos por un par de coordenadas (X,Y), partiendo de los
que adopta Z en una muestra de puntos situados en el mismo área de estudio, la estimación de
valores fuera del área de estudio se denomina extrapolación. En algunos casos pueden utilizarse
otras variables de apoyo V a la interpolación/extrapolación. El área de estudio vendría definida,
aunque no de forma muy clara, por el entorno de los puntos en los que si se dispone de datos.
La interpolación espacial suele utilizarse para obtener mapas de variables. Lo más habitual es
partir de medidas puntuales (variables climáticas, variables del suelo) o de isolineas (curvas de
nivel), los métodos que se utilizan en uno u otro caso son bastante diferentes. Todos los métodos
de interpolación se basan en la presunción lógica de que cuanto más cercanos esten dos puntos
sobre la superficie terrestre más se parecerán, y por tanto los valores de cualquier variable
cuantitativa que midamos en ellos serán más próximo, para expresarlo más técnicamente, las
variables espaciales muestran autocorrelación espacial.

5.1 Diseño muestral para interpolación a partir de puntos


Se parte de un conjunto de puntos de muestreo en los que se ha medido la variable que se quiere
interpolar, constituyen una muestra. En relación con la localización de estos puntos de muestreo
pueden darse diversas situaciones atendiendo a dos factores:

1. Si podemos o no decidir su ubicación

57
58

2. Si podemos aumentar el tamaño muestral (número de puntos) una vez hecho el muestreo

Por ejemplo, la interpolación de variables climáticas representa el peor de los casos ya que,
normalmente, la localización de los puntos de muestreo (estaciones meteorológicas) se decidió
hace tiempo y resulta claramente imposible aumentar su número para mejorar la interpolación
(aunque podría aumentarse el número para obtener mejores mapas en el futuro).
En el caso de un muestreo de campo de variables del suelo, podemos decidir donde medir y,
en función de los resultados, volver a muestrear en otros puntos, aumentando así, el tamaño
muestral.
Suponiendo que tenemos la posibilidad (y la responsabilidad) de hacer nuestro propio diseño
de muestreo, para ello nos debemos basar en el conocimiento previo que tengamos acerca de la
estructura de variación de la variable a interpolar. Los modelos básicos que podremos utilizar
(o incluso combinar) son los siguientes:

1. Muestreo regular
2. Muestreo aleatorio
3. Muestreo estratificado
4. Muestreo por agregados

Los dos primeros son los más adecuados cuando no conocemos nada acerca de la estructura de
variación. El muestreo regular puede dar problemas si la variable presenta un comportamiento
rítmico, el aleatorio por su parte puede dejar areas extensas sin muestras. Una solución de
compromiso sería un muestreo aleatorio estratificado en el que el espacio a muestrear se divide
en bloques que serán muestreados con un punto cuya ubicación dentro del bloque es aleatoria.
El muestreo estratificado es útil cuando tenemos una variable de apoyo, fácil de medir u ob-
servar, que sabemos que influye sobre la variable a interpolar, por ejemplo el tipo de suelo o la
topografía van a condicionar el contenido en sales. Un muestreo estratificado dividiría el área
de estudio en función de estas variables de apoyo para muestrear todos los posibles valores que
aparezcan. Si la variable de apoyo es cualitativa la división se hace mediante polígonos y si es
cuantitativa mediante un muestreo por transectos o isolineas.
Finalmente el muestreo por agregados se utiliza cuando el objetivo del muestreo no es tanto re-
alizar un mapa como conocer la estructura de variabilidad de la variable ya que permite analizar
la misma a diferentes escalas.
Finalmente, para seleccionar el método de interpolación y las variables de apoyo hay que tener
en cuenta además la escala del trabajo ya que los factores que expliquen la distribución es-
pacial de una misma variable pueden cambiar con la escala. Por ejemplo, a media escala las
59

propiedades del suelo variarán fundamentalmente en función de la roca; pero a escala de detalle
lo harán en relación con la topografía.

5.2 Métodos de interpolación a partir de puntos


Los diferentes métodos de interpolación desarrollados pueden dividirse en dos tipos fundamen-
tales:

1. Métodos globales, utilizan toda la muestra para estimar el valor en cada punto de esti-
mación.

2. Métodos locales, utilizan solo los puntos de muestreo más cercanos.

5.2.1 Métodos globales


Los métodos globales asumen la dependencia de la variable a interpolar de otras variables de
apoyo. Pueden darse dos situaciones:

1. Métodos de clasificación. La variable de apoyo es cualitativa (usos del suelo, tipos de


suelo o roca, etc). En este caso se asume que la variable adopta en cada punto el valor
medio correspondiente al valor de la variable de apoyo en ese punto. Por ejemplo se asigna
a todos los puntos situados sobre litosoles el valor de salinidad medio de los litosololes

2. Métodos de regresión. La variable o variables de apoyo son cuantitativas, con lo que la


estimación se apoya en un modelo de regresión en el que se toman las variables de apoyo
como variables independendientes y la variable a interpolar como variable dependiente.

Los métodos de clasificación se basan en una serie de premisas que no se cumplen necesaria-
mente:

1. Las variaciones de Z dentro de las diferentes clases de V son aleatorias y no autocorrela-


cionadas espacialmente.

2. Z está normalmente distribuida en cada clase y su media y varianza es la misma en todas


las manchas de una misma clase.

3. Los cambios en la variable Z en las fronteras entre clases se producen de forma brusca.
60

Figura 5.1:

Los métodos de regresión implican, como su nombre indica, un análisis de regresión previo
a partir del cual se genera un modelo de interpolación de tipo polinómico. Generalmente se
utilizan X e Y como variables de apoyo ya que no necesitan de ninguna medición, y también
alguna variable cuantitativa V espacialemente distribuida que se correlaciona de alguna forma
con ellas, un ejemplo habitual es la altitud, y otras variables topográficas derivadas, por su
facilidad de medida su evidente relación con casi todos los procesos ambientales y por las
posibilidades que un SIG ofrece en cuanto al tratamiento de la elevación e información derivada
(MDT).

El problema de los métodos globales es que sólo consiguen modelizar una componente a escala
global de la estructura de variación, pero no las componentes a escala más detallada. De hecho
no resulta recomendable utilizar polonómios de grado mayor que 3 ya que, a pesar de un ajuste
cada vez mejor, se hacen cada vez más sensibles a los valores extremos. Por tanto se utilizan
para filtrar esa componente global y eliminarla de los valores medidos para, posteriormente,
estimar tan sólo la componente local mediante métodos locales.
61

5.2.2 Métodos locales


Los métodos locales se basan en la utilización de los puntos más cercanos al punto de interpo-
lación para estimar la variable Z en este. Asumen autocorrelación espacial y estiman los valores
de Z como una media ponderada de los valores de un conjunto de puntos de muestreo cercanos.
Exigen tomar una serie de decisiones:

1. Cuales son los criterios para decidir que puntos cercanos van a formar parte del conjunto
de interpolación
2. Cual será el método de interpolación

Evidentemente los puntos que formen parte del conjunto de interpolación serán los más cer-
canos al punto de interpolación, es necesario decidir cual es la distancia máxima a partir de la
cual no incluiremos más puntos y el número de puntos mínimo para llevar a cabo la interpo-
lación con garantías. Tradicionalmente se ha hecho a ojo, sin embaergo la función semivari-
ograma, herramienta fundamental de la geoestadística, puede constituir un método objetivo.
Se trata de una función de la distancia entre dos puntos que hace corresponder a cada distancia
un medio de la media de las diferencias al cuadrado de los puntos situados a esa distancia. Si se
representa gráficamente esta función obtenemos un semivariograma experimental.
Pnh
i=1 (Zi,1 − Zi,2 )2
γ(h) =
2nh
donde nh es el número de pares de puntos situados a una distancia h, Zi,1 y Zi,2 los valores de
Z en los dos puntos (situados a una distancia h) que constituyen el par i.
Un semivariograma experimental tiene diversas propiedades:

• k (pepita) = Varianza en el origen. Resulta del componente aleatorio no correlacionado


espacialmente que experimenta cualquier variable espacial.
• s (meseta) = Valor máximo que adota el semivariograma para distancias elevadas más allá
de las cuales no hay autocorrelación espacial.
• r (rango) = Distancia a la que se alcanza la meseta. Puede asimilarse a la distancia más
allá de la cual no deben incluirse puntos en el conjunto de interpolación.

Resulta evidente que el conjunto de interpolación debería incluir a aquellos puntos con dato
situados a una distincia menor que el rango del punto en erl que queremos interpolar.
Respecto al criterio de interpolación existen varias posibilidades:
62

1. Método del vecino más próximo

2. Media sin ponderación de los valores del conjunto de interpolación

3. Media ponderada de los valores del conjunto de interpolación

4. Krigeado (geoestadística)

5. Splines,ajustes locales de funciones polinómicas.

El método del vecino más próximo es el que se utilizaba cuando no había ordenadores, consiste
simplemente en asignar a cada punto el valor de Z del observatorio más cercano.
La media sin ponderación es similar al anterior, ahora se utilizan N puntos y se calcula la media
Sin embargo es lógico pensar que cuanto más apartados esten dos puntos más diferentes serán
sus valores de Z. Para tener en cuenta este hecho se utilizan medias ponderadas utilizando
como factor de ponderación funciones del inverso de la distancia. El criterio de ponderación
más habital es el inverso de la distancia elevado al cuadrado.
El método del krigeado calcula unos coeficientes de ponderación (función de la distancia) a par-
tir de los resultados obtenidos con la función semivariograma. Es bastante complejo matemáti-
camente y muy exigente en cuanto a la calidad de la muestra de puntos y la variable que se
interpola. Si esta no es adecuada son preferibles los modelos de medias ponderadas que son los
más utilizados tradicionalmente debido a la sencillez de su manejo y a su robustez. Además hay
que tener en cuenta que normalmente la función semivariograma se calcula globalmente sin que
se hayan hecho demasiados estudios sobre su variación espacial.
El método de los splines ajusta funciones polinómicas (como en una interpolación global me-
diante regresión) pero ahora localmente, en general producen resultados muy buenos con la
ventaja de poder modificar una serie de parámetros en función del tipo de topografía.
La técnica més habitual es calcular en primer lugar una superficie de tendencia y con los resid-
uales de la misma utilizar algún método de interpolación local.

5.3 Validación cruzada


Para verificar la calidad de un mapa interpolado debe utilizarse un conjunto de validación for-
mado por una serie de puntos de muestreo, que no se han utilizado para realizar la interpolación,
en los que se estiman los valores previamente medidos. La diferencia entre el valor medido y
el estimado es el error de estimación en ese punto. De este modo a cada punto de validación se
asigna un error. El conjunto de los errores debe tener las siguientes características:
63

Figura 5.2:

Figura 5.3:
64

1. Media de errores y media de errores al cuadrado próxima a cero

2. Los valores de error deben ser independientes de su localización en el espacio y no estar


autocorrelacionados

3. La función de distribución de los errores debe aproximarse a la distribución normal

No siempre es posible ni conveniente disponer de un conjunto de validación independiente


de los puntos de muestreo utilizados para interpolar. Por ello suele utilizarse la técnica de la
validación cruzada en la que se estiman los valores en los puntos de muestreo (excluyendolos
del conjunto de interpolación)
Se utiliza para comprobar los resultados de un procedimiento de interpolación. Consiste en la
estimación de los valores de Z en todos los puntos en los que se conoce a priori el resultado y el
error cometido. La media de los errores cometidos en los diferentes puntos es un buen indicador
del error medio global.

5.4 Interpolación a partir de curvas de nivel


La interpolación a partir de puntos resulta necesaria cuando, a priori, no se conoce nada acerca
de la distribución espacial de la variable y es necesario medirla en una serie de puntos de mue-
stro a partir de los que estimar sus valores en toda el área de trabajo. En el caso de la topografía,
si contamos con un mapa topográfico, el caso es algo diferente ya que lo que vamos a tener no
son puntos sino isolineas derivadas del análisis de pares de fotogramas estereoscópicos.
El procedimiento va a ser en primer lugar digitalizar las curvas de nivel y en segundo lugar
utilizar alguno de los programas que interpolan a partir de curvas. En general el fundamento de
todos estos métodos consiste en hacer interpolaciones lineales o más complejas entre curva y
curva. Los algoritmos que utilizan IDSRISI o GRASS son bastante simples pero tiene una serie
de problemas a tener en cuenta. Estos problemas se derivan directamente del tipo de algoritmo,
que pueden ser resueltos con algo de esfuerzo adicional.
El proceso de interpolación a partir de curvas de nivel consta de las siguientes fases:

1. Digitalización (en tableta digitalizadora o en pantalla)

2. Rasterización del vectorial (cuando sea necesario)

3. Interpolación

4. Análisis de errores
65

Existen tres problemas fundamentales que pueden dar lugar a errores y que a veces no son
fáciles de corregir:

1. Las curvas deben estar cerradas y deben cortar los límites de la capa raster creada

2. Si se rasterizan las curvas, no deben superponerse ya que en la práctica equivale a que


algunas curvas no se cierren.

3. Las curvas de nivel rasterizadas mantienen su valor con lo que el MDE adquiere un as-
pecto abancalado

4. Tanto en GRASS (hasta la versión 4.3) como en IDRISI, el resultado es un MDE con val-
ores enteros por lo que en las zonas llanas se puede producir un abancalamiento artificial
si las unidades en que se mide la altitud no pemiten una relación equidistancia de curvas
de nivel/número de pixels entre curvas de nivel adecuado.

El primer problema se soluciona en la fase de digitalización y no supone mayor complicación


El segundo resulta el más insidioso. Una solución sería retocar a mano las curvas de nivel ras-
terizadas pero además de muy trabajoso supone desplazar curvas arbitrariamente. Otra solución
más adecuada sería generar MDE de áreas especialmente abruptas con tamaños de pixel más
pequeños. Estos MDE pueden después degradarse al tamaño de pixel adecuado y superpon-
erse al original Respecto al tercero, en el manual de IDRISI se recomienda utilizar un filtro de
paso bajo (media aritmética) pero esto supone aplicar la solución a todo el MDE en lugar de
sólo a los pixels problemáticos. La solución será utilizar la capa de curvas de nivel rasterizadas
y mantener los valores filtrados de esta. Finalmente, el último de los problemas se soluciona
cambiando la unidad en que se expresan las altitudes (de metros a centímetros por ejemplo).

5.5 Módulos de interpolación en GRASS


En GRASS existen diversos módulos para hacer interpolación. Todos ellos incluyen la palabra
surf y dependiedo del tipo de datos de entrada que utilicen podrán ser r.surf., v.surf. o s.surf..
Los más utilizados son:

1. A partir de ficheros de sitios:

(a) s.surf.idw (Media ponderada por inverso de la distancia)


(b) s.surf.krig (krigeado)
(c) s.surf.rst (splines)
66

Figura 5.4: Curvas de nivel en formato vectorial

Figura 5.5: Curvas de nivel rasterizadas con tamaño de pixel demasiado grande
67

Figura 5.6: Curvas de nivel rasterizadas con tamaño de pixel adecuado

Figura 5.7: Curvas de nivel rasterizadas con equidistancia demasiado pequeña


68

Figura 5.8: MDE resultante

Figura 5.9: Mapa de pendientes resultante


69

Figura 5.10: MDE obtenido multiplicando por 10 la altitud de las curvas de nivel

Figura 5.11: Mapa de pendientes resultante


70

2. A partir de curvas de nivel rasterizadas

(a) r.surf.contour (isolineas)

3. A partir de puntos rasterizados

(a) r.surf.idw (Media Ponderada por inverso de la distancia)


(b) r.surf.idw2 (Media ponderada por inverso de la distancia al cuadrado)

4. A partir de curvas de nivel en vectorial

(a) v.surf.rst (splines)

Los más recomendables son r.surf.contour y sobre todo v.surf.rst.


Existen otros módulos similares que permiten generar superficies artificiales para utilizar en
simulación:

1. r.surf.fractal (Superficie fractal)

2. r.surf.gauss (Mapa de valores normales con media 0 y desviación típica 1)

3. r.surf.random (Superficie aleatoria)


Tema 6

El Modelo Digital de Terreno.

Uno de los elementos básicos de cualquier representación digital de la superficie terrestre son
los Modelos Digitales de Terreno. Se denomina así al conjunto de mapas que representan dis-
tintas características de la superficie terrestre. Algunas definiciones limitan estas a las que se
derivan de un mapa de elevaciones (Modelo Digital de Elevaciones) mientras que otras incluyen
prácticamente cualquier variable reginalizada.
Siguiendo la primera de estas aproximaciones se va a considerar al mapa de elevaciones (MDE)
como la pieza clave de un MDT y por tanto aquella que va a requerir más atención en su
obtención.

6.1 MDE
Debido a que una de las aplicaciones más extenidas de los MDE es la visualización tridimen-
sional del relieve, los modelos TIN (red irregular de triángulos) han sido ampliamente utiliza-
dos. Sin embargo cuando el objetivo es el análisis de la superficie terrestre es preferible la
utilización del modelo raster.
Existen diversos métodos para construir un MDE:

• Métodos directos

– Altimetría, altímetros transportados por plataformas aéreas o satélites


– GPS, sistema global de localización mediante satélites, que permite estimaciones
suficientemente precisas de latitud, longitud y altitud de un punto.
– Radargrametría, interferometría de imágenes radar

71
72

– Topografía, estaciones topográficas realizadas en el campo mediante dispositivos


que permiten la grabación de datos

• Métodos indirectos

– Restitución (a) fuente digital (imágenes de satélite), (b) fuente analógica (fotografía
aérea)
– Digitalización de curvas de nivel de un mapa mediante escáner o tablero digital-
izador.

El método de generación de MDE más habitual y económico es la digitalización de curvas de


nivel. En el tema anterior se vieron algunas técnicas para obtener buenos MDE a partir de curvas
de nivel digitalizadas.

6.2 Validación de un Modelo Digital de Elevaciones. Detec-


ción y corrección de errores
Al igual que con cualquier otra variable espacial interpolada, es necesario validar un MDE tras
su estimación, su calidad dependerá del tipo y magnitud de los errores cometidos. La apari-
ción de errores es inevitable ya que se trata de un modelo, por tanto inherentemente impreciso,
aunque su representación puede realizarse con más o menos exactitud, dentro de rangos depen-
dientes del método de captación de datos utilizado.
En el caso de las elevaciones una buena validación requiere algo más de atención ya que:

1. Constituye la información de partida para diversos análisis posteriores

2. Resulta muy sencillo obtener información de gran riqueza para la validación

3. Los procedimientos de interpolación a partir de curvas de nivel pueden generar artefactos,


se trata de "geoformas" artificiales que afectan dramáticamente la calidad del DEM.

6.2.1 Tipos de errores en los MDE


Pueden ser separados en dos categorías:
Los errores posicionales implican una mala localización geográfica de la cota o la curva de
nivel y afectan, por tanto, a la situación en el plano XY. Generalmente se deben al propio
73

proceso de digitalización, a la incorrecta situación del cursor sobre el tablero en el momento de


introducir el punto. Puede ser un error aleatorio, generalmente por cansancio, o el denominado
error de generalización por el que se tienden a simplificar las formas que se digitalizan.
Estos errores introducen una cierta incertidumbre en cuanto a la localización de las lineas. Son
difíciles de evitar y detectar a posteriori, como normas generales es preferible digitalizar sobre
mapas escaneados y evitar sesiones de trabajo largas.
Los errores atributivos suponen una asignación imprecisa de la altitud asociada a la cota o a
la curva e implican a las coordenadas en el eje Z. Generalmente van a ser de carácter aleatorio
y fácilmente detectables en los mapas derivados del MDE.
Ambos tipos de errores aparecen en el proceso de creación de los MDE, tanto si se hace de forma
automática como manual. Por este motivo, es necesario adoptar criterios para su detección y
medida, así como valorar la influencia de los mismos en los modelos derivados (propagación
del error).

6.2.2 Test para la validación de un mapa de elevaciones


Un análisis visual del modelo permitirá una evaluación global de la calidad del mismo, especial-
mente si se trata de un DEM con alta resolución. Puede compararse una visualización 3D del
modelo con una fotografía (o directamente en el campo) y tratar de descubrir puntos erroneos.
La visualización de mapas derivados (pendiente y orientación) resultan muy útiles para detectar
errores atributivos en las curvas de nivel digitalizadas.
Posteriormente debe hacerse un análisis estadístico del MDE, un simple histograma de las
elevaciones permitirá descubrir anomalías no detectables con la simple visualización, como
el que los valores de las curvas de nivel aparezcan con excesiva frecuencia.
A continuación puede hacerse un análisis local de errores. Se trata de calcular el error cometido
en diversos puntos cuya altitud se ha medido en el campo y hacer un análisis estadístico de los
mismos. En este sentido, el error de altitud en un punto x, y se define como la diferencia entre
la altitud real y la estimada:

x,y = Ẑx,y − Zx,y (6.1)

Las propiedades deseables de los errores de un MDE son:

• media y varianza próximas a cero

• independencia espacial,
74

• no autocorrelación.

Un estadístico válido como aproximación global es el error cuadrático medio que se define
como:

v
u n 2
uX
u
u x,y
t i=1
¯ = (6.2)
N

donde N es el tamaño muestral.


Un análisis local sólo permite determinar la precisión en la estimación de Z en los puntos de
muestreo, sin embargo un buen MDE debe conservar las relaciones entre las celdillas vecinas de
manera que no haya alteraciones significativas en las variables obtenidas a través de operadores
de vecindad, por tanto debe hacerse un análisis de errores en los mapas derivados.
En relación con el anterior punto, un análisis de transectos permitirá verificar la aparición de
artefactos a lo largo de las pendientes.
El análisis de la consistencia hidrológica permite extender el análisis de transectos a dos di-
mensiones. La idea básica es que un MDE debe tener la misma respuesta hidrológica que el
terreno que modeliza. Un buen ejemplo de este tipo de análisis sería verificar si se puede recon-
struir correctamente la red de drenaje. En general un MDE va a generar pozos artificiales que
dificultan la modelización hidrológica.

6.3 Obtención de variables derivadas

A partir de diversos procedimientos de álgebra de mapas pueden obtenerse nuevas variables


topográficas:

Pendiente

La pendiente en un punto del terreno se define como el ángulo existente entre el vector normal
a la superficie en ese punto y la vertical. Su estimación es sencilla a partir del MDE y se basa
en el cálculo de la pendiente de un plano de ajuste en cada punto o celda del modelo.
75

Figura 6.1: Mapa de pendientes (v.surf.rts)


76

Figura 6.2: Mapa de orientaciones (v.surf.rts)

Orientación

La orientación en un punto puede definirse como el ángulo existente entre el vector que señala
el Norte y la proyección sobre el plano horizontal del vector normal a la superficie en ese punto.
Como en el caso de la pendiente, el valor de orientación se estima directamente a partir del
MDE.

Curvatura

Tasa de cambio en la pendiente, depende de las derivadas de segundo grado de la altitud, es


decir, de los cambios de pendiente en el entorno del punto. La curvatura tiene especial interés
como variable influyente en fenómenos como la escorrentía superficial, canalización de aludes,
erosión y flujos en general.
77

6.4 Aplicaciones de los MDT

6.4.1 Apoyo en análisis estadísticos


Las variables incluidas en un MDT son factores de gran importancia en un gran número de
procesos ambientales (precipitación, insolación-temperatura, flujos hídricos, erosión, distribu-
ción de hábitats, etc.) por tanto van a ser un elemento clave a la hora de estimar otras variables
mediante procedimientos de interpolación global por regresión.

6.4.2 Modelos climáticos


La topografía es el principal factor local que limita la energía solar incidente sobre la superficie
terrestre. La variedad de altitudes, pendientes y orientaciones crean fuertes contrastes locales
que afectan directa e indirectamente a procesos biológicos y físicos. Algunos de estos factores
son modelizables con los MDT.

• Sombras para una determinada posición del sol


• Angulo de incidencia del sol

La existencia de zonas de sombra es una variable de gran interés en regiones montañosas, donde
el relieve puede ser el factor determinante más importante del clima local. Se define la insolación
potencial en un punto como el tiempo máximo que ese lugar puede estar sometido a la radiación
solar directa en ausencia de nubosidad. La insolación potencial depende directamente del ángulo
de incidencia del sol respecto a la superficie terrestre y del ocultamiento topográfico ante una
trayectoria concreta del Sol.
La insolación potencial se expresa en unidades energía partido por espacio y se refiere a un
instante concreto. Puede, sin embargo, integrarse para períodos de tiempo mayores de tiempo
mayores.
La relación entre cada celda y la superficie de referencia se realiza mediante un índice de ex-
posición definido como el cociente entre la radiación solar incidente sobre un lugar del terreno
y la superficie de referencia. El cálculo de los índices de exposición nos da un parámetro cuan-
titativo útil a la hora de comparar las condiciones ambientales en una zona determinada ya que
representan una medida objetiva de las diferencias dentro del área del modelo basada exclusi-
vamente en criterios geométricos.
El ángulo solar resulta además de utilidad en aplicaciones relacionadas con la teledetección
(corrección por iluminación y cálculo de reflectividades).En cuanto a la radiación recibida se
utiliza en:
78

Figura 6.3: Insolación recibida el 17 de Enero a las 10:00 AM hora solar (r.sun)
79

1. Modelos de estimación de variables climáticas (temperatura, evapotranspiración)


2. Modelos de distribución potencial de especies animales o vegetales

6.4.3 Modelos hidrológicos


La superficie terrestre constituye la base sobre la que tienen lugar, y que por tanto condiciona,
gran parte de los procesos de transferencia de materia y energía que tienen lugar sobre la super-
ficie terrestre.
La disponibilidad de un modelo de dicha superficie permite simular estos procesos, con lo que
se consigue experimentar independientemente del sistema real. La simulación permite obviar
los riesgos inherentes a la experimentación, alcanzar una completa independencia temporal,
repetir el experimento el un número de veces arbitrario.
Las características topográficas de una ladera determinan las pautas por las cuales el agua circula
sobre ella. El modelo digital de elevaciones contiene información suficiente para definir, al
menos en una primera aproximación, las propiedades de la red de drenaje superficial y, por
extensión, de la cuenca hidrológica.
Se denomina línea de flujo al trayecto que, a partir de un punto inicial, seguiría la escorrentía
superficial sobre el terreno
Las líneas de flujo siguen la línea de máxima pendiente por lo que pueden deducirse del mod-
elo digital de pendientes con las únicas limitaciones que las derivadas de la calidad del MDE
original.
A partir del trazado de las líneas de flujo es posible definir la red hidrológica, el área subsidiaria
de una celda y, por extensión, las cuencas hidrológicas: Se define el área subsidiaria de una celda
como el conjunto de celdas cuyas líneas de flujo convergen en ella; una cuenca hidrológica está
formada por el área subsidiaria de una celda singular, que actúa como sumidero
La magnitud del área subsidiaria de una celda del MDE está directamente relacionada con
el caudal máximo potencial, CMP, en el mismo. En efecto, el caudal que puede circular en
un momento dado en un punto del terreno depende, entre otros factores, de la magnitud del
área subsidiaria, de las precipitaciones sobre ella y de la pendiente de la zona, que permite la
circulación con menor o mayor rapidez. En función de estos parámetros es posible simular el
CMP en un modelo digital del terreno.
La modelización hidrológica basada en modelos digitales de terreno pretende estimar los cau-
dales generados en una cuenca a partir de sus características topográficas así como las areas in-
undables en función de la altura esperable de las láminas de agua. Evidentemente, es necesario
compaginar los resultados obtenidos a partir de los modelos de elevaciones con estimaciones de
la capacidad de infiltración de los suelos o la estimación de precipitaciones máximas esperables.
80

Figura 6.4: MDE (v.surf.rts)

6.4.4 Modelos de visibilidad

Los modelos de visibilidad establecen el area que se puede ver desde un punto y, por tanto, el
area desde la que puede verse ese punto. El primer caso puede ser útil para el diseño de redes
de control (de incendios forestales por ejemplo), el segundo como criterio a la hora de ubicar
infraestructuras desagradables (vertederos).

Dos puntos serán mutuamente visibles si la linea recta que los une tiene siempre una altitud
superior a la del terreno. La cuenca visual de un punto base sería entonces el conjunto de puntos
de un MDE que son mutuamente visibles con dicho punto base.

El análisis de cuencas visuales puede utilizarse para la evaluación del impacto visual de actua-
ciones con efectos negativos sobre el paisaje. Es posible construir un modelo de visibilidad,
donde cada punto tiene asignado un valor proporcional a la extensión de su cuenca visual. Un
modelo de este tipo puede servir de base objetiva para la toma de decisiones ya que permite
conocer y comparar con fiabilidad la incidencia visual de las alternativas existentes.
81

Figura 6.5: Trayectoria del agua a partir de un punto (r.drain)


82

Figura 6.6: Obtención de cuencas y redes de drenaje (r.watershed)


83

Figura 6.7: Visión 3D de cuencas de drenaje

6.4.5 Como construir un MDT


En primer lugar se necesita una muestra de valores que nos permita interpolar el MDE, esta
muestra puede consistir en:

1. Un conjunto de puntos con altitud medida sobre el terreno (GPS o estación topográfica)
2. Curvas de nivel digitalizadas de un mapa
3. Restitución a partir de fotografía aerea o imágenes de satélite, es un procedimiento caro
y dificultoso

Los procedimientos de interpolación a partir de puntos o isolineas pueden consultarse en el


tema 5.

6.4.6 Prácticas
Visualiza el histograma de elevaciones Calcula el mapa de pendientes y orientaciones Obtén y
visualiza transectos con d.profile Compara el mapa de cauces generado artificialmente del MDE
(r.watershed) con el que obtendrías tu de las curvas de nivel. Donde observas los fallos?
84

Figura 6.8: Mapa de pendientes (r.surf.contour)


Tema 7

Teledetección

7.1 Fundamentos de la teledetección

Teledetección es la técnica que permite obtener información a distancia de objetos sin que
exista un contacto material. Para que esta observación sea posible es necesario que, aunque sin
contacto material, exista algún tipo de interacción entre los objetos situados sobre la superficie
terrestre y un sensor situado en una plataforma (satélite, avión, etc.).
En este caso la interacción va a ser un flujo de radiación que parte de los objetos y se dirige
hacia el sensor (figura 7.1). Este flujo puede ser, en cuanto a su origen, de tres tipos:

• Radiación solar reflejada por los objetos(luz visible e infrarrojo reflejado)

• Radiación terrestre emitida por los objetos (infrarrojo térmico)

• Radiación emitida por el sensor y reflejada por los objetos (radar)

Las técnicas basadas en los dos primeros tipos se conocen como teledetección pasiva y la última
como teledetección activa.
La radiación (solar reflejada, terrestre o emitida por el sensor y reflejada) que llega de la su-
perficie terrestre y que ha atravesado la atmósfera, es almacenada en formato digital. Una vez
recuperados los datos en el centro de control del satélite, permitirán obtener información acerca
de la superficie terrestre y de la atmósfera. El tipo de información que se obtiene dependerá de
la longitud de onda en la que el sensor capte radiación.

85
86

7.1.1 Naturaleza de la radiación

La radiación se propaga mediante ondas que se desplazan por el espacio a la velocidad de


la luz. Estas ondas presentan longitudes muy diferentes en función de las características del
emisor (figura 7.1). Aparecen desde los rayos X y gamma con longitudes de onda menores de
100 Amstrongs hasta las ondas de televisión y rádio con longitudes mayores de un metro.
El conjunto de todas las longitudes de onda se denomina espectro electromagnético. Dentro del
espectro electromagnético se distinguen una serie de regiones, las más utilizadas por las difer-
entes técnicas de teledetección son la luz visible, el infrarrojo reflejado, el infrarrojo térmico y
las microondas (radar).

Figura 7.1: Espectro electromagnético y técnicas de teledetección

Cualquier objeto en la naturaleza emite radiación y lo hace con diferentes longitudes de onda.
La cantidad de energía que emite un cuerpo por radiación como la distribución de esta energía
en diferentes longitudes de onda depende fundamentalmente de la temperatura de dicho cuerpo.
A mayor temperatura menor longitud de onda. La cantidad de energía emitida es proporcional
a la cuarta potencia de la temperatura
87

La temperatura del Sol es de aproximadamente 6000o K mientras que la de la Tierra es de


300o K. Esto significa que la radiación solar va a ser máxima para una longitud de onda de 0.48
m (región visible) y la terrestre máxima en una longitud de onda de 9.66 m (infrarrojo térmico).
Determinados fenómenos de la superficie terrestre (por ejemplo los incendios) implican una
temperatura mucho mayor (548.5 − 693.5o K) esto significa que el total de radiación emitida
va a ser mucho mayor y que el pico de emisión va a estar en longitudes de onda de 5.28 -
4.3 m, también en el infrarrojo térmico pero considerablemente diferentes a los valores que
corresponden a la temperatura normal de la Tierra.
Por tanto puede concluirse que la radiación solar domina aquellas regiones del espectro elec-
tromagnético que corresponden a la radiación visible y al infrarrojo reflejado. La radiación
terrestre domina el infrarrojo térmico, mientras que las radiaciones que corresponden al radar
no aparecen en la naturaleza, deben ser por tanto de origen artificial.

7.1.2 Interacciones entre la radiación y los objetos


Todos los objetos (independientemente de la radiación que emitan) van a recibir radiación,
fundamentalmente del sol, que, en función del tipo de objeto que estemos considerando, puede
seguir tres caminos:

• reflejarse (la radiación es reenviada de vuelta al espacio)

• absorberse (la radiación pasa a incrementar la energía del objeto)

• transmitirse (la radiación se transmite hacia abajo a otros objetos).

La fracción de energía que se refleja se denomina reflectividad o albedo (ρ ); la fracción de


energía que se absorbe se denomina absortividad (α ); la fracción de energía que se transmite
se denomina transmisividad (τ ) cumpliendose que ρ + τ + α = 1
La interacción de la radiación con la atmósfera y con los objetos terrestres, es decir los valores
de ρ, τ y α de un cuerpo concreto, va a depender de la longitud de onda de que se trate y de
las características de ese cuerpo. Unas primeras líneas generales acerca del comportamiento de
diferentes objetos respecto a su interacción con la radiación serían:

• Atmósfera despejada:

– ρ muy baja para todas las longitudes de onda


– α depende de la longitud de onda
88

– τ depende de la longitud de onda

• Nubes :

– ρ muy alta en el visible


– α depende de la longitud de onda
– τ depende de la longitud de onda

• Agua:

– ρ muy baja en todas las longitudes de onda


– α depende de la longitud de onda
– τ depende de la longitud de onda

• Superficie terrestre:

– ρ y α muy variable
– τ nulo

7.1.3 Interacción atmósfera-radiación electromagnética


Algunos de los gases que componen la atmósfera absorben radiación en determinadas longi-
tudes de onda. La radiación no absorbida se transmite a la superficie terrestre aunque se ve
afectada por procesos de dispersión y refracción. Los gases responsables de la absorcion son
fundamentalmente:

• Ozono: Absorbe radiación ultravioleta

• Dióxido de carbono: Absorbe radiación en 13 − 17.5µ;

• Vapor de agua: Absorbe radiación en 5.5 − 7µ y por encima de 27µ;

De este modo aparecen una serie de regiones en el espectro en las que la radiación es absorbida
por uno o varios de los gases. Esto deja, por otro lado, regiones del espectro en las que no se
produce absorción, son las denominadas ventanas atmosféricas.

• Visible e infrarrojo cercano (0.3 - 1.35 µ)

• Varias en el infrarrojo medio (1.5 - 1.8 µ; 2 - 2.4 µ; 2.9 - 4.2 µ; 4.5 -5.5 µ)
89

Figura 7.2: Bandas de absorción y ventanas en el espectro electromagnético

• Infrarrojo térmico (8 - 14 µ)

• Microondas, por encima de 20 µ la atmósfera es prácticamente transparente

Problema aparte supone la aparición de partículas líquidas (nubes, figura 7.3) o sólidas (figura
??) que reflejan gran parte de la radiación solar que reciben. La snubes emiten su propia ra-
diación en el infrarrojo térmico, diferente a la terrestre debido a su menor temperatura, con lo
que ocultan la superficie terrestre en ambas regiones del espectro. Debido a la saturación en
vapor de agua, su capcidad de absorber radiación en la banda de absorción del vapor de agua
dependerá de su espesor.
A la hora de diseñar un sensor, existen tres posibilidades fundamentales:

• Captar radiación solar reflejada por la superficie (en una longitud de onda correspondiente
a una ventana atmosférica)

• Captar radiación infrarroja procedente de la superficie terrestre o las nubes

• Captar radiación de una banda en la que un gas presente una elevada capacidad de absor-
ción para así estimar la concentración de este gas. Canto menos radiación llegue mayor
será la cantidad de gas.
90

Figura 7.3: Efecto de las nubes sobre las observaciones de satélite

Las bandas de Meteosat (figura 7.4) son un ejemplo de cada una de estas posibilidades.

Visible Infrarrojo térmico Vapor de agua

Figura 7.4: Imágenes de cada uno de los canales del satélite Meteosat

En general se considera que si el día es suficientemente despejado la absorción atmosférica


puede despreciarse en las ventanas. Dispersión y refracción son más difíciles de evitar, intro-
duciendo distorsiones que deben ser corregidas.
En todo caso, los problemas relacionados con la interacción de la atmósfera tienen mayor im-
portancia en estudios multitemporales. Si se trabaja con imágenes de una sola fecha se asume
que la distorsión atmosférica es equivalente en todo el espacio (al menos en las imágenes de
alta resolución).
91

7.1.4 Interacción de los elementos de la superficie terrestre con la ra-


diación

De cara a la identificación de objetos y procesos en la superficie terrestre, lo que nos interesa


es la reflectividad de estos objetos respecto a las diferentes longitudes de onda. Cada tipo de
material, suelo, vegetación, agua, etc. reflejará la radiación incidente de forma distinta, lo que
permitirá distinguirlo de los demás si medimos la radiación reflejada. A partir de medidas de
laboratorio se ha obtenido la reflectividad para las distintas cubiertas en diferentes longitudes de
onda. El gráfico que, para cada longitud de onda, nos da la reflectividad en tanto por ciento se
conoce como signatura espectral (figura 7.5) y constituye una marca de identidad de los objetos.
Resulta así fácil por ejemplo distinguir entre suelo y vegetación, e incluso entre diferentes tipos
de suelo o diferentes tipos de vegetación.

Figura 7.5: Respuestas espectrales

La reflectividad en la nieve es alta en todas las longitudes de onda, especialmente en el caso de


la nieve fresca. El agua, al ser el único elemento superficial capaz de transmitir radiación hacia
abajo, tiene una reflectividad muy baja aunque muy dependiente de la longitud de onda. Absorbe
casi toda la radiación que le llega en las bandas del infrarrojo próximo y medio. La reflectividad
aumenta algo en el visible especialmente en las bandas del azul y el verde. La turbidez del agua
contribuye al aumento de la reflectividad en el verde y en el infrarrojo reflejado. La eutrofización
del agua aumenta su reflectividad en el verde.
La vegetación sana tiene una reflectividad baja en el visible aunque con un pico en el color
verde debido a la clorofila. La reflectividad es muy alta en el infrarrojo reflejado o próximo
debido a la escasa absorción de energía por parte de las plantas en esta banda. En el infrarrojo
medio hay una disminución especialmente importante en aquellas longitudes de onda en las que
el agua de la planta absorbe la energía.
92

Esta curva tan contrastada se debilita en el caso de la vegetación enferma en la que disminuye el
infrarrojo y aumenta la reflectividad en el rojo y azul. Se observa también que la reflectividad de
una planta depende de su contenido en agua. Cuando el contenido de agua aumenta disminuye
la reflectividad ya que aumenta la absorción de radiación por parte del agua contenida en la
planta.
Finalmente el suelo tiene una reflectividad relativamente baja para todas las bandas aunque
aumentando hacia el infrarrojo. La signatura espectral es más simple que en el caso de la veg-
etación. Sin embargo la reflectividad del suelo va a depender mucho de la composición química
y mineralógica, la textura (el albedo de las arenas es mayor que el de las arcillas), del contenido
de agua (a mayor humedad menor reflectividad) y de matería orgánica (también contribuye a
disminuir la reflectividad). Estos últimos factores están interrelacionados por lo que no es fácil
establecer cual es el responsable de los cambios del albedo.

7.2 Caracterización de las imágenes de satélite


Un sensor es el dispositivo que reúne la tecnología necesaria para captar imágenes a distancia.
Puede captar información para diferentes regiones del espectro y cada una de estas regiones se
denomina canal o banda.
Una imagen de satélite en estado bruto es un conjunto de imágenes (una por banda) similares a
las que se obtienen haciendo una fotografía digital. Los pixels están organizados en un sistema
de filas y columnas pero sin referencia a coordenadas reales.
Las diferentes bandas pueden caracterizarse en función de:

• Amplitud espectral (región del espectro para la cual capta datos)

• Resolución radiométrica (número de intervalos de intensidad que puede captar)

• Tamaño del área captada

• Resolución espacial (tamaño de pixel)

• Resolución temporal (tiempo que tarda el satélite en tomar dos imágenes del mismo sitito)

La altura a la que se sitúa el satélite y sus movimientos van a condicionar las características
geométricas y la resolución temporal de las imágenes que producen (figura 7.6).
Los satélites que como meteosat se sitúan en órbita geoestacionaria (36.000 Km) permanecen
fijos y producen una imagen que abarca la mayor parte de la porción del globo terrestre a la
93

que apuntan, sin embargo las distorsiones que aparecen hacia los polos limitan su utilización
a la porción entre 50o N y 50o S. El area de la superficie abarcada por cada pixel es necesari-
amente grande (2500 o 5000 metros dependiendo de las bandas) su resolución espacial es por
tanto pequeña. Al permanecer fijos su resolución temporal puede ser muy grande, en el caso de
Meteosat hay una imágen cada 30 minutos

Figura 7.6: Efecto de la altura del satélite sobre las imágenes

El problema de la correlación negativa entre resolución espacial y temporal se está solucionando


en parte debido a la existencia mejores sistemas de almacenamiento de datos y al desarrollo de
la teledetección aerotransportada, los sensores se colocan en aviones que vuelan a la altura
(resolución espacial) deseada en el momento que se requiera.
Al recibir la radiación procedente de la superficie terrestre, el sensor almacena un número en-
tero, se trata de un intervalo de intensidad o nivel digital a partir del cual se puede obtener de
nuevo la radiación recibida mediante ecuaciones sencillas. El número de niveles de intensidad
se denomina resolución radiométrica
94

Sensor Res.espacial Tamaño de imagen Res.temporal Res. Radiométrica


Meteosat 2500 m Toda la esfera 0.5 horas 256 ND
NOAA AVHRR 1100 m 2700 x 2700 Km 12 horas 1024 ND
Landsat TM 30 m 185x185 Km 16 días 256 ND
SPOT HRV 20 m 60x60 Km 20 días 256 ND
SPOT Vegetation 1150 m 2200x200 Km 1 día 1024 ND
MODIS 250 - 100 m 2330x2330 Km 1 1024 ND
Tabla 7.1: Características de los principales sensores utilizados en teledetección

El tratamiento de una imagen de satélite previo a su análisis incluye:

• Georreferenciación (paso de un sistema de filas y columnas a un sistema de coordenadas


estandard)
• Paso de nivel digital a radiación recibida
• Corrección atmosférica (para eliminar las interferencias producidas por la absorción, dis-
persión y refracción en la radiación recibida)
• Dependiendo de la región del espectro de que se trate:
– calculo de la reflectividad dividiendo la radiación recibida por el sensor entre la
radiación estimada en superficie (ventana atmosférica en el visible). A partir de la
reflectividad en diferentes bandas pueden obtenerse índices que se comporten como
indicadores de desertificación. Puede tabien clasificarse los distintos pixeles de la
imagen en función de sus valores de reflectividad en clases que se correspondan con
tipos de suelo, vegetación, etc. Ejemplos: Landsat, NOAA
– Estimación de la concentración del gas que absorbe la radiación en la región del
espectro manejada (zona de absorción): Ejemplos TOMS y Meteosat
– Estimación de la temperatura del cuerpo emisor utilizando la banda de infrarrojo
térmico. Casi todos los satélites recogen radiación en alguna región del infrarrojo
térmico.

7.3 Análisis de imágenes de satélite en un SIG


Una imagen de satélite en bruto, tal como normalmente llega al usuario final, consiste en un
conjunto de matrices, una por cada canal del sensor, en la que aparecen números del 0 al 255.
95

Banda a0 a1 E0
1 (Azul) -6.2 0.768 1970
2 (Verde) -6 0.818 1843
3 (Rojo) -4.5 0.64 1555
4 (Infrarrojo a) -4.5 0.635 1047
5 (Infrarrojo b) 1 0.128 227.1
6 (Infrarrojo térmico)
7 (Infrarrojo c) -0.35 0.0424 80
Tabla 7.2: Parámetros del sensor Landsat TM

El cero índica que no llega nada de radiación desde ese punto y el 255 que llega el valor más
alto de radiación. Estos valores se denominan Niveles Digitales y será necesario transformarlos
en algún tipo de variable física.
La primera transformación que se lleva a cabo es su conversión a valores de energía recogida
por el sensor. Normalmente a través de una ecuación lineal cuyos parámetros se suministran
junto con la imagen. En la tabla 2 aparecen los parámetros para las 6 bandas más utilizadas del
sensor LANDSAT -TM, junto con la irradiancia solar extraterrestre, cantidad de energía solar
que llega al límite de la atmósfera que se utiliza para calcular la reflectividad.
Las seis matrices pueden verse individualmente, asignando a cada valor un tono más claro u
oscuro, en niveles de gris o de algún otro color, o bien formando una combinación de colores.
Puesto que se trata de imágenes rectangulares formadas por pixeles resultan muy apropiadas
para su tratamiento visual o numérico con un programa adecuado. Los programas más idóneos
serían los de análisis de imagen para el tratamiento visual y los Sistemas de Información Ge-
ografía para el análisis numérico y para su combinación con otro tipo de información espacial.
Posteriores transformaciones implicarían:

• Corrección de las distorsiones que la atmósfera puede introducir en la imagen para obtener
la cantidad de energía reflejada por la superficie terrestre

• Cálculo de la cantidad de radión solar que llega a cada pixel del terreno desde el sol,
teniendo en cuenta el efecto de solana-umbría

• Obtención de los valores de reflectividad como la energía que procede de un pixel de la


superficie terrestre dividido por la energía solar que llega a ese mismo pixel

Una vez que se dispone de los valores de reflectividad los enfoques habituales en trabajos de
teledetección son:
96

• Visualización y composiciones de color

• Obtención de variables físicas a partir de los valores de reflectividad

• Clasificación de la imagen

7.4 Visualización y composiciones de color


Los comandos de visualización de GRASS estudiados con anterioridad permiten ver los mapas
de cada una de las bandas de una imagen de satélite por separado, es decir como una imagen en
blanco y negro.
Sin embargo, puesto que una imagen de satélite implica varios mapas (uno por banda), es nece-
sario decirle al programa cuales son los mapas que constituyen una imagen para, entre otras
cosas, poder ver varios a la vez. Para ello se crea un grupo de mapas con el comando i.group.
Este preguntará por el nombre del grupo que queremos crear/gestionar y a continuación nos
dará la oportunidad de indicar que mapas son lso que queremos incluir marcándolos con una X
en una lista de mapas.
Vamos a crear un grupo que contenga los mapas: b12cl, b22cl, b32cl, b42cl, b52cl, b62cl y
b72cl que corresponden con las 7 bandas de una imagen landsat.
GRASS dispone de una herramienta útil para visualizar composiciones de color, se trat del
comando i.colors que permite asignar cada una de las bandas de landsat a cada uno de los tres
canales de video del monitor (Rojo, Verde y Azul). De este modo podemos utilizar diversas
composiciones:

• Color real

– Banda 1 => Azul


– Banda 2 => Verde
– Banda 3 => Rojo

• Falso Color

– Banda 1 => Azul


– Banda 2 => Verde
– Banda 4 => Rojo

• Composición IGN
97

– Banda 1 => Azul


– Banda 4 => Verde
– Banda 3 => Rojo
• Composiciones para resaltar litología
– Banda 1 => Azul
– Banda 5 => Verde
– Banda 7 => Rojo

Si se obtiene una composición que se considera adecuada, podemos crear un nuevo mapa a
partir de ella con el comando i.composite. Este nos pide el grupo de mapas con el que queremos
trabajar, nos permite asignar un mapa a cada banda de color y a continuación pide el número de
niveles de color (cuanto más alto más detallada saldrá la imagen, 10 es un valor adecuado).

7.5 Obtención de variables físicas


Vamos a crear otro grupo con los mapas: albedo1, albedo2, albedo3, albedo4, albedo5 y albedo7.
Estos contienen la reflectividad obtenida despues e todo el proceso explicadoal comienzo de la
práctica.
Estos valores reflejan la capacidad de la superficie terrestre de reflejar radiación en dettermi-
nadas secciones del espectro. Esta capacidad depende lógicamente de una serie de parámetros
físicos. Uno de los objetivos de la teledetecición es precisamente la estimación de estos parámet-
ros físicos a partir de las reflectividades. Existen diversos procedimientos desarrollados. Uno de
los más habituales son los índices, por ejemplo el índice normalizado de vegetación (NDVI)
que se define como:

ρ4 − ρ3
N DV I = (7.1)
ρ4 + ρ3
siendo por tanto fácil de programar con r.mapcalc. Cómo?
Existen índices de vegetación más elaborados pero este tiene la ventaja de ser muy intuitivo ya
que se basa en el hecho de que la vegetación tiene una reflectividad muy alta en el infrarrojo
próximo (banda 4) y muy baja en el rojo (banda 3). Por tanto clos pixels con mayor densidad
de cubierta vegetal tendrán valores altos y los de suelo desnudo valores bajos.
Para visualizar adecuadamente el mapa de NDVI cambiale la paleta de colores a la ryg.
SE han desarrollado otros índices para relacionar los valores de reflectividad con otras variables
físicas como la humedad del suelo (transformación tasseled cap) o la litología.
98

7.6 Clasificación de imágenes


La elaboración de una clasificación del área de estudio en una serie de clases relativas a litología,
tipos de vegetación, usos del suelo, etc., es uno de los objetivos fundamentales en teledetección.
La clasificación en teledetección es un caso particular del problema general de clasificar N in-
dividuos en un conjunto de K clases en función de una serie de variables cuantitativas ( X1,
X2,...,Xn). Para resolver este problema se necesita una medida de la semejanza o diferencia
entre los diferentes individuos y entre los individuos y las clases. Dos individuos muy pareci-
dos pertenecerán con toda seguridad a la misma clase, mientras que dos individuos distintos
pertenecerán a diferentes clases. La medida más utilizada es la distancia euclidiana:
v
u n
(Xvi − Xvj)2
uX
2
di,j =t (7.2)
v=1

aunque pueden utilizarse otro tipo de distancias. Para estimar los valores de X1, X2,...,Xn para
las diferentes clases se utiliza la media aritmética de los valores de los pixels incluidos en la
clase.
Puesto que en la práctica no podemos saber con certeza a que clase corresponde cada uno de
los pixels, el problema de la clasificación se convierte en un problema de probabilidad de perte-
nencia a cada una de las clases de un conjunto, por tanto se suelen usar métodos estadísticos.
El procedimiento de clasificación supone dos fases:

• Definición de las clases

• Adjudicación de cada uno de los pixels del terreno a las clases previamente definidas

7.6.1 Definición de clases


Suponiendo que los datos han pasado ya todo tipo de correcciones de tipo geométrico o atmos-
férico, existen dos métodos complementarios para afrontar la definición de clases, estos son
válidos tanto en imágenes de satélite como en cualquier otro campo.

• Clasificación supervisada. Se parte de una serie de clases previamente definidas.

• Clasificación no supervisada. No se establece ninguna clase a priori, aunque es nece-


sario determinar el número de clases que queremos establecer, y dejar que las defina un
procedimiento automático.
99

En realidad suelen utilizarse ambos procedimientos ya que son complementarios. La clasifi-


cación supervisada utiliza nuestro conocimiento del terreno pero si este conocimiento no es
perfecto pueden escaparse cosas que una clasificación no supervisada detectaría.

7.6.2 Clasificación no supervisada


En la clasificación no supervisada se utilizan algoritmos matemáticos de clasificación automática.
Los más comunes son los algoritmos de clustering que divide el espacio de las variables en una
serie de regiones de manera que se minimice la variabilidad interna de los pixeles incluidos en
cada región. Cada región define de este modo una clase espectral.
El módulo de GRASS para hacer clasificación no supervisada es i.cluster Para utilizarlo es
necesario crear (con i.group dentro del grupo de mapas que defina la imagen un subgrupo con-
teniendo las bandas que vamosa incluir. Esto es así porque en algunas circunstancias podemos
tener en un grupo mapas que no queremos incluir en la clasificación. Vamos a utilizar para
clasificar los mapas de niveles digitales, en lugar de los de albedo, que ya habian sido reunidos
en un grupo.
Así i.cluster pregunta por el grupo y subgrupo de imágenes y una serie de parámetros que van
a afectar al conjunto de clases que se obtengan:

1. Número inicial de clases que van a discriminarse

2. Tamaño mínimo de una agrupación

3. Distancia mínima entre agrupaciones

4. Tanto por ciento de area cubierta por el conjunto de clases

5. Máximo número de iteraciones

6. Intervalo de muestreo en filas y columnas.

Finalmente creará un fichero de signaturas y, si lo pedimos un fichero de texto que contiene un


informe de las clases generadas.

Clasificación supervisada

En la clasificación supervisada se seleccionan áreas de entrenamiento. Se trata de áreas de las


que se conoce a priori la clase a la que pertenecen y que servirán para generar una signatura
espectral característica de cada una de las clases. Se denominan clases informacionales.
100

Para ello podemos visualizar un mapa con una composición en color y digitalizar (con el módulo
r.digit una serie de areas de entrenamiento. Podemos distinguir en esta imagen cuatro clases
informacionales fundamentales:

• Regadio
• Secano
• Vegetación natural
• Areas abarrancadas

Un ejemplo de mapa en color para obtener areas de entrenamiento y de las areas obtenidas
puede verse en los mapas coloroif y training.
d.rast coloroif;d.rast -o training;d.what.rast
Evidentemente el proceso de selección de areas de entrenamiento debería hacerse en el campo
con GPS y el mismo día en el que pasa el satélite (o lo más próximo posible).
Una vez seleccionadas las areas de entrenamiento el módulo i.gensig generará las signaturas
espectrales de las mismas a partir del grupo y subgrupo de mapas que contiene las bandas y las
areas. El resultado se almacena en un fichero de signaturas espectrales.
Una vez obtenidas las clases informacionales y espectrales, resulta útil compararlas para deter-
minar las clases con las que se trabajará finalmente.

7.6.3 Asignación de pixels a clases


Constituye el segundo paso en el proceso de clasificación. Existen múltiples métodos:

• No estadísticos (mínima distancia, paralelepípedos)


• Estadísticos clásicos (máxima probabilidad)
• Algorítmos basados en inteligencia artificial (lógica borrosa, redes neuronales)

Los métodos no estadísticos podrían programarse con r.mapcalc (aunque sería un poco com-
plejo). Como método estadístico fundamental está el algoritmo de máxima verosimilitud o
máxima probabilidad que es el que utiliza el módulo de GRASS i.maxlik.
Este necesita simplemente el grupo y subgrupo de mapas, el fichero de signaturas espectrales
y generará un mapa con la ubicación de las clases generadas y otro con una medida de la
probabilidad de pertenencia a la clase asignada.
101

Este último mapa sirve para determinar cuales de las areas asignadas deberían considerarse
como inclasificables.
Los métodos basados en inteligencia artificial se están introduciendo poco a poco en los SIG.
En GRASS se dispone ahora mismo de clasificación contextual (módulos i.gensigset y i.smap),
se está desarrollando un módulo de redes neuronales (r.nntool) actualmente no dsiponible en
GRASS para PC y podría utilizarse la lógica borrosa desarrollando programas complejos que
utilizan masivamente los programas ya disponibles.
Existe tambien un módulo que permite evaluar la calidad de una clasificación, se trata de
r.kappa.
102
Tema 8

Formato vectorial

8.1 Introducción
El formato de datos vectorial resulta más adecuado que el raster cuando se manejan datos que
suponen un valor promediado sobre una extensión de territorio que se considera homogenea, los
límites pueden ser arbitrarios o no (por ejemplo estadísticas municipales, datos piezométricos
en acuíferos, etc.) o cuando se asignan datos a elementos lineales (carreteras, ríos, etc).
El formato vectorial admite 3 tipos fundamentales de datos (puntos, lineas y polígonos). Los
puntos se codifican en formato vectorial por un par de coordenadas en el espacio, las lineas como
una sucesión de puntos conectados y los polígonos como lineas cerradas (formato orientado a
objetos) o como un conjunto de lineas que constituyen las diferentes fronteras del polígono
(formato Arco/nodo).
El trabajo en un SIG vectorial se basa en el enlace de una base de datos espacial (uno o más
mapas vectoriales) con una base de datos temática (formada por una o varias tablas). El enlace
se realiza mediante una columna en la base de datos que contiene los identificadores de los
polígonos.
Una base de datos temática es un fichero de base de datos (access, postgres, dbase, etc.) formado
por varias tablas (similares a las varias tablas de una hoja de cálculo) relacionadas por algún
campo común. El acceso a estas tablas es algo más complejo que en una hoja de cálculo y suele
hacerse mediante lenguajes de consulta. EL más utilizado es SQL (Lengujae Estructurado de
Consultas).
Normalmente a cada objeto definido en la base de datos espacial se le asigna un identificador
único, no un valor. Ese identificador servirá para enlazar el objeto con una fila de una tabla
almacenada en una base de datos, normalmente una base de datos relacional, en la que cada fila

103
104

representa los objetos en un mapa (lineas, puntos o polígonos) y cada columna una determinada
variable.

8.2 Organización de las bases de datos relacionales

Una base de datos relacional es básicamente un conjunto de tablas, similares a las tablas de una
hoja de cálculo, formadas por filas (registros) y columnas (campos). Los registros representan
cada uno de los objetos descritos en la tabla y los campos los atributos (variables de cualquier
tipo) de los objetos. En el modelo relacional de base de datos, las tablas comparten algún campo
entre ellas. Estos campos compartidos van a servir para establecer relaciones entre las tablas que
permitan consultas complejas.

En el siguiente ejemplo aparecen 3 tablas disponibles en la base de datos murcia a la que se


puede acceder, desde una ventana de texto diferente a aquella en que se ha abierto GRASS, con
la ordenpsql murcia. . Una vez dentro de la base de datos tecleamos p.ara obtener un listado de
las tablas disponibles y s.eguido del nombre de una tabla para obtener una descripción de una
tabla en concreto.

murcia=# d

List of relations
Name Type Owner
edades table alonso
municipios table alonso
olivares table alonso
poblacion table alonso
sectores table alonso
uso_suelo table alonso

murcia=# d uso_suelo
105

Column Type Modifiers


ident integer
total integer
cultivo integer
prados integer
forestal integer
otros integer

Puede verse que todas las tablas comparten un campo común con un identificador, único para
cada uno de los municipios, que es el mismo que aparece en la base de datos espacial.

8.2.1 SQL (Lenguaje Estructurado de Consultas)

SQL es un lenguaje que puede considerarse estandard para la consulta a base de datos rela-
cionales. Se trata de un lenguaje muy sistemático, sencillo y con una curva de aprendizaje muy
agradable. Incluye diversos tipos de capacidades:

• Comandos para inserción, borrado o modificación de datos.

• Capacidades aritméticas: En SQL es posible incluir operaciones aritméticas así como


comparaciones, por ejemplo A > B + 3.

• Asignación y comandos de impresión: es posible imprimir una tabla construida por una
consulta o almacenarla como una nueva tabla.

• Funciones agregadas: Operaciones tales como promedio (average), suma (sum), máximo
(max), etc. se pueden aplicar a las columnas de una tabla para obtener una cantidad única
y, a su vez, incluirla en consultas más complejas.

• Consultas complejas que involucran diversas tablas relacionadas por un campo común.

Se basa fundamentalmente en el comando SELECT que permite seleccionar objetos de una o


varias tablas, en función de las relaciones establecidas entre ellas, que cumplan determinadas
condiciones.
select * from municipios;
producirá la siguiente tabla:
106

ident nombre
1 Abanilla
2 Abarán
3 Águilas
4 Albudeite
5 Alcantarilla
6 Alcázares (Los)
7 Aledo
8 Alguazas
9 Alhama de Murcia
10 Archena
11 Beniel
12 Blanca
13 Bullas
14 Calasparra
15 Campos del Río
16 Caravaca de la Cruz
17 Cartagena
18 Cehegín
19 Ceutí
20 Cieza
21 Fortuna
22 Fuente Álamo
23 Jumilla
24 Librilla
25 Lorca
26 Lorquí
27 Mazarrón
28 Molina de Segura
29 Moratalla
30 Mula
31 Murcia
32 Ojós
33 Pliego
34 Puerto Lumbreras
35 Ricote
36 San Javier
37 San Pedro del Pinatar
38 Santomera
39 Torre Pacheco
40 Torres de Cotillas (Las)
41 Totana
42 Ulea
43 Unión (La)
44 Villanueva del Río Segura
45 Yecla
107

Indicando que la tabla municipios tiene 2 columnas (identificador y nombre del municipio) y
tantas filas como términos municipales. Comprueba que los identificadores en esta tabla coin-
ciden con los de la base de datos espacial (los que se obtienen con d.what.vect).

Pueden combinarse varias tablas mediante operaciones de SQL más complejas. Cuando se com-
binan tablas suele introducirse un alias simplificado para las tablas (la primetra letra por ejem-
plo). A continuación un ejemplo de combinación de varias tablas y del uso de operaciones
aritméticas para construir consultas más complejas:

select m.ident,nombre,1000*(p1991-p1981)/p1981 as indice from municipios m, poblacion p


where p1981>0 AND p.ident=m.ident;

donde las tablas son municipios y población y sus alias m y p respectivamente.


108

ident nombre indice


1 Abanilla -150
2 Abarán 60
3 Águilas 196
4 Albudeite -148
5 Alcantarilla 224
7 Aledo -88
8 Alguazas 198
9 Alhama de Murcia 79
10 Archena 129
11 Beniel 194
12 Blanca -110
13 Bullas 35
14 Calasparra 7
15 Campos del Río -47
16 Caravaca de la Cruz 41
17 Cartagena 0
18 Cehegín -2
19 Ceutí 131
20 Cieza 18
21 Fortuna 36
22 Fuente Álamo -30
23 Jumilla -27
24 Librilla 70
25 Lorca 65
26 Lorquí 55
27 Mazarrón 420
28 Molina de Segura 199
29 Moratalla -42
30 Mula -114
31 Murcia 152
32 Ojós 47
33 Pliego -15
34 Puerto Lumbreras 163
35 Ricote -47
36 San Javier 159
37 San Pedro del Pinatar 359
38 Santomera 159
39 Torre Pacheco 58
40 Torres de Cotillas (Las) 245
41 Totana 104
42 Ulea -86
43 Unión (La) -22
44 Villanueva del Río Segura -43
45 Yecla 81
109

Con esta operación se ha obtenido la tasa de crecimiento entre 1981 y 1991 en tantos por mil.

8.2.2 Enlaces entre mapas vectoriales y bases de datos

Podemos pensar en un mapa vectorial como en una tabla en la que cada registro (fila) es un
objeto (polígono, linea o punto) que contiene un campo identificador y un campo que contiene
la localización (conjunto de coordenadas X e Y de tamaño, lógicamente, variable). El hecho de
que esta información se presente en forma de tabla o en forma de mapa es simplemente una
cuestión de conveniencia. En cualquier ejemplo de SIG vectorial podemos distiguir entre :

• Localización o conjunto de coordenadas.

• Información espacial que se calcula a partir de la localización (area, perímetro)

• Información no espacial, las diversas bases de datos temáticas enlazadas

• Inormación derivada, índices calculados a partir de la información espacial o no espacial.

Lo normal es mantener la localización en una base de datos no espacial (mapa vectorial) y la


informacion no espacial en una base de datos asociada. La información espacial la generará el
SIG a partir de la localización y puede almacenarse como nuevas tablas en la base de datos para
futuras consultas o cálculo de índices.
Las consultas que se han hecho en el apartado anterior podrían presentarse en forma de mapa en
lugar de en forma de tabla. De esta forma a los diferentes polígonos se le asignarían diferentes
colores en función de que se cumpliera o no una condición, o de los valores que adoptase una
variable o índice. Por ejemplo la consulta

select ident from poblacion where 1000*(p1991-p1981)/p1981 AND p1981>0;

podría presentarse así:

Para ello se utiliza el comando d.vect.sql.sh que permite enlazar un mapa con una base de datos
y obtener los resultados de una consulta SQL.
110

Figura 8.1: Municipios con crecimiento de población positivo entre 1981 y 1991

d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>0’ color=blue

Una consulta similar a la anterior pero estableciendo una reclasificación por colores puede hac-
erse con órdenes sucesivas:

d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>0’ color=blue
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>50’ color=green
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>100’ color=yellow
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>200’ color=red

y daría el siguiente resultado.


111

Figura 8.2: Municipios con crecimiento de población positivo entre 1981 y 1991

en el que el color rojo indica valores mayores de 200, el amarillo entre 100 y 200, el verde entre
50 y 100, el azul entre 0 y 50 y el blanco menor de 0.

8.3 GRASS y bases de datos


En GRASS existen diversos comandos para enlazar mapas vectoriales y bases de datos. Hay
varios proyectos en marcha para la utilización de diferentes sistemas de gestión de base de
datos Open Source con GRASS. Nos centraremos en Postgres que es una de las más completas
y flexibles pero a la vez sencillas de manejar como usuario. Los módulos de GRASS que enlazan
con Postgres son:

• Módulos generales:

– g.select.pg conecta GRASS con una base de dats postgres


– g.table.pg listado de las tablas disponibles en la base de datos seleccionada
– g.column.pg listado de las columnas disponibles en una tabla
– g.stats.pg estadísticos básicos de una columna

• Módulos de visualización:
112

– d.rast.pg Permite visualizar pixels cuyo identificador corresponda a un objeto (reg-


istro en la base de datos) que cumplen determinadas condiciones
– d.site.pg Permite visualizar puntos cuyo identificador corresponda a un objeto (reg-
istro en la base de datos) que cumplen determinadas condiciones
– d.vect.pg Permite visualizar puntos cuyo identificador corresponda a un objeto (reg-
istro en la base de datos) que cumplen determinadas condiciones

• Módulos de consulta interactiva

– d.what.r.pg
– d.what.s.pg
– d.what.v.pg

• Módulos para crear mapas con categorías obtenidas de la base de datos:

– r.reclass.pg cuyos identificadores se obtienen de una columna o índice en una tabla


de la base de datos.
– r.rescale.pg crea un mapa de polígonos cuyos identificadores se obtienen reesca-
lando los valores de una columna o índice a un nuevo rango de valores.

• Importación de bases de datos

– v.in.shape.pg
– pg.in.dbf

Como ejemplo vamos a ver el comando d.vect.pg. En primer lugar hay que enlazar la base de
datos a GRASS
g.select.pg host=localhost database=murcia
Posteriormente podemos obtener listados de las tablas disponibles: g.table.pg y de las columnas
disponibles en una tabla g.column.pg -v table=tabla. Podemos tambier obtener directamente
algunas propiedades estadísticas sencillas de las columnas en la base de datos: g.stats.pg ta-
ble=poblacion column=p1991 que producirá el siguiente resultado:

>Executing

SELECT min(p1991) as Min, max(p1991) as Max, avg(p1991) as Mean FROM pobla


113

Min, Max, Mean


-----------------------------
678, 328100, 23235.5777777778

La opción -f dará las frecuencias en lugar de estos estadísticos, probad: g.stats.pg -f table=poblacion

column=p1991 Puede tambien limitarse el cálculo de estadísticos a aquellos registros que cum-

plan una determinada condición con el parámetro where. Este recibe entre comillas una condi-
ción en lenguaje SQL: g.stats.pg table=tabla column=poblacion where="p1991>10000"

En definitiva la única diferencia entre el trabajo de un gestor tradicional de bases de datos y el


enlace de un SIG a base de datos es el modo de presentación (tabla o mapa). Casi todo el trabajo
lo hace el gestor de bases de datos y GRASS, el Sistema de Información Geográfica, se limita
a presentar los resultados. La auténtica novedad de los SIGvectoriales está en la yuxtaposición
de mapas de diverso tipo para realizar análisis complejos del territorio.

8.4 Análisis espacial a partir de datos vectoriales

8.4.1 Conceptos de geometría

Prácticamente todos los cálculos que se llevan a cabo en un SIG vectorial se fundamentan en
algoritmos cuya base son 3 funciones básicas:

• Longitud de una linea

• Area bajo un segmento

• Punto de corte de dos segmentos


114

Figura 8.3: Cálculo del área de un polígono

entendiendo por segmento la linea recta entre dos vértices. El primero es trivial, el segundo se
resuelve cómo la suma de las áreas del triángulo y el rectángulo bajo el segmento (8.3 A)
El punto de corte entre dos segmentos es aquel que resulta de resolver el sistema de que forman
las ecuaciones de las dos rectas que, supuestamente, se cruzan:

Y = A1 X + B1 (8.1)
Y = A2 X + B2 (8.2)

si el sistema tiene solución y el punto resultado está dentro del cuadrado mínimo formado por
los extremos de los segmentos, entonces es el punto de corte (figura 8.4)
A partir de estas variables se puede obtener:

• Perímetro de un polígono es la suma de las longitudes de todos los segmentos

• Area de un polígono es la suma de todas las áreas bajo los segmentos de un polígono (8.3
B,C,D), teniendo en cuenta que las áreas bajo los segmentos en los que X2 > X1 son
positivas (8.3 C) y las áreas bajo los segmentos en los que X2 > X1 son negativas (8.3 D)

• Si se traza un segmento entre un punto y el origen de coordenadas y este segmento cruza


un número impar de veces el límite de un polígono entonces está DENTRO del polígono
si lo cruza un número par de veces está FUERA del polígono

• Una linea intersecta a un polígono si cruza su límite

• Dos polígonos se intersectan si sus límites se cruzan


115

Figura 8.4: Punto de cruce entre dos segmentos

8.5 Algebra de mapas en formato vectorial


En el tema 4 se vieron diversas técnicas de álgebra de mapas en formato raster. En el formato
vectorial hay ue distinguir dos casos:

• Se trabaja con el mismo conjunto de objetos, es decir con el mismo mapa y diferentes
variables.

• Se trabaja con distintos mapas que quieren cruzarse

El primer caso se resuelve con las técnicas vistas anteriormente para combinar columnas de la
misma o de distintas tablas con SQL. El segundo requiere la intersección de ambos mapas para
obtener un nuevo conjunto de polígonos y una nueva tabla en la base de datos que relacione
los identificadores de los polígonos resultantes de la intersección con los identificadores de los
polígonos originales. En el siguiente ejemplo se va a cruzar el mapa de municipios con el de
acuíferos que aparece en la siguiente pantalla.
116

Figura 8.5: Mapa de acuíferos

Figura 8.6: Mapa de acuíferos cortado con los municipios


Tema 9

Desarrollo de un Proyecto SIG

Hasta ahora todos los temas tratados se han enfocado a la consulta y análisis de datos en un
Sistema de Información Geográfica, obviándose la fase de creación del SIG y sus bases de
datos. La tendencia actual es que los diferentes organismos desarrollen sus propios proyectos
de SIG. Además, la información básica está, cada vez más en formato SIG. En consecuencia
la labor fundamental de los futuros trabajadores del SIG será el análisis más que la creación
de las bases de datos. Sin embargo es necesario conocer los aspectos relativos al desarrollo de
proyectos SIG debido a diversas razones:
• Seguirá siendo necesario cuando los SIG se utilicen en investigación básica medioambi-
ental. Este tipo de trabajo suele necesitar del desarrollo de nuevas bases de datos.
• Aunque la información este en formato SIG existen diferentes modelos de datos. Todavía
no se ha conseguido crear un formato estandard a pesar (o quizas precisamente por ello)
existen más de 25 organizaciones encargadas de buscar el estandard. El problema no es
técnico sino político, por lo que la posibilidad de solucionarlo en breve parece remota.
Uno de los proyectos más interesantes es opensig (http://www.opengis.org/).
• Todo SIG necesita actualización constante, sino es un proyecto muerto. Esta actualización
no significa sólo nuevas capas de información sino que tambien puede suponer un re-
planteamiento global de la base de datos.
• Aún trabajando en la misma zona dos proyectos SIG pueden ser absolutamente diferentes
debido a las diferencias en la escala de trabajo, por tanto un proyecto a una escala poco
habitual puede significar la necesidad de comenzar un proyecto desde cero.
• Cada vez se considera más a los SIG como una herramienta útil en cualquier tipo de
empresa con un volumen de negocios importante. Por tanto no hay que descartar la posi-
bilidad de ser contratado para trabajar con SIG en cualquier empresa.

117
118

9.1 Tengo que hacer un SIG


Tras haber asistido a un curso de SIG, o haber leido algún libro, manual o tutorial de un pro-
grama, el mayor problema que se plantea es: ¿Cómo comenzar a trabajar con mis propios datos?
El diseño de un proyecto SIG partiendo de cero implica una reflexión acerca del proyecto con
especial atención en:

• ¿Quién es el cliente?

• ¿Cual es el objetivo?

• ¿Con que datos cuento?

• ¿Con que base teórica cuento?

• ¿Que programas voy a utilizar?

• ¿Con que tiempo/personal/potencia informática cuento?

• ¿Con que presupuesto cuento?

El cliente puedo ser yo mismo si estoy haciendo una tesis, una empresa, en caso por ejemplo de
una evaluación de inpacto ambiental, o la administración (trabajos de ordenación del territorio).
El objetivo puede ser la resolución de un problema concreto (EIA, comprobación de una hipóte-
sis) o el desarrollo de una base de datos para ser usada posteriormente. Para cumplir este
objetivo necesito una serie de datos de partida (que formarán la base de datos) y una base
teóricaconstituida por el conjunto de algoritmos y modelos que me permitirán pasar de los
datos de partida al resultado. Al fin y al cabo un SIG es un SISTEMA con entradas que se
convierten en salidas tras pasar por una serie de transformaciones provocadas por la estructura
del SISTEMA. Normalmente un programa de gestión de SIG incluye un conjunto de modelos
y algoritmos (a veces complementarios a veces alternativos) que se organizan normalmente de
forma modular (no existe un único programa sino diversos módulos que ejecutan tareas sencil-
las) ya que los SIG se desarrollaron en entornos UNIX, para facilitar su uso.
Sin embargo sería un error limitar un proyecto de SIG a un programa. Uno de los mandamientos
de los SIG debiera serlo importante son los datos no el programa. Por lo que no hay ningún
problema en utilizar diferentes programas en forma combinada. De hecho, tradicionalmente se
han utilizado programas de CAD para digitalizar, paquetes estadísticos para el análisis de datos,
programas de gestión de bases de datos no espaciales(DBMS), etc. de forma complementaria a
los programs de gestión de SIG .
119

La potencia informática requerida viene determinada por el tipo de módulos que se van a uti-
lizar y el volumen (número y tamaño de los ficheros) de la información de partida. Hoy en día
la potencia informática es un problema menor ya que los ordenadores son lo suficientemente
potentes para manejar grandes volúmenes de datos sin demasiados problemas. Sin embargo,
e trabajo con SIG, especialmente si hay que desarrollarlo desde cero puede llegar a consumir
mucho tiempo, por ello es necesario tener en cuenta los recursos humanos con los que cuenta
el proyecto y su nivel de preparación. Normalmente los proyectos se encargan muy ajustados
de tiempo. Una posibilidad es la automatización de tareas de manera que los programas desar-
rollen las tareas sin necesidad de intervención humana. Los sistemas UNIX son idoneos para la
automatización de tareas que resultan más complejas en sistemas windows. La automatización
de tareas en SIG se ha desarrollado gracias a los lenguajes de SCRIPT o MACROS. Se trata
de lenguajes sencillos que realizan operaciones de alto nivel. En UNIX se disponde de diversos
entornos SHELL, AWK, TCL/TK, PERL que son perfectamente integrables. ArcInfo desarrollo
en principio un lenguaje de macros AML, despues otro más potente AVENUE y finalmente se
ha optado en la última versión por utilizar VisualBASIC.
El problema de la automatización es que los resultados intermedios pueden pasar sin revisión
y colar algunos errores. Finalmente el presupuesto es indispensable ya que deberemoscomprar
todo lo que nos falte. En caso de estar en una empresa o en un centro de investigación habría
que valorar la viabilidad financiera del proyecto antes de ponerlo en marcha.
Un problema que suele plantearse es el de la escala de trabajo. Cuando se trabaja en SIG es
imprescindible distinguir entre dos escalas:

• Escala a la que ocurren los fenómenos que se estudian (escala de trabajo y de los datos de
entrada)

• Escala de representacion (escala a al que se presenten los resultados finales).

Por ejemplo si queremos hacer un mapa de erosión potencial de la región de Murcia, y lo


queremos representar a escala 1:200.000. No tiene ningún sentido partir de un MDE obtenido
de un mapa topográfico a escala 1:200.000 ya que los procesos de erosión y la variabilidad
espacial de los factores que los condicionan actúan a una escala mucho más detallada.
Para hacer una primera planificación del poyecto debe estudiarse el proyecto desde los objetivos
a los datos originales

• Determinación del objetivo

• Determinación de la escala de trabajo

• Determinación de la base teórica que se utilizará


120

• Determinación del PGSIG y hardware

• Determinación de la información de partida

• Localización de la misma y evaluación económica de su coste

• Evaluación del tiempo necesario y su coste

• Evaluación del coste global del proyecto.

En caso de que lo sea el primer paso será tener un conocimiento suficiente del PGSIG y la
creación de una base de datos PGSIG multiescala (GRASS) y de una sola escala (IDRISI)
Se han propuesto 9 principios para que un proyecto SIG se desarrolle con éxito

1. Un SIG es un sistema de información basado y diseñado en función de datos

2. Necesitan mantenimiento

3. Los datos deben referenciarse en un sistema de coordenadas continuo y consistente

4. Las relaciones topológicas deben hacerse explícitas

5. Un SIG tiene diversas utilidades y debe ser compartido por diversos usuarios

6. Tanto hardware como software deben estar en continua actualización

7. Un SIG crece constantemente en cuanto a máquinas, programas, usuarios, etc.

8. Un SIG cambia las formas de trabajar

9. Requiere personal especializado

Preguntas antes de comprar software:

1. ¿ Conozco a alguien que lo utilice?

2. ¿ Lo utilice algún colaborador potencial?

3. ¿ Ha sido utilizado en un proyecto similar?

4. ¿ Puede manejar todos los tipos de datos que necesita mi proyecto?

5. ¿ Puede manejar el volumen de datos que se van a generar?


121

6. ¿ Permite acceder a los algoritmos utilizados?

7. ¿ Puede ejecutarse en los ordenadores y sistemas operativos disponibles o habrá que com-
prar y/o aprender nuevos?

8. ¿ Dispone de herramientas sencillas de importación/exportación de información?

9. ¿ Es fundamentalmente una herramienta de maquetación de mapas o tiene funciones de


análisis de datos?

10. ¿ Puedo pagarlo?

11. ¿ La compañía que lo produce se mantendrá en el mercado el tiempo suficiente para


resolver los problemas que surjan?

12. ¿ Permite programar procedimientos?

13. ¿ Se quedará, en algún momento, corto respecto a las necesidades futuras previsibles?

Tipos de software:

• Caros, baratos, gratuitos

• Abiertos - Cerrados

• Raster - Vectorial

• Maquetadores de mapas - SIG

• Basados en menus - Basados en comandos

Ventajas de la programación de procedimientos

9.2 Fuentes de datos


• Datos de campo

• Mapas de campo

• Estadísticas oficiales

• Cartografía oficial
122

• Datos publicados

• Internet

• teledetección

9.3 Introducción de la información


Errores: accidentales, aleatorios y sistemáticos

9.3.1 Información espacial en papel: mapas y fotografía aérea


En este caso es necesario digitalizar la información que está en formato papel. Se trata de un
proceso con varias fases:

1. Digitalización mediante escanner o tableta digitalizadora

2. Edición (vectorización o clasificación)

3. Transformación (georreferenciación, cambio de proyección o cambio de formato)

La digitalización con escanner es muy simple, se requiere un programa de captura de imágenes


que cree un fichero de imagen compatible con nuestro PGSIG y que mantenga la integridad de la
información escaneada (el más aconsejable es TIFF y el menos JPEG). Permite introducir infor-
mación raster (fotografía aerea) o vectorial (mapa topográfico). En este ultimo caso se necesita
un proceso posterior de edición o transformación. Un escanner de mesa resulta barato pero sólo
sirve para mapas pequeños o porciones. Un escaner A2 o mayor es muy caro pero disponen de
ellos en muchas papelerías técnicas y los precios son razonables. A la hora de escanear es im-
portante ajustar correctamente la resolución para que esta sea mayor igual al tamñoo de celdilla
de nuestra base de datos pero no mucho mayor ya que en ese caso produciríamos archivos
demasiado grandes y difíciles de manejar.
Una vez que la imagen está digitalizada la debemos incorporar al SIG con algún módulo es-
pecífico. En GRASS, r.in.tiff se encarga del trabajo.
Ahora las celdillas contienen valores numéricos que dependen sólo del color del mapa en el
punto correspondiente. Es necesario por tabto editarla para transformar esos valores en informa-
ción geográfica. Existen dos posibilidades, si el objetivo es crear una capa vectorial, pondremos
el fichero raster como fondo en algún programa de digitalización y con el ratón digitalizaremos
123

en pantalla como si fuera una tableta. Si la capa debe ser raster puede reclasificarse la capa
inicial.
Una tableta digitalizadora tiene en su interior una fina malla de conexiones eléctricas que de-
finen un sistema de coordenadas XYcon límite inferior X=0, Y=0 y límite superior dependiente
del tamaño de la tableta. Al pinchar con el ratón en un punto, la tableta envía al ordenador las
coordenadas de este punto. Pinchando en varios puntos consecutivos se definen lineas o polí-
gonos. Si se pone un mapa sobre la tableta podemos digitalizar de este modo la información
contenida en el mapa.
Hay que tener en cuenta que las coordenadas físicas de la tableta son arbitrarias, para asignar a
cada punto las coordenadas del mapa hay que calibrarla previamente. Todos los programas de
apoyo a la digitalización con tableta (AutoCAD por ejemplo) disponen de ordenes para ello. El
proceso de calibración consiste básicamente en pinchar en dos o más puntos e introducir por
teclado las coordenadas reales de estos puntos. A partir de esta información el programa realiza
una análisis de regresión lineal para estimar los parámetros de dos funciones que transformen
las coordenadas de la tableta en coordenadas reales
Es posible también realizar un análisis de errores para determinar si los valores son adecuados
o no. En general un programa de CAD asume que los mapas en papel no tienen distorsiones por
lo que en el mejor de los casos sólo se hace un ajuste lineal y normalmente sólo se hace una
traslación y cambio de escala por lo que algunos de los parámentros en las ecuaciones anteriores
son iguales.
Al igual que los escaner, las tabletas tienen el problema del tamaño, en general son caras y si la
tableta es grande ( A1-A0 ) prohibitiva. Además la digitalización con tableta es más cara y sólo
sirve para información vectorial y puesto que requiere mucho tiempo trabajando con ella en-
cargar el trabajo es tabien muy caro. La transformación no sólo incluye el paso de coordenadas
de tableta o de escanner a coordenadas estandard, tambien incluye la transformación entre dos
sistemas de coordenadas diferentes.
Ejemplo con el geológico.

9.3.2 Bases de datos espaciales en formato SIG procedentes de otros pro-


gramas

Sea cual sea el sistema que estemos utilizando nos enfrentaremos con la necesidad de importar
capas de información almacenadas en formato SIG pero con un modelo de datos incompatible.
Todos los programas disponen de herramientas que facilitan el proceso. El problema es diferente
para datos raster y vectorial.
124

En el primer caso no hay demasiadas dificultades puesto que la codificación de datos raster
no difiere excesivamente de unos programas a otros. Se trata de simples matrices de números
fáciles de importar sabiendo el número de filas y columnas que la componen y el modo de
codificación de cada celdilla que suele ser muy similar de unos programas a otros. En GRASSlos
módulos que importan datos raster comienzan con el prefijo r.in al igual que los que importan
formatos gráficos.
r.in.arc r.in.elas r.in.gridatb r.in.ppm r.in.utm r.in.ascii r.in.ll r.in.shape r.in.bin r.in.miads r.in.sunrast
r.in.doq r.in.gdal r.in.png r.in.tang r.in.dted r.in.globedem r.in.poly r.in.tiff
El caso de los vectoriales es más complejo. El modo de codificar aspectos como los bordes de
area o los polígonos isla y la existencia de dos modos diferentes depensar acerca de los datos
espaciales (CADy SIG) multiplica la cantidad de formatos diferentes. Además en algunos casos
se trata de formatos propietario, es decir sujetos a copyright, que cambian de unas versiones a
otras del programa. La consecuencia es que no siempre los módulos de importación funcionan
correctamente, siendo necesaria en muchos casos una edición a mano. En GRASS los módulos
de importación de vectoriales son los que comienzan por v.in

Importan datos en el formato ungenerate de ArcInfo v.in.arc v.in.arc.poly


Importa ficheros en formato e00 de ArcInfo m.in.e00
Importa ficheros en formato shape de ArcView v.in.shape
Importa datos en formato ASCIIde GRASS v.in.ascii
Importan datos en formato DXF v.in.dxf v.in.dxf3d v.in.dxf3d.sh
Importar datos de Atlas GIS v.in.atlas
Importar ficheros mapgen de MATLAB v.in.mapgen.sh
Importar ficheros DLGdel servicio geológico americano v.in.dlg v.in.dlg2 v.in.dlg.scs
Importar ficheros de un GPSgarmin v.in.garmin.sh
v.in.gshhs v.in.tig.basic
v.in.tig.lndmk
v.in.transects
v.in.poly
v.in.sdts

Conjuntos de puntos

Tipo de datos Información primaria Información secundaria


Raster Imágenes de satélite Mapa o fotografía aerea
Vectorial GPS Mapas Topográficos
Puntual
125

9.3.3 Estadísticas
Bases de datos no espaciales.
Información no espacial (bases de datos y series temporales)

9.4 Mantenimiento

You might also like