Professional Documents
Culture Documents
• Hardware y software
3
4
Por otro lado las herramientas-programas para su manejo son muy diferentes, a menudo contra-
dictorias, ya que reflejan diferentes tipos de teorías sobre el espacio procedentes de disciplinas
científicas diversas. Por tanto utilizar una determinada herramienta SIG para resolver un prob-
lema implica la aplicación de una teoría, una hipótesis, acerca de los datos que manejamos.
Este problema está en el centro de los debates acerca de si los SIG deben considerarse tan sólo
como una herramienta neutra o como una disciplina científica en si mismos. Debates con con-
secuencias profundas en el modo en que la docencia y práctica de los SIG debe plantearse en
las universidades.
Los Sistemas de Información Geográfica se han desarrollado además a partir de la unión de
diversos tipos de aplicaciones informáticas: la cartogafía automática tradicional, los sistemas
de gestión de bases de datos, las herramientas de análisis digital de imágenes, los sistemas de
ayuda a la toma de decisiones y las técnicas de modelización física. Por ello tienden a veces a ser
considerados un subproducto de las facultades de informática para ser usados por informáticos.
Sin embargo la fuerte carga teórica de los SIG los convierte en un auténtica pesadilla para los
informáticos que acaban buscando SIG simples, blandos donde la flexibilidad (y por tanto las
decisiones científicas que hay que tomar) a la hora de trabajar es mínima.
Por otro lado, para un experto en estas materias (ciencias de la tierra y ambientales) resulta
imprescindible, lógicamente, una formación informática sólida. Se ha llegado a considerar a los
SIG como un enlace entre la Geografía y la Informática al igual que la Geomorfología enlazaría
Geografía y Geología.
Una de las primeras percepciones que se tienen de un SIG son las salidas gráficas a todo color,
impresas o en la pantalla de un ordenador. Conviene recordar sin embargo que hay una difer-
encia fundamental entre los programas de manejo de gráficos y los SIG. En los primeros, lo
fundamental es la imagen que vemos, siendo irrelevante como se codifique, en un SIG la im-
agen es sólo una salida gráfica sin mayor importancia, lo relevante son los datos que se están
representando.
1.2 Definición
Se han dado diversas definiciones de Sistema de Información Geográfica, las siguientes que
constituyen ejemplos claros de los modos habituales de concebir un SIG.
La primera referencia al término SIG aparece en TOMLINSON (1967) referida a una aplicación
informática cuyo objetivo era desarrollar un conjunto de tareas con información geográfica
digitalizada. Se trataba del Sistema de Información Geográfica de Canada (CGIS)
Para BERRY (1987) un Sistema de Información Geográfica es un sistema informático diseñado
para el manejo, análisis y cartografía de información espacial.
5
Para BURROUGH (1988), se trata de un conjunto de herramientas para reunir, introducir, al-
macenar, recuperar, transformar y cartografiar datos espaciales sobre el mundo real para un
conjunto particular de objetivos. El National Center for Geographic Information and Analysis
de USA los define como Sistema de hardware, software y procedimientos elaborados para fa-
cilitar la obtención gestión, manipulación, análisis, modelado, representación y salida de datos
espacialmente referenciados para resolver problemas complejos de planificación y gestión (NC-
GIA, 1990)
Como se observa, estas definiciones no sólo son consecutivas en el tiempo, sino que además
cada una supone un mayor nivel de complejidad sobre la anterior. La primera hace referencia
únicamente a las bases de datos espaciales; la segunda y la tercera a las herramientas (software)
de tratamiento de estos datos, el típico paquete de módulos de SIG (GRASS, Erdas, ArcIfnfo,
Idrisi, Atlas-Gis, etc.); finalmente la tercera incluye el hardware utilizado y los procedimientos
complementarios que puedan ser necesarios.
Aunque en sentido estricto no sería necesario, se han desarrollado un tipo específico de aplica-
ciones informáticas para el manejo de estos sistemas. Estos programas es lo que popularmente
(y equivocadamente) se conoce cómo SIG (IDRISI, ArcInfo, GRASS, etc.), pero que realmente
constituyen tan sólo un componente de lo que es realmente un SIG. Podríamos considerar, en
sentido amplio que un SIG está constituido por:
1. Bases de datos espaciales en las que la realidad se codifica mediante unos modelos de
datos específicos.
2. Bases de datos temáticas cuya vinculación con la base de datos cartográfica permite asig-
nar a cada punto, linea o área del territorio unos valores temáticos.
3. Conjunto de herramientas que permiten manejar estas bases de datos de forma útil para
diversos propósitos de investigación, docencia o gestión.
Uno de los problemas fundamentales en el desarrollo de un proyecto de SIG es, al igual que
en el caso de la cartografía tradicional, cómo representar una realidad compleja y continua de
forma siplificada y en elementos discretos. El desarrollo de una base de datos espacial conlleva
una simplificación de la realidad para adaptarla a un modelo de datos. Existen dos modelos de
datos básicos, vectorial y raster.
En el modelo vectorial se considera que la realidad está dividida en una serie de objetos discre-
tos (puntos, lineas, polígonos) a los que se puede asignar diversas propiedades, cualitativas o
cuantitativas. Estos objetos se codifican por su posición en el espacio (puntos y lineas) o por la
posición de sus límites (polígonos). Los cambios de escala van a suponer en muchos casos que
los objetos cambien de un tipo a otro.
8
En el modelo raster por el contrario considera la realidad como un continuo en el que las fron-
teras son la excepción y la regla la variación continua. La representación se realiza dividiendo
ese continuo en una serie de cedillas o pixeles y asignandole a cada una un valor para cada
una de las variables consideradas. Los cambios de escala van a reflejarse en el tamaño de estas
celdillas.
La representación que en la base de datos espacial se haga de la realidad es una de las cuestiones
fundamentales ya que condiciona enormemente la estructura de la misma y los modos de trabajo
posteriores. Las ventajas e inconvenientes de uno u otro se verán a lo largo del curso. Hoy en
día sin embargo se tiende a compaginar al máximo ambos modelos para conseguir una mayor
versatilidad. Existen diversos perifericos de entrada de datos espaciales (tableta digitalizadora,
escaner o incluso por el teclado). Otra forma importante de entrada de datos es la importación
de los mismos desde otros sistemas.
Las bases de datos temáticas se introducen mediante teclado, escanner y OCR o importación
desde otros ficheros. Suelen asignar a cada objeto (representado en formato vectorial o raster)
diversos atributos temáticos cualitativos o cuantitativos.
9
Más sofisticado sería el uso de herramientas de análisis espacial y álgebra de mapas para el
desarrollo y verificación de hipótesis acerca de la distribución espacial de las variables y objetos.
Finalmente, las aplicaciones más elaboradas de los SIG son aquellas relacionadas con la inte-
gración de modelos matemáticos de procesos naturales, dinámicos y espacialmente distribuidos.
El objetivo puede ser tanto científico como de planificación y ordenación.
En estos casos los programas se utilizan tanto para introducir las capas de información inicial
como para ver y analizar los resultados del modelo en su distribución espacial.
13
• Sistema abierto. Hoy en día los sistemas informáticos se dividen en abiertos o propi-
etario. Los sistemas abiertos son aquellos de los que se conoce el código fuente (es decir
como hacen las cosas) y, por tanto, como se almacenan los datos. Las ventajas de un
sistema abierto estriban en que podemos decidir s los algoritmos utilizados son válidos
para nuestros objetivos o no, y que podemos combinar fácilmente el programa con otros
ya que si existen otros programas que funcionen mejor para algunas de las operaciones,
estos deben ser usados.
14
De hecho podemos entender el trabajo en SIG como la capacidad de expresar problemas espa-
ciales complejos en forma de algoritmos que utilicen como expresiones operaciones básicas de
SIG.
El desarrollo de herramientas de SIG más complejas se apoya decisivamente en las solicitudes
de los usuarios, tanto si se trata de consultas simples a la base de datos cómo si se trata de prestar
apoyo al trabajo de grupos de investigación. Las nuevas herramientas pueden estar destinadas,
tanto a la implantación de técnicas y algorítmos más sofisticados de análisis de datos a peti-
ción de los usuarios como al desarrollo de mejores interfaces con el usuario (mejores sistemas
de visualización, algoritmos más eficientes y seguros, etc. desarrollados por los informáticos
incluidos en el proyecto. Puesto que el desarrollo de un SIG tal como se ha planteado aquí con-
situye una apuesta compleja, es necesario que el conjunto de usuarios sea lo más amplio posible
de forma que el SIG no sea algo cerrado. Las aplicaciones son muy variadas tanto desde un
punto de vista científico cómo de gestión e incluso empresarial.
16
• Científicas
• Gestión
– Cartografía automática
– Información pública, catastro
– Planificación física
– Ordenación territorial
– Planificación urbana
– Estudios de impacto ambiental
– Evaluación de recursos
– Seguimiento de actuaciones
• Empresarial
– Marketing
– Estrategias de distribución
– Planificación de transportes
– Localización óptima
17
1.9 Bibliografía
Coppock, J.T. and Rhind,D.W. (1991) The History of GIS en Maguire, D.J.; Goodchild, M.F.
and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and Applications John
Wiley & sons pp. 21-43 (www.wiley.co.uk/wileychi/gis/resources.html)
Longley,P.A.; Goodchild, M.F.; Maguire, D.J.; and Rhind, D.W. (2001) Geographic Information
Systems and Science John Wiley & sons 454 pp.
Maguire, D.J. (1991) An overview and definition of GIS en Maguire, D.J.; Goodchild, M.F.
and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and Applications. John
Wiley & sons pp. 9-20 (www.wiley.co.uk/wileychi/gis/resources.html)
Openshaw,S. (1991) A view on the GIS crisis in geography Environment and Planning A 23,
621-628
Unwin, D.J. (1991) The academic setting of GIS en Maguire, D.J.; Goodchild, M.F. and Rhind,
D.W. (Eds.) Geographical Information Systems: Principles and Applications John Wiley & sons
pp. 81-90 (www.wiley.co.uk/wileychi/gis/resources.html)
Wright, D.J.; Goodchild, M.F. and Proctor, J.D. (1997) Desmytifying the Persistent Ambiguity
of GIS as "Tool" vs. "Science" The annals of the Association of American Geographers 87(2):
346-362 (dusk.geo.orst.eddu/annals.html)
18
Tema 2
Cuando se trabaja con tecnologías digitales, por ejemplo los SIG, el usuario no suele tener ac-
ceso a la representación digital de los datos, en su lugar se presentan una serie de vistas estruc-
turadas de estos (mapas, gráficos, tablas, etc.). Por lo que respecta a la información espacial,
existen múltiples formas de representación no siendo ninguna de ellas necesariamente mejor
que las demás ya que los objetivos que persiguen los diferentes usuarios de los SIG pueden
llegar a ser muy diferentes y, por tanto, necesitar diferentes formas de representación. En este
tema se tratará la base teórica de la codificación de los diferentes elementos y atributos de la
superficie terrestre en formato digital para su tratamiento con un programa SIG.
Partiendo de la definición de modelo como representación simplificada de la realidad, que refleja
lo fundamental de esta ignorando los detalles accesorios; un modelo de datos sería el conjunto
de reglas utilizadas para representar la variedad del mundo real como un conjunto finito de datos
discretos y fácilmente manipulables con un ordenador. Pasar de la realidad a una representación
o modelo digital supone un gran salto que se entiende mejor si consideramos la existencia de
varios niveles de abstracción:
1. Realidad (montañas lagos y campos de cultivo). Nivel propio de los gestores preocupados
por problemas de gestión y planificación del espacio.
3. Modelo lógico (raster y vectorial). Nivel de los técnicos en SIG que utilizan las herramien-
tas del sistema para llevar a cabo, en el ordenador, las tareas requeridas por gestores o
científicos.
19
20
La comunicación entre unos y otros se hace cada vez más difícil cuanto más alejados se en-
cuentren en la anterior jerarquía, por tanto es necesario la existencia de especialistas de los
diferentes niveles para el adecuado desarrollo de un proyecto, al mismo tiempo se requiere un
diálogo constante entre los mismos. No obstante suele darse el caso de personas que abarcan
varios niveles de esta jerarquía.
1. Como un continuo definido por una serie de variables que varían de forma más o menos
suave (por ejemplo topografía)
dos dimensiones) ondulada, levantada en tres dimensiones (la media dimensión). Los gráficos
y los análisis verdaderamente 3D necesitan emplear modelos de datos diferentes y bastante más
complejos que son de especial utilidad para algunas aplicaciones prácticas como en Geología.
Mientras que el resto de los objetos son más o menos perceptibles sobre el terreno o utilizando
la cartografía apropiada, las superficies suelen ser mucho más difíciles de determinar, ya que en
cada punto del territorio los valores son diferentes, al no disponer de un valor para cada punto,
es necesario realizar una estimación. Es necesario recurrir a técnicas de interpolación.
El ejemplo más típico de variable regionalizada son los Modelos Digitales de Elevaciones
(MDE). Se trata de una superficie que representa la topografía del terreno, es decir, las alturas
en cada punto (celdilla) de un territorio. Pero, en realidad, se puede crear superficies a partir
de cualquier variable que cumpla unas mínimas características, esencialmente la continuidad
espacial, sin que existan saltos bruscos en el valor de la variable. De este modo, diversos aspec-
tos físicos naturales, tales como las precipitaciones, las temperaturas, 1a composición litológica
o mineral, la acidez o basicidad de los suelos, etc., o también variables sociales: número de
habitantes, densidad de población, etc., se pueden representar y analizar como una superficie.
22
Figura 2.2:
23
2.1.2 Objetos
Si consideramos la realidad como una yuxtaposición de objetos, cualquier entidad que aparezca
en el espacio (casas, carreteras, cordilleras, lagos, etc.) puede modelizarse a la escala adecuada
como un objeto geométrico extraido de la geometría euclidiana. Pueden ser clasificados por su
dimensionalidad en 3 tipos (figura 2.3):
El escoger un tipo u otro para representar determinado objeto dependerá en gran manera de
la escala y del tipo de abstracción que se pretenda hacer. Así una ciudad puede ser puntual
o poligonal y un cauce fluvial lineal o poligonal. Una ciudad sólo tendra sentido considerarla
poligonal en estudios de planificación urbana. Para casi todas las aplicaciones hidrológicas tiene
más sentido representar los cauces como objetos lineales y codificar su anchura y profundidad
como propiedades espaciales. Podemos considerar a priori 6 categorías de información que
caracterizan a los diferentes objetos geográficos:
1. Identificador. Se trata de una variable cuantitativa que identifica cada objeto dentro de un
conjunto de objetos del mismo tipo. El identificador será un valor único y las propiedades
de los objetos se almacenarán en una base de datos a la que se accede cada vez que es
necesario.
Figura 2.3: Tipos de objetos en formato vectorial a) Punto, b) Linea, c) Polígono en formato
OO, d) Polígono en formato Arco-Nodo.
25
5. Relaciones con el entorno. Todos los objetos geográficos tienen unas relaciones con su
entorno, es decir con el resto de los objetos del mismo o distinto tipo que aparecen a su
alrededor. Estas relaciones pueden ser de tipo puramente topológico (polígonos vecinos)
o de tipo físico (cauces tributarios que se conectan al cauce prncipal). Pueden codificarse
de forma explícita en la base de datos asociada al objeto o estar implícita en al codi-
ficación de su localización espacial. Estas relaciones pueden dar lugar a la creación de
tipos compuestos (redes, mapas de polígonos, etc.).
Además de los tipos de objetos simples pueden existir tipos complejos originados por la com-
binación de otros tipos. Por ejemplo un mapa de polígonos puede ser considerado un objeto
26
compuesto por varios polígonos complementarios vinculados unos con otros por relaciones de
contiguidad.
Uno de los ejemplos más típicos de objeto compuesto, son las redes. Pueden definirse como
un sistema interconectado de elementos lineales que forman una estructura espacial por la que
pueden pasar flujos de algún tipo. El análisis de redes tanto espaciales como aquellas que rep-
resentan relaciones de cualquier otro tipo ha recibido considerable atención durante toda la
segunda mitad de este siglo. El análisis de redes permite plantear y resolver un amplio conjunto
de problemas prácticos. Dentro del ámbito de las matemáticas existe una rama muy desarrollada
denominada teoría de grafos que estudia este tipo de objetos compuestos
Existen redes de muy diverso tipo, por ejemplo las redes de drenaje pertenecen a un tipo muy
específico que son los árboles (grafo sin circuitos) orientados (los flujos sólo pueden desplazarse
en un sentido). Estaría formada por un conjunto de lineas (cauces) con algunas características
propias que explican el modo en que tiene luhgar el transporte de los flujos.
Una red de comunicaciones podría definirse como una red de lineas (carreteras) de diverso
tipo y el conjunto de ciudades (nodos) que conectan. Un tipo de objeto más complejo pueden
ser la agrupación de tipos simples y complejos que tienen algún tipo de relación en cuanto
a transmisión de flujos de materia, energía y/o información. Una cuenca hidrográfica puede
considerarse como un area sobre la que se sitúan una serie de superficies, mapas de polígonos y
una red de drenaje. Estableciendose una serie de relaciones de transferencia de materia y energía
entre el area (escorrentía superficial) y la red de drenaje.
En Ciencias de la Tierra se maneja un gran número de datos de origen y naturaleza muy difer-
ente. Independientemente de que se trate de variables regionalizadas o de variables, espaciales
o no espaciales asociadas a on objeto, pueden distinguirse cuatro tipos de variables:
• Cuantitativas: Son variables mensurables que pueden adoptar cualquier valor, variables
continuas (altitud o temperatura) o sólo determinados valores, discretos (p.ej. número de
cauces de un determinado orden). Una variable continua puede convertirse en discreta por
su forma de medirse y registrarse.
En algunos casos pueden existir transformaciones de unos tipos de variables a otros. Por ejemplo
a partir de varios mapas de propiedades del suelo (cuantitativo continuo), puede construirse
por reclasificación un mapa de tipos de suelo (cualitativo). A la inversa, de una mapa de una
variable cualitativa (tipo de suelo) puede extraerse un mapa de porosidad, asignando a cada
punto el valor medio de su tipo de suelo o un valor obtenido a partir de dicho valor medio y
algún procedimiento que tome en consideración la variabilidad espacial de la porosidad.
• Malla de puntos
• Raster
Los tres pimeros pueden considerarse como híbridos entre el modelo raster y el vectorial ya que
se utilizan objetos compuestos (mallas de puntos, puntos interconectados o lineas) para repre-
sentar variables regionalizadas. El problema fundamental que plantean es que no representan a
la totalidad del espacio, por tanto requieren una interpolación más o menos compleja para saber
cual es el valor en un punto concreto. El modelo raster completa el espacio y la obtenicón del
valor en cualquier punto es inmediata.
Para representar objetos está el modelo Arco-Nodo (cuya mayor virtud es ahorrar memoria
y facilitar algunas de las operaciones de análisis SIG y el modelo Orientado a Objetos más
adecuado para la modelización.
De los seis modelos planteados, el modelo raster y el vectorial Arco-Nodo son los más utilizados
y los que se van a tratar a continuación en detalle. El debate acerca de la conveniencia de uno
28
u otro modelo ha dado lugar a una abundante bibliografía, la decisión entre un modelo u otro
debe, en todo caso, basarse en el tipo de estudio o enfoque que se quiera hacer, pero también
del software y fuentes de datos disponibles.
Para la representación de los objetos resulta más eficiente la utilización de un formato vecto-
rial. Sin embargo en el caso de los polígonos el modelo raster tiene la ventaja de facilitar la
respuesta a preguntas acerca de posiciones geográficas concretas. Las superficies se representan
más eficientemente en formato raster y sólo pueden representarse en formato vectorial medi-
ante los modelos híbridos (mallas de puntos, TIN e isolineas) que no resultan eficientes para la
realización de posteriores análisis.
Aspectos espaciales
Sin embargo una capa ráster tal como se codifica en un ordenador es simplemente una lista
de números sin ninguna georreferenciación explícita. Se necesita, por tanto, cierta información
sobre esta matriz que permita al programa y al usuario ubicarla en el espacio, leer sus valores y
entender su significado. Esta información incluye:
Hay una serie de convenciones acerca de la forma de representación. Así la primera columna en
una capa ráster es la de la izquierda, mientras que la primera fila será la superior aumentando
hacia abajo, en sentido contrario al que siguen las coordenadas geográficas y las representa-
ciones en un modelo vectorial. Todo ello da lugar a una serie de relaciones entre las variables
que definen la situación espacial de las celdas:
29
El múmero de celdas es nc nf .
Normalmente nsres y ewres son constantes y van a tener el mismo valor. En algunos casos no
es así, por ejemplo en el caso de imágenes de satélite de baja resolución que se ven afectadas
por la curvatura de la Tierra.
Las ecuaciones para obtener las coordenadas del centro de cada celda partiendo de su número
de columna y de fila son:
Estas dos últimas ecuaciones asumen además la convención de que la primera fila y la primera
columna son la fila 0 y la columna 0.
En relación con la visualización de mapas ráster en la pantalla de un ordenador, se requiere
solventar dos cuestiones básicas:
• La relación que hay que establecer entre valores y colores y la creación de una leyenda.
territorio en un formato raster pero no en un formato vectorial. Este hecho implica que los
algorítmos utilizados para las operaciones de álgebra de mapas son competamente diferentes.
En general las operaciones son más difíciles y exigen mayor tiempo de computación para el
formato vectorial.
Existen dos sub-modelos lógicos dentro del formato vectorial:
1. Los nodos de dos lineas en contacto deben tener las mismas coordenadas.
4. Se dispone de algún modo de codificar los polígonos isla. Se traa de los polígonos com-
pletamente rodeados por otro polígono
Finalmente hay que tener en cuenta la necesidad de incorporar la información espacial o no es-
pacial no extraible directamente de la localización. Para ello se utiliza una base de datos temática
asociada en las que una de las columnas corresponde al identificador de los objetos representa-
dos. En algunos casos se incluye información derivada de la localización (área, perímetro) en
esta tabla para utilizarla en operaciones matemáticas junto con el resto de las variables. A este
modo de trabajo se le llama modelo geo-relacional (figura 1.4).
31
Uno de los problemas del formato vectorial es que el paso del modelo lógico al digital puede
llevarse a cabo de modos muy diversos que dependen del programa con que se trabaje. El
resultado es un gran número de problemas en la importación y exportación de mapas de unos
modelos digitales a otros. Cuanto más completo sea el mapa (incluyendo topología y base de
datos enlazadas) más difícil será el cambio de formato.
En SIG podemos sustituir el concepto de escala por otro concepto, algo difuso, que es el de
precisión espacial de los datos. En el caso del formato raster la precisión se relaciona claramente
con el tamaño de las celdillas. Si hacemos un zoom excesivo aparecerán los bordes de estas
como advertencia de que la profundidad del zoom es excesiva, en el caso del formato vectorial
no tenemos este mecanismo de advertencia y en muchos casos se fuerzan los zoom para obtener
una precisión completamente ilusoria.
En el caso de los mapas de puntos, la resolución se relaciona con la distancia media entre los
puntos.
Cada uno de los modelos lógicos puede implementarse de diferentes formas dando lugar a es-
tructuras de datos (formatos de ficheros) diferentes y por tanto incompatibles entre diferentes
programas. Los formatos de ficheros pueden ser públicos (con lo cual resulta más sencillo de-
sarrollar herramientas de importación-exportación) o privados (con lo que para implementar
herramientas I/O habría que pagar derechos).
Cuando se codifica información espacial se distingue entre información (los datos crudos) y
metainformación (información necesaria para ubicarlos en el espacio e interpretarlos). A con-
tinuación se presenta como ejemplo los formatos de ficheros que utiliza GRASS para almacenar
información espacial.
Los modelos lógicos que utiliza GRASS son el raster y el vectorial (Arco-Nodo), Este último
puede utilizarse para implementar modelos TIN o de isolineas. Incluye un tercer formato lla-
mado lista de puntos (site_list) para datos puntuales y que puede utilizarse para implementar
mallas de puntos.
La figura 2.4 muesta como los distintos directorios conteniendo información y metainformación
cuelgan de un directorio que representa el mapset (espacio de trabajo) del usuario. Cada capa de
información esta compuesta por diversos ficheros (todos con el mismo nombre) almacenados
en diferentes directorios.
33
• Los datos en crudo, es decir los números que contienen las diferentes celdillas se almace-
nan en un fichero contenido en el directorio /cell (formato binario)
• El fichero que cuelga del directorio /colr guarda información acerca de la paleta de colores
que se va a utilizar para representar el mapa (formato ASCII).
• En el directorio /dig se almacenan los ficheros que contienen los datos vectoriales crudos,
es decir coordenadas que definen objetos puntuales, lineales, o poligonales (formato bi-
nario).
• En /dig_plus Se guardan ficheros que contienen una versión compacta, en un sólo fichero,
de la información definida en los ficheros almacenados en cada uno de los tres directorios
anteriores. Se genera con el comando v.support y es necesaria para cualquier tipo de
consula o análisis sobre los datos (formato binario).
• Los ficheros ASCII son mucho más largos (de dos a cuatro veces mayores) lo que es
especialmente relevante para el tipo de ficheros (muy grandes) que suelen manejarse en
un SIG.
• Es mucho más lento, primero por ser más largo y segundo porque el ordenador debe
transformar la cadena de dígitos que ha leído en un número.
• En el modelo raster, el formato binario permite acceso directo a los datos ya que, puesto
que todos los datos de un fichero tienen el mismo tamaño en bytes, podemos saber en que
punto del fichero se encuentra un determinado dato con sólo conocer su fila y columna.
36
El formato ASCII solo permite acceso secuencial, uno por uno, ya que no todos los datos
tienen el mismo tamaño en bytes y hay que buscarlo en el fichero.
2.4 Bibliografía
Gatrell,A.C. (1991) “Concepts of space and geographical data” en Maguire, D.J.; Goodchild,
M.F. and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and Applications.
John Wiley & sons pp. 119-134 (www.wiley.co.uk/wileychi/gis/resources.html)
Moolenar, M. (1998) An introduction to the theory of Spatial Object Modelling for GIS, Taylor
& Francis, Londres, 246 pp.
38
Tema 3
Sistemas de proyección.
Georreferenciación
1. un elipsoide
39
40
define un datum.
Establecer cual es el datum de un sistema de coordenadas es tarea de los servicios nacionales de
geodesia. En España, el datum utilizado tradicionalmente en cartografía, tanto en los mapas del
Servicio Geográfico del Ejercito (SGE) como en los del Instituto Geográfico Nacional (IGN),
es el Europeo. Este puede ser el de 1950 si el mapa esta "formado" (información que se obtiene
en la letra pequeña del margen del mapa) antes o durante 1979 o el europeo de 1979, si el mapa
esta formado después de este año. Ambos datum tienen como elipsoide el de Hayford, también
llamado Internacional de 1924, y como punto fundamental Postdam (Gran Bretaña).
El elipsoide de Hayford se define por los parámetros:
• a=6378388
• b=6356911.946
• Aplanamiento=1:297
perpendiculares definen los diferentes paralelos o lineas de latitud constante. Finalmente, los
diferentes planos que cortan el esferoide siendo paralelos al eje de rotación y perpendiculares al
Ecuador definen los meridianos o lineas de longitud constante. La longitud y latitud se miden
en grados sexagesimales, aunque ha habido intentos por introducir sistemas diferentes.
• Conformidad. Si un mapa mantiene los ángulos que dos líneas forman en la superficie
terrestre, se dice que la proyección es conforme. El requerimiento para que haya con-
formidad es que en el mapa los meridianos y los paralelos se corten en ángulo recto y que
la escala sea la misma en todas las direcciones alrededor de un punto, sea el punto que
sea.
• Equidistancia, cuando una proyección mantiene las distancias reales entre dos puntos
situados sobre la superficie del Globo (representada por el arco de Círculo Máximo que
las une).
42
Otra forma de clasificar las proyecciones es con referencia a la figura geométrica que genera
el plano bidimensional. Se habla entondces de proyecciones cilíndricas, cónicas y azimutales o
planas. En estos casos las distorsiones son nulas en la linea donde la figura corta al elipsoide y
aumentan con la distancia a esta. Para minimizar el error medio suelen utilizarse planos secantes
en lugar de planos tangentes.
El resultado es un plano en el que la Tierra, o una parte de la Tierra se representan mediante
un sistema de coordenadas cartesiano. El más conocido de todos y utilizado en España es la
proyección UTM. En la que la Tierra se divide en 60 husos con una anchura de 6 grados de
longitud. Las distorsiones son nulas en los lados y aumentan hacia el meridiano central (es
por tanto una proyección secante), especialmente cuando se incremente la latitud. Por tanto
la proyección UTM no debe usarse en latitudes altas y suele reemplazarse por proyecciones
azimutales polares. El meridiano central tiene siempre un valor X= 500.000 metros y en el
Ecuador Y=0 metros
3.2.1 Georreferenciación
El concepto de georreferenciación hace referencia a la asignación, a cada punto de la superficie
terrestre, de un par de coordenadas dentro de un sistema de coordenadas homogeneo. El prob-
lema de la proyección sería por tanto un caso particular de georreferenciación. Los problemas
habituales que deberán resolverse en un SIG son:
• Cambio de sistemas de coordenadas. Implica deshacer una proyección para obtener otra
vez coordenadas geográficas para posteriormente obtener coordenadas planas mediante
otra proyección.
43
En este último caso, las correcciones necesarias para restaurar a cada punto de la imagen sus
coordenadas reales se basan en ecuaciones polinómicas que permiten modificar de forma flex-
ible las coordenadas de la imagen. El orden del polinomio determina la flexibilidad del ajuste
y de la tranfomación, normalmente se emplean transformaciones de tipo lineal (polinomio de
grado 1), cuadrático (polinomio de grado 2) o cúbico (polinomio de grado 3).Los casos más
habituales son la transformación lineal y cuadrática:
X = A + Bc + Df (3.3)
Y = E + Gc + Hf (3.4)
X = A + Bc + Df + Ec2 + If 2 + Jcf (3.5)
Y = E + Gc + Hf + Kc2 + Lf 2 + M cf (3.6)
(3.7)
la transformación cúbica es más compleja, las ecuaciones son similares a las lineales y cuadráti-
cas pero inclyendo términos elevados al cubo.
Empleando el procedimiento de los mínimos cuadrados, se pueden calcular los valores de los
coeficientes A,B,..., N, a partir de las coordenadas de un conjunto de puntos de control. Como
regla general, el número de puntos de control debería ser mayor que el número de parámetros
que se van a calcular, 6 en la transformación lineal, 12 en la cuadrática y 24 en la cúbica.
Es importante determinar cual es el tipo de transformación más adecuada en función del tipo de
distorsiones que se supone que aparecen en la imagen y de la cantidad y calidad de los puntos
de control. Es necesario tener en cuenta que cuanto mayor sea el grado de los polinomios im-
plicados, más sensible será la transformación a errores en la selección de los puntos de control.
La transformación lineal es la más sencilla, se asume que no hay distorsión en la imagen y
simplemente se requiere una traslación (coeficientes A y E), cambio de escala (coeficientes B y
H) y rotación de la imagen (coeficientes D y G).
Por tanto si el origen de coordenadas de la imagen original es (c=0,f=0) y asumimos que la
rotación es despreciable (hemos colocado bien el mapa en el scanner) entonces:
• B y H factores de escala
• D=E=0
max(X) − min(X)
B= (3.8)
max(c) − min(c)
max(Y ) − min(Y )
H= (3.9)
max(f ) − min(f )
Casi todos los programas de SIG disponen de algún procedimientos para realizar este tipo de
transformación de coordenadas. En general se basan en una serie de etapas básicas:
1. Se busca una serie de puntos de control (generalmente lugares muy destacados y visibles)
y se averiguan las coordenadas de cada uno de ellos en los dos sistemas de coordenadas,
(X,Y) y (c,f). En el caso de los mapas escaneados, X e Y aparecen en la imagen con lo
que el procedimiento es más simple.
2. Determinación del tipo de transformación más adecuada en función del tipo de datos de
partida y del número de puntos de control que hayan podido encontrarse.
4. Se aplican las ecuaciones anteriores, con los valores calculados de los coeficientes, a todas
las coordenadas iniciales para obtener así sus nuevos valores en el sistema de referencia
final.
5. Transferencia la información de los pixels originales a los pixels resultantes del proceso
de transformación ya que con estas funciones de transformación va a crearse una nueva
matriz correctamente posicionada, pero vacia y posiblemente rotada (figura 3.5.b ). El
problema resulta más complejo de lo que pudiera pensarse a primera vista. Idealmente,
cada pixel de la capa transformada debería corresponderse a un solo pixel en la original.
Lo normal, sin embargo, es que el pixel de la nueva imagen se sitúe entre varios de la
original, incluso puede variar el tamaño de los pixels.
El trasvase de valores de la capa original a la transformada puede abordarse por tres méto-
dos dependiendo de la complejidad de la transformación realizada y del tipo de datos.
47
• Método del vecino más próximo. Sitúa en cada pixel de la imagen corregida el valor
del pixel más cercano en la imagen original. Esta es la solución más rápida y la que
supone menor transformación de los valores originales. Su principal inconveniente
radica en la distorsión que introduce en rasgos lineales de la imagen. Es la más
adecuada en caso de variables cualitativas, pero no en teledetección.
• Interpolación bilineal, supone promediar los valores de los cuatro pixels más cer-
canos en la capa original. Este promedio se pondera según la distancia del pixel
original al corregido, de este modo tienen una mayor influencia aquellos pixels más
cercanos en la capa inicial. Reduce el efecto de distorsión en rasgos lineales pero
difumina los contrastes espaciales.
• En la Convolución cúbica, se considera los valores de los 16 pixels más próximos.
El efecto visual es mas correcto en caso de que se trabaje con imágenes de satélite o
fotografías digitalizadas, sin embargo supone un volumen de cálculo mucho mayor.
3.3 Bibliografía
Maling,D.H. (1991) “Coordinate systems and map projections for GIS” en Maguire, D.J.;
Goodchild, M.F. and Rhind, D.W. (Eds.) Geographical Information Systems: Principles and
Applications. John Wiley & sons pp. 135-146 (www.wiley.co.uk/wileychi/gis/resources.html)
• http://www.gva.es/icv/GLOSARIO.HTM
• http://www.uco.es/ bb1rofra/documentos/proyecciones/proyecciones.html
• http://www.uco.es/ bb1rofra/documentos/utm/coordenadas_utm.html
• http://www.lsgi.polyu.edu.hk/cyber-class/geodesy/
• http://nivel.euitto.upm.es/ mab/tematica/htmls/proyecciones.html
• http://www.lsgi.polyu.edu.hk/cyber-class/geodesy/
• http://www.uco.es/ bb1rofra/documentos/proyecciones
48
Tema 4
Las operaciones que permiten obtener nuevas capas de información raster a partir de informa-
ción previa pueden dividirse en técnicas de interpolación (que se verán en el siguiente tema) y
herramientas de álgebra de mapas.
El álgebra de mapas incluye un amplio conjunto de operadores aritméticos y lógicos que se
realizan sobre una oa varias capas raster de entrada para producir una capa raster de salida. Por
operador se entiende un algoritmo que realiza una misma operación en todas las celdillas de una
capa raster. Estos operadores se definen mediante ecuaciones, por ejemplo el operador B = A ∗
100 genera una nueva capa (B) asignando a cada celdilla el valor de la celdilla correspondiente
multiplicado por 100. (figura 4.2). Se trata de operaciones entre capas raster completas, cada
una de ellas es una matriz de números y la operación se realiza para todos los números de la
matriz, para todas las celdillas de la capa raster.
Pueden definirse infinitos operadores, aunque normalmente se clasifican en función de las
celdillas implicadas en el cálculo en:
• Operadores locales
• Operadores de vecindad
• Operadores de area
• Operadores de area extendida
Pusto que los operadores de álgebra de mapas toman una o varias capas de entrada y producen
una capa de salida (figura 4.1), el análisis SIG puede concebirse como una especie de mecano
lógico mediante el cual diferentes piezas (operadores) se ensamblan formando análisis comple-
jos que, en definitiva, consituyen nuevos macrooperadores.
49
50
la función representada por f () puede ser aritmética, lógica o una combinación de ambas. El
caso más simple de operador local es la reclasificación o cálculo del nuevo valor a partir del
valor de la misma celdilla en otra capa:
Sin embargo se admiten casos más complejos utilizando varias capas basados en el álgebra de
mapas. Un buen ejemplo sería la estimación de la erosión potencial mediante el modelo de la
USLE E=R x K x S x L x C x P:
Zmx,y = (Z1x−1,y−1 +Z1x−1,y +Z1x−1,y+1 +Z1x,y−1 ++Z1x,y +Z1x,y+1 +Z1x+1,y−1 +Z1x+1,y +Z1x+1,y+1 )/9
(4.4)
52
La pendiente (figura ??) se puede estimar con diferentes procedimientos, los más habituales
utilizan la máxima diferencia entre el valor en el celdilla central y los valores de los celdillas
vecinos, o bien calculan una pendiente media. En algunos casos, celdillas correspondientes a
cauces en aplicaciones de tipo hidrológico, puede ser preferible considerar la pendiente en el
sentido del flujo. La orientación puede obtenerse como orientación media o como la dirección
hacia la que se sitúa la mayor pendiente.
1. Areas situadas a una distancia, inferior a un valor umbral, de un objeto definido por una
o varias celdillas. Se genera así una zona tampón (buffer). El resultado sería una capa en
la que se codificaría de un modo el objeto de otro modo el área tampón y de un tercero el
área exterior al tampon (figura 4.7.
54
2. Cuencas de drenaje. Dado un celdilla, incluye todos los pixels que drenan a este. Se trata
de un operador fundamental en el desarrollo de modelos hidrológicos.
4.4 Errores
Toda operación de álgebra de mapas implica la estimación de una variable a partir de otras, por
tanto implica la existencia de errores.
Los errores pueden proceder de las fuentes u originarse en el proceso de digitalización y poste-
rior procesado de los datos. Además los errores pueden propagarse y aumentar al llevar a cabo
55
operaciones con los datos. Sería deseable que las fuentes de los datos informaran acerca de los
errores esperables en los datos.
La digitalización supone errores en la localización de los objetos digitalizados. Un error de
digitalización de un milímetro en un mapa 1:50.000 supone un error de 50 metros que se añade
al propio error de partida del mapa.
Algunos de los operadores previamente tratados tienen capacidad para propagar y multiplicar
la magnitud de los errores. Si una pendiente tiene un error de + − 5% y elevamos al cuadrado
un valor de 20, el resultado estará entre 225 y 625 con lo que la indeterminación aumenta de
forma considerable.
El proceso de interpolación espacial consiste en la estimación de los valores que alcanza una
variable Z en un conjunto de puntos definidos por un par de coordenadas (X,Y), partiendo de los
que adopta Z en una muestra de puntos situados en el mismo área de estudio, la estimación de
valores fuera del área de estudio se denomina extrapolación. En algunos casos pueden utilizarse
otras variables de apoyo V a la interpolación/extrapolación. El área de estudio vendría definida,
aunque no de forma muy clara, por el entorno de los puntos en los que si se dispone de datos.
La interpolación espacial suele utilizarse para obtener mapas de variables. Lo más habitual es
partir de medidas puntuales (variables climáticas, variables del suelo) o de isolineas (curvas de
nivel), los métodos que se utilizan en uno u otro caso son bastante diferentes. Todos los métodos
de interpolación se basan en la presunción lógica de que cuanto más cercanos esten dos puntos
sobre la superficie terrestre más se parecerán, y por tanto los valores de cualquier variable
cuantitativa que midamos en ellos serán más próximo, para expresarlo más técnicamente, las
variables espaciales muestran autocorrelación espacial.
57
58
2. Si podemos aumentar el tamaño muestral (número de puntos) una vez hecho el muestreo
Por ejemplo, la interpolación de variables climáticas representa el peor de los casos ya que,
normalmente, la localización de los puntos de muestreo (estaciones meteorológicas) se decidió
hace tiempo y resulta claramente imposible aumentar su número para mejorar la interpolación
(aunque podría aumentarse el número para obtener mejores mapas en el futuro).
En el caso de un muestreo de campo de variables del suelo, podemos decidir donde medir y,
en función de los resultados, volver a muestrear en otros puntos, aumentando así, el tamaño
muestral.
Suponiendo que tenemos la posibilidad (y la responsabilidad) de hacer nuestro propio diseño
de muestreo, para ello nos debemos basar en el conocimiento previo que tengamos acerca de la
estructura de variación de la variable a interpolar. Los modelos básicos que podremos utilizar
(o incluso combinar) son los siguientes:
1. Muestreo regular
2. Muestreo aleatorio
3. Muestreo estratificado
4. Muestreo por agregados
Los dos primeros son los más adecuados cuando no conocemos nada acerca de la estructura de
variación. El muestreo regular puede dar problemas si la variable presenta un comportamiento
rítmico, el aleatorio por su parte puede dejar areas extensas sin muestras. Una solución de
compromiso sería un muestreo aleatorio estratificado en el que el espacio a muestrear se divide
en bloques que serán muestreados con un punto cuya ubicación dentro del bloque es aleatoria.
El muestreo estratificado es útil cuando tenemos una variable de apoyo, fácil de medir u ob-
servar, que sabemos que influye sobre la variable a interpolar, por ejemplo el tipo de suelo o la
topografía van a condicionar el contenido en sales. Un muestreo estratificado dividiría el área
de estudio en función de estas variables de apoyo para muestrear todos los posibles valores que
aparezcan. Si la variable de apoyo es cualitativa la división se hace mediante polígonos y si es
cuantitativa mediante un muestreo por transectos o isolineas.
Finalmente el muestreo por agregados se utiliza cuando el objetivo del muestreo no es tanto re-
alizar un mapa como conocer la estructura de variabilidad de la variable ya que permite analizar
la misma a diferentes escalas.
Finalmente, para seleccionar el método de interpolación y las variables de apoyo hay que tener
en cuenta además la escala del trabajo ya que los factores que expliquen la distribución es-
pacial de una misma variable pueden cambiar con la escala. Por ejemplo, a media escala las
59
propiedades del suelo variarán fundamentalmente en función de la roca; pero a escala de detalle
lo harán en relación con la topografía.
1. Métodos globales, utilizan toda la muestra para estimar el valor en cada punto de esti-
mación.
Los métodos de clasificación se basan en una serie de premisas que no se cumplen necesaria-
mente:
3. Los cambios en la variable Z en las fronteras entre clases se producen de forma brusca.
60
Figura 5.1:
Los métodos de regresión implican, como su nombre indica, un análisis de regresión previo
a partir del cual se genera un modelo de interpolación de tipo polinómico. Generalmente se
utilizan X e Y como variables de apoyo ya que no necesitan de ninguna medición, y también
alguna variable cuantitativa V espacialemente distribuida que se correlaciona de alguna forma
con ellas, un ejemplo habitual es la altitud, y otras variables topográficas derivadas, por su
facilidad de medida su evidente relación con casi todos los procesos ambientales y por las
posibilidades que un SIG ofrece en cuanto al tratamiento de la elevación e información derivada
(MDT).
El problema de los métodos globales es que sólo consiguen modelizar una componente a escala
global de la estructura de variación, pero no las componentes a escala más detallada. De hecho
no resulta recomendable utilizar polonómios de grado mayor que 3 ya que, a pesar de un ajuste
cada vez mejor, se hacen cada vez más sensibles a los valores extremos. Por tanto se utilizan
para filtrar esa componente global y eliminarla de los valores medidos para, posteriormente,
estimar tan sólo la componente local mediante métodos locales.
61
1. Cuales son los criterios para decidir que puntos cercanos van a formar parte del conjunto
de interpolación
2. Cual será el método de interpolación
Evidentemente los puntos que formen parte del conjunto de interpolación serán los más cer-
canos al punto de interpolación, es necesario decidir cual es la distancia máxima a partir de la
cual no incluiremos más puntos y el número de puntos mínimo para llevar a cabo la interpo-
lación con garantías. Tradicionalmente se ha hecho a ojo, sin embaergo la función semivari-
ograma, herramienta fundamental de la geoestadística, puede constituir un método objetivo.
Se trata de una función de la distancia entre dos puntos que hace corresponder a cada distancia
un medio de la media de las diferencias al cuadrado de los puntos situados a esa distancia. Si se
representa gráficamente esta función obtenemos un semivariograma experimental.
Pnh
i=1 (Zi,1 − Zi,2 )2
γ(h) =
2nh
donde nh es el número de pares de puntos situados a una distancia h, Zi,1 y Zi,2 los valores de
Z en los dos puntos (situados a una distancia h) que constituyen el par i.
Un semivariograma experimental tiene diversas propiedades:
Resulta evidente que el conjunto de interpolación debería incluir a aquellos puntos con dato
situados a una distincia menor que el rango del punto en erl que queremos interpolar.
Respecto al criterio de interpolación existen varias posibilidades:
62
4. Krigeado (geoestadística)
El método del vecino más próximo es el que se utilizaba cuando no había ordenadores, consiste
simplemente en asignar a cada punto el valor de Z del observatorio más cercano.
La media sin ponderación es similar al anterior, ahora se utilizan N puntos y se calcula la media
Sin embargo es lógico pensar que cuanto más apartados esten dos puntos más diferentes serán
sus valores de Z. Para tener en cuenta este hecho se utilizan medias ponderadas utilizando
como factor de ponderación funciones del inverso de la distancia. El criterio de ponderación
más habital es el inverso de la distancia elevado al cuadrado.
El método del krigeado calcula unos coeficientes de ponderación (función de la distancia) a par-
tir de los resultados obtenidos con la función semivariograma. Es bastante complejo matemáti-
camente y muy exigente en cuanto a la calidad de la muestra de puntos y la variable que se
interpola. Si esta no es adecuada son preferibles los modelos de medias ponderadas que son los
más utilizados tradicionalmente debido a la sencillez de su manejo y a su robustez. Además hay
que tener en cuenta que normalmente la función semivariograma se calcula globalmente sin que
se hayan hecho demasiados estudios sobre su variación espacial.
El método de los splines ajusta funciones polinómicas (como en una interpolación global me-
diante regresión) pero ahora localmente, en general producen resultados muy buenos con la
ventaja de poder modificar una serie de parámetros en función del tipo de topografía.
La técnica més habitual es calcular en primer lugar una superficie de tendencia y con los resid-
uales de la misma utilizar algún método de interpolación local.
Figura 5.2:
Figura 5.3:
64
3. Interpolación
4. Análisis de errores
65
Existen tres problemas fundamentales que pueden dar lugar a errores y que a veces no son
fáciles de corregir:
1. Las curvas deben estar cerradas y deben cortar los límites de la capa raster creada
3. Las curvas de nivel rasterizadas mantienen su valor con lo que el MDE adquiere un as-
pecto abancalado
4. Tanto en GRASS (hasta la versión 4.3) como en IDRISI, el resultado es un MDE con val-
ores enteros por lo que en las zonas llanas se puede producir un abancalamiento artificial
si las unidades en que se mide la altitud no pemiten una relación equidistancia de curvas
de nivel/número de pixels entre curvas de nivel adecuado.
Figura 5.5: Curvas de nivel rasterizadas con tamaño de pixel demasiado grande
67
Figura 5.10: MDE obtenido multiplicando por 10 la altitud de las curvas de nivel
Uno de los elementos básicos de cualquier representación digital de la superficie terrestre son
los Modelos Digitales de Terreno. Se denomina así al conjunto de mapas que representan dis-
tintas características de la superficie terrestre. Algunas definiciones limitan estas a las que se
derivan de un mapa de elevaciones (Modelo Digital de Elevaciones) mientras que otras incluyen
prácticamente cualquier variable reginalizada.
Siguiendo la primera de estas aproximaciones se va a considerar al mapa de elevaciones (MDE)
como la pieza clave de un MDT y por tanto aquella que va a requerir más atención en su
obtención.
6.1 MDE
Debido a que una de las aplicaciones más extenidas de los MDE es la visualización tridimen-
sional del relieve, los modelos TIN (red irregular de triángulos) han sido ampliamente utiliza-
dos. Sin embargo cuando el objetivo es el análisis de la superficie terrestre es preferible la
utilización del modelo raster.
Existen diversos métodos para construir un MDE:
• Métodos directos
71
72
• Métodos indirectos
– Restitución (a) fuente digital (imágenes de satélite), (b) fuente analógica (fotografía
aérea)
– Digitalización de curvas de nivel de un mapa mediante escáner o tablero digital-
izador.
• independencia espacial,
74
• no autocorrelación.
Un estadístico válido como aproximación global es el error cuadrático medio que se define
como:
v
u n 2
uX
u
u x,y
t i=1
¯ = (6.2)
N
Pendiente
La pendiente en un punto del terreno se define como el ángulo existente entre el vector normal
a la superficie en ese punto y la vertical. Su estimación es sencilla a partir del MDE y se basa
en el cálculo de la pendiente de un plano de ajuste en cada punto o celda del modelo.
75
Orientación
La orientación en un punto puede definirse como el ángulo existente entre el vector que señala
el Norte y la proyección sobre el plano horizontal del vector normal a la superficie en ese punto.
Como en el caso de la pendiente, el valor de orientación se estima directamente a partir del
MDE.
Curvatura
La existencia de zonas de sombra es una variable de gran interés en regiones montañosas, donde
el relieve puede ser el factor determinante más importante del clima local. Se define la insolación
potencial en un punto como el tiempo máximo que ese lugar puede estar sometido a la radiación
solar directa en ausencia de nubosidad. La insolación potencial depende directamente del ángulo
de incidencia del sol respecto a la superficie terrestre y del ocultamiento topográfico ante una
trayectoria concreta del Sol.
La insolación potencial se expresa en unidades energía partido por espacio y se refiere a un
instante concreto. Puede, sin embargo, integrarse para períodos de tiempo mayores de tiempo
mayores.
La relación entre cada celda y la superficie de referencia se realiza mediante un índice de ex-
posición definido como el cociente entre la radiación solar incidente sobre un lugar del terreno
y la superficie de referencia. El cálculo de los índices de exposición nos da un parámetro cuan-
titativo útil a la hora de comparar las condiciones ambientales en una zona determinada ya que
representan una medida objetiva de las diferencias dentro del área del modelo basada exclusi-
vamente en criterios geométricos.
El ángulo solar resulta además de utilidad en aplicaciones relacionadas con la teledetección
(corrección por iluminación y cálculo de reflectividades).En cuanto a la radiación recibida se
utiliza en:
78
Figura 6.3: Insolación recibida el 17 de Enero a las 10:00 AM hora solar (r.sun)
79
Los modelos de visibilidad establecen el area que se puede ver desde un punto y, por tanto, el
area desde la que puede verse ese punto. El primer caso puede ser útil para el diseño de redes
de control (de incendios forestales por ejemplo), el segundo como criterio a la hora de ubicar
infraestructuras desagradables (vertederos).
Dos puntos serán mutuamente visibles si la linea recta que los une tiene siempre una altitud
superior a la del terreno. La cuenca visual de un punto base sería entonces el conjunto de puntos
de un MDE que son mutuamente visibles con dicho punto base.
El análisis de cuencas visuales puede utilizarse para la evaluación del impacto visual de actua-
ciones con efectos negativos sobre el paisaje. Es posible construir un modelo de visibilidad,
donde cada punto tiene asignado un valor proporcional a la extensión de su cuenca visual. Un
modelo de este tipo puede servir de base objetiva para la toma de decisiones ya que permite
conocer y comparar con fiabilidad la incidencia visual de las alternativas existentes.
81
1. Un conjunto de puntos con altitud medida sobre el terreno (GPS o estación topográfica)
2. Curvas de nivel digitalizadas de un mapa
3. Restitución a partir de fotografía aerea o imágenes de satélite, es un procedimiento caro
y dificultoso
6.4.6 Prácticas
Visualiza el histograma de elevaciones Calcula el mapa de pendientes y orientaciones Obtén y
visualiza transectos con d.profile Compara el mapa de cauces generado artificialmente del MDE
(r.watershed) con el que obtendrías tu de las curvas de nivel. Donde observas los fallos?
84
Teledetección
Teledetección es la técnica que permite obtener información a distancia de objetos sin que
exista un contacto material. Para que esta observación sea posible es necesario que, aunque sin
contacto material, exista algún tipo de interacción entre los objetos situados sobre la superficie
terrestre y un sensor situado en una plataforma (satélite, avión, etc.).
En este caso la interacción va a ser un flujo de radiación que parte de los objetos y se dirige
hacia el sensor (figura 7.1). Este flujo puede ser, en cuanto a su origen, de tres tipos:
Las técnicas basadas en los dos primeros tipos se conocen como teledetección pasiva y la última
como teledetección activa.
La radiación (solar reflejada, terrestre o emitida por el sensor y reflejada) que llega de la su-
perficie terrestre y que ha atravesado la atmósfera, es almacenada en formato digital. Una vez
recuperados los datos en el centro de control del satélite, permitirán obtener información acerca
de la superficie terrestre y de la atmósfera. El tipo de información que se obtiene dependerá de
la longitud de onda en la que el sensor capte radiación.
85
86
Cualquier objeto en la naturaleza emite radiación y lo hace con diferentes longitudes de onda.
La cantidad de energía que emite un cuerpo por radiación como la distribución de esta energía
en diferentes longitudes de onda depende fundamentalmente de la temperatura de dicho cuerpo.
A mayor temperatura menor longitud de onda. La cantidad de energía emitida es proporcional
a la cuarta potencia de la temperatura
87
• Atmósfera despejada:
• Nubes :
• Agua:
• Superficie terrestre:
– ρ y α muy variable
– τ nulo
De este modo aparecen una serie de regiones en el espectro en las que la radiación es absorbida
por uno o varios de los gases. Esto deja, por otro lado, regiones del espectro en las que no se
produce absorción, son las denominadas ventanas atmosféricas.
• Varias en el infrarrojo medio (1.5 - 1.8 µ; 2 - 2.4 µ; 2.9 - 4.2 µ; 4.5 -5.5 µ)
89
• Infrarrojo térmico (8 - 14 µ)
Problema aparte supone la aparición de partículas líquidas (nubes, figura 7.3) o sólidas (figura
??) que reflejan gran parte de la radiación solar que reciben. La snubes emiten su propia ra-
diación en el infrarrojo térmico, diferente a la terrestre debido a su menor temperatura, con lo
que ocultan la superficie terrestre en ambas regiones del espectro. Debido a la saturación en
vapor de agua, su capcidad de absorber radiación en la banda de absorción del vapor de agua
dependerá de su espesor.
A la hora de diseñar un sensor, existen tres posibilidades fundamentales:
• Captar radiación solar reflejada por la superficie (en una longitud de onda correspondiente
a una ventana atmosférica)
• Captar radiación de una banda en la que un gas presente una elevada capacidad de absor-
ción para así estimar la concentración de este gas. Canto menos radiación llegue mayor
será la cantidad de gas.
90
Las bandas de Meteosat (figura 7.4) son un ejemplo de cada una de estas posibilidades.
Figura 7.4: Imágenes de cada uno de los canales del satélite Meteosat
Esta curva tan contrastada se debilita en el caso de la vegetación enferma en la que disminuye el
infrarrojo y aumenta la reflectividad en el rojo y azul. Se observa también que la reflectividad de
una planta depende de su contenido en agua. Cuando el contenido de agua aumenta disminuye
la reflectividad ya que aumenta la absorción de radiación por parte del agua contenida en la
planta.
Finalmente el suelo tiene una reflectividad relativamente baja para todas las bandas aunque
aumentando hacia el infrarrojo. La signatura espectral es más simple que en el caso de la veg-
etación. Sin embargo la reflectividad del suelo va a depender mucho de la composición química
y mineralógica, la textura (el albedo de las arenas es mayor que el de las arcillas), del contenido
de agua (a mayor humedad menor reflectividad) y de matería orgánica (también contribuye a
disminuir la reflectividad). Estos últimos factores están interrelacionados por lo que no es fácil
establecer cual es el responsable de los cambios del albedo.
• Resolución temporal (tiempo que tarda el satélite en tomar dos imágenes del mismo sitito)
La altura a la que se sitúa el satélite y sus movimientos van a condicionar las características
geométricas y la resolución temporal de las imágenes que producen (figura 7.6).
Los satélites que como meteosat se sitúan en órbita geoestacionaria (36.000 Km) permanecen
fijos y producen una imagen que abarca la mayor parte de la porción del globo terrestre a la
93
que apuntan, sin embargo las distorsiones que aparecen hacia los polos limitan su utilización
a la porción entre 50o N y 50o S. El area de la superficie abarcada por cada pixel es necesari-
amente grande (2500 o 5000 metros dependiendo de las bandas) su resolución espacial es por
tanto pequeña. Al permanecer fijos su resolución temporal puede ser muy grande, en el caso de
Meteosat hay una imágen cada 30 minutos
Banda a0 a1 E0
1 (Azul) -6.2 0.768 1970
2 (Verde) -6 0.818 1843
3 (Rojo) -4.5 0.64 1555
4 (Infrarrojo a) -4.5 0.635 1047
5 (Infrarrojo b) 1 0.128 227.1
6 (Infrarrojo térmico)
7 (Infrarrojo c) -0.35 0.0424 80
Tabla 7.2: Parámetros del sensor Landsat TM
El cero índica que no llega nada de radiación desde ese punto y el 255 que llega el valor más
alto de radiación. Estos valores se denominan Niveles Digitales y será necesario transformarlos
en algún tipo de variable física.
La primera transformación que se lleva a cabo es su conversión a valores de energía recogida
por el sensor. Normalmente a través de una ecuación lineal cuyos parámetros se suministran
junto con la imagen. En la tabla 2 aparecen los parámetros para las 6 bandas más utilizadas del
sensor LANDSAT -TM, junto con la irradiancia solar extraterrestre, cantidad de energía solar
que llega al límite de la atmósfera que se utiliza para calcular la reflectividad.
Las seis matrices pueden verse individualmente, asignando a cada valor un tono más claro u
oscuro, en niveles de gris o de algún otro color, o bien formando una combinación de colores.
Puesto que se trata de imágenes rectangulares formadas por pixeles resultan muy apropiadas
para su tratamiento visual o numérico con un programa adecuado. Los programas más idóneos
serían los de análisis de imagen para el tratamiento visual y los Sistemas de Información Ge-
ografía para el análisis numérico y para su combinación con otro tipo de información espacial.
Posteriores transformaciones implicarían:
• Corrección de las distorsiones que la atmósfera puede introducir en la imagen para obtener
la cantidad de energía reflejada por la superficie terrestre
• Cálculo de la cantidad de radión solar que llega a cada pixel del terreno desde el sol,
teniendo en cuenta el efecto de solana-umbría
Una vez que se dispone de los valores de reflectividad los enfoques habituales en trabajos de
teledetección son:
96
• Clasificación de la imagen
• Color real
• Falso Color
• Composición IGN
97
Si se obtiene una composición que se considera adecuada, podemos crear un nuevo mapa a
partir de ella con el comando i.composite. Este nos pide el grupo de mapas con el que queremos
trabajar, nos permite asignar un mapa a cada banda de color y a continuación pide el número de
niveles de color (cuanto más alto más detallada saldrá la imagen, 10 es un valor adecuado).
ρ4 − ρ3
N DV I = (7.1)
ρ4 + ρ3
siendo por tanto fácil de programar con r.mapcalc. Cómo?
Existen índices de vegetación más elaborados pero este tiene la ventaja de ser muy intuitivo ya
que se basa en el hecho de que la vegetación tiene una reflectividad muy alta en el infrarrojo
próximo (banda 4) y muy baja en el rojo (banda 3). Por tanto clos pixels con mayor densidad
de cubierta vegetal tendrán valores altos y los de suelo desnudo valores bajos.
Para visualizar adecuadamente el mapa de NDVI cambiale la paleta de colores a la ryg.
SE han desarrollado otros índices para relacionar los valores de reflectividad con otras variables
físicas como la humedad del suelo (transformación tasseled cap) o la litología.
98
aunque pueden utilizarse otro tipo de distancias. Para estimar los valores de X1, X2,...,Xn para
las diferentes clases se utiliza la media aritmética de los valores de los pixels incluidos en la
clase.
Puesto que en la práctica no podemos saber con certeza a que clase corresponde cada uno de
los pixels, el problema de la clasificación se convierte en un problema de probabilidad de perte-
nencia a cada una de las clases de un conjunto, por tanto se suelen usar métodos estadísticos.
El procedimiento de clasificación supone dos fases:
• Adjudicación de cada uno de los pixels del terreno a las clases previamente definidas
Clasificación supervisada
Para ello podemos visualizar un mapa con una composición en color y digitalizar (con el módulo
r.digit una serie de areas de entrenamiento. Podemos distinguir en esta imagen cuatro clases
informacionales fundamentales:
• Regadio
• Secano
• Vegetación natural
• Areas abarrancadas
Un ejemplo de mapa en color para obtener areas de entrenamiento y de las areas obtenidas
puede verse en los mapas coloroif y training.
d.rast coloroif;d.rast -o training;d.what.rast
Evidentemente el proceso de selección de areas de entrenamiento debería hacerse en el campo
con GPS y el mismo día en el que pasa el satélite (o lo más próximo posible).
Una vez seleccionadas las areas de entrenamiento el módulo i.gensig generará las signaturas
espectrales de las mismas a partir del grupo y subgrupo de mapas que contiene las bandas y las
areas. El resultado se almacena en un fichero de signaturas espectrales.
Una vez obtenidas las clases informacionales y espectrales, resulta útil compararlas para deter-
minar las clases con las que se trabajará finalmente.
Los métodos no estadísticos podrían programarse con r.mapcalc (aunque sería un poco com-
plejo). Como método estadístico fundamental está el algoritmo de máxima verosimilitud o
máxima probabilidad que es el que utiliza el módulo de GRASS i.maxlik.
Este necesita simplemente el grupo y subgrupo de mapas, el fichero de signaturas espectrales
y generará un mapa con la ubicación de las clases generadas y otro con una medida de la
probabilidad de pertenencia a la clase asignada.
101
Este último mapa sirve para determinar cuales de las areas asignadas deberían considerarse
como inclasificables.
Los métodos basados en inteligencia artificial se están introduciendo poco a poco en los SIG.
En GRASS se dispone ahora mismo de clasificación contextual (módulos i.gensigset y i.smap),
se está desarrollando un módulo de redes neuronales (r.nntool) actualmente no dsiponible en
GRASS para PC y podría utilizarse la lógica borrosa desarrollando programas complejos que
utilizan masivamente los programas ya disponibles.
Existe tambien un módulo que permite evaluar la calidad de una clasificación, se trata de
r.kappa.
102
Tema 8
Formato vectorial
8.1 Introducción
El formato de datos vectorial resulta más adecuado que el raster cuando se manejan datos que
suponen un valor promediado sobre una extensión de territorio que se considera homogenea, los
límites pueden ser arbitrarios o no (por ejemplo estadísticas municipales, datos piezométricos
en acuíferos, etc.) o cuando se asignan datos a elementos lineales (carreteras, ríos, etc).
El formato vectorial admite 3 tipos fundamentales de datos (puntos, lineas y polígonos). Los
puntos se codifican en formato vectorial por un par de coordenadas en el espacio, las lineas como
una sucesión de puntos conectados y los polígonos como lineas cerradas (formato orientado a
objetos) o como un conjunto de lineas que constituyen las diferentes fronteras del polígono
(formato Arco/nodo).
El trabajo en un SIG vectorial se basa en el enlace de una base de datos espacial (uno o más
mapas vectoriales) con una base de datos temática (formada por una o varias tablas). El enlace
se realiza mediante una columna en la base de datos que contiene los identificadores de los
polígonos.
Una base de datos temática es un fichero de base de datos (access, postgres, dbase, etc.) formado
por varias tablas (similares a las varias tablas de una hoja de cálculo) relacionadas por algún
campo común. El acceso a estas tablas es algo más complejo que en una hoja de cálculo y suele
hacerse mediante lenguajes de consulta. EL más utilizado es SQL (Lengujae Estructurado de
Consultas).
Normalmente a cada objeto definido en la base de datos espacial se le asigna un identificador
único, no un valor. Ese identificador servirá para enlazar el objeto con una fila de una tabla
almacenada en una base de datos, normalmente una base de datos relacional, en la que cada fila
103
104
representa los objetos en un mapa (lineas, puntos o polígonos) y cada columna una determinada
variable.
Una base de datos relacional es básicamente un conjunto de tablas, similares a las tablas de una
hoja de cálculo, formadas por filas (registros) y columnas (campos). Los registros representan
cada uno de los objetos descritos en la tabla y los campos los atributos (variables de cualquier
tipo) de los objetos. En el modelo relacional de base de datos, las tablas comparten algún campo
entre ellas. Estos campos compartidos van a servir para establecer relaciones entre las tablas que
permitan consultas complejas.
murcia=# d
List of relations
Name Type Owner
edades table alonso
municipios table alonso
olivares table alonso
poblacion table alonso
sectores table alonso
uso_suelo table alonso
murcia=# d uso_suelo
105
Puede verse que todas las tablas comparten un campo común con un identificador, único para
cada uno de los municipios, que es el mismo que aparece en la base de datos espacial.
SQL es un lenguaje que puede considerarse estandard para la consulta a base de datos rela-
cionales. Se trata de un lenguaje muy sistemático, sencillo y con una curva de aprendizaje muy
agradable. Incluye diversos tipos de capacidades:
• Asignación y comandos de impresión: es posible imprimir una tabla construida por una
consulta o almacenarla como una nueva tabla.
• Funciones agregadas: Operaciones tales como promedio (average), suma (sum), máximo
(max), etc. se pueden aplicar a las columnas de una tabla para obtener una cantidad única
y, a su vez, incluirla en consultas más complejas.
• Consultas complejas que involucran diversas tablas relacionadas por un campo común.
ident nombre
1 Abanilla
2 Abarán
3 Águilas
4 Albudeite
5 Alcantarilla
6 Alcázares (Los)
7 Aledo
8 Alguazas
9 Alhama de Murcia
10 Archena
11 Beniel
12 Blanca
13 Bullas
14 Calasparra
15 Campos del Río
16 Caravaca de la Cruz
17 Cartagena
18 Cehegín
19 Ceutí
20 Cieza
21 Fortuna
22 Fuente Álamo
23 Jumilla
24 Librilla
25 Lorca
26 Lorquí
27 Mazarrón
28 Molina de Segura
29 Moratalla
30 Mula
31 Murcia
32 Ojós
33 Pliego
34 Puerto Lumbreras
35 Ricote
36 San Javier
37 San Pedro del Pinatar
38 Santomera
39 Torre Pacheco
40 Torres de Cotillas (Las)
41 Totana
42 Ulea
43 Unión (La)
44 Villanueva del Río Segura
45 Yecla
107
Indicando que la tabla municipios tiene 2 columnas (identificador y nombre del municipio) y
tantas filas como términos municipales. Comprueba que los identificadores en esta tabla coin-
ciden con los de la base de datos espacial (los que se obtienen con d.what.vect).
Pueden combinarse varias tablas mediante operaciones de SQL más complejas. Cuando se com-
binan tablas suele introducirse un alias simplificado para las tablas (la primetra letra por ejem-
plo). A continuación un ejemplo de combinación de varias tablas y del uso de operaciones
aritméticas para construir consultas más complejas:
Con esta operación se ha obtenido la tasa de crecimiento entre 1981 y 1991 en tantos por mil.
Podemos pensar en un mapa vectorial como en una tabla en la que cada registro (fila) es un
objeto (polígono, linea o punto) que contiene un campo identificador y un campo que contiene
la localización (conjunto de coordenadas X e Y de tamaño, lógicamente, variable). El hecho de
que esta información se presente en forma de tabla o en forma de mapa es simplemente una
cuestión de conveniencia. En cualquier ejemplo de SIG vectorial podemos distiguir entre :
Para ello se utiliza el comando d.vect.sql.sh que permite enlazar un mapa con una base de datos
y obtener los resultados de una consulta SQL.
110
Figura 8.1: Municipios con crecimiento de población positivo entre 1981 y 1991
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>0’ color=blue
Una consulta similar a la anterior pero estableciendo una reclasificación por colores puede hac-
erse con órdenes sucesivas:
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>0’ color=blue
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>50’ color=green
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>100’ color=yellow
d.vect.sql.sh mapa=mun30 base=murcia sql=’select ident from poblacion where p1981>0 and
(1000*(p1991-p1981)/p1981)>200’ color=red
Figura 8.2: Municipios con crecimiento de población positivo entre 1981 y 1991
en el que el color rojo indica valores mayores de 200, el amarillo entre 100 y 200, el verde entre
50 y 100, el azul entre 0 y 50 y el blanco menor de 0.
• Módulos generales:
• Módulos de visualización:
112
– d.what.r.pg
– d.what.s.pg
– d.what.v.pg
– v.in.shape.pg
– pg.in.dbf
Como ejemplo vamos a ver el comando d.vect.pg. En primer lugar hay que enlazar la base de
datos a GRASS
g.select.pg host=localhost database=murcia
Posteriormente podemos obtener listados de las tablas disponibles: g.table.pg y de las columnas
disponibles en una tabla g.column.pg -v table=tabla. Podemos tambier obtener directamente
algunas propiedades estadísticas sencillas de las columnas en la base de datos: g.stats.pg ta-
ble=poblacion column=p1991 que producirá el siguiente resultado:
>Executing
La opción -f dará las frecuencias en lugar de estos estadísticos, probad: g.stats.pg -f table=poblacion
column=p1991 Puede tambien limitarse el cálculo de estadísticos a aquellos registros que cum-
plan una determinada condición con el parámetro where. Este recibe entre comillas una condi-
ción en lenguaje SQL: g.stats.pg table=tabla column=poblacion where="p1991>10000"
Prácticamente todos los cálculos que se llevan a cabo en un SIG vectorial se fundamentan en
algoritmos cuya base son 3 funciones básicas:
entendiendo por segmento la linea recta entre dos vértices. El primero es trivial, el segundo se
resuelve cómo la suma de las áreas del triángulo y el rectángulo bajo el segmento (8.3 A)
El punto de corte entre dos segmentos es aquel que resulta de resolver el sistema de que forman
las ecuaciones de las dos rectas que, supuestamente, se cruzan:
Y = A1 X + B1 (8.1)
Y = A2 X + B2 (8.2)
si el sistema tiene solución y el punto resultado está dentro del cuadrado mínimo formado por
los extremos de los segmentos, entonces es el punto de corte (figura 8.4)
A partir de estas variables se puede obtener:
• Area de un polígono es la suma de todas las áreas bajo los segmentos de un polígono (8.3
B,C,D), teniendo en cuenta que las áreas bajo los segmentos en los que X2 > X1 son
positivas (8.3 C) y las áreas bajo los segmentos en los que X2 > X1 son negativas (8.3 D)
• Se trabaja con el mismo conjunto de objetos, es decir con el mismo mapa y diferentes
variables.
El primer caso se resuelve con las técnicas vistas anteriormente para combinar columnas de la
misma o de distintas tablas con SQL. El segundo requiere la intersección de ambos mapas para
obtener un nuevo conjunto de polígonos y una nueva tabla en la base de datos que relacione
los identificadores de los polígonos resultantes de la intersección con los identificadores de los
polígonos originales. En el siguiente ejemplo se va a cruzar el mapa de municipios con el de
acuíferos que aparece en la siguiente pantalla.
116
Hasta ahora todos los temas tratados se han enfocado a la consulta y análisis de datos en un
Sistema de Información Geográfica, obviándose la fase de creación del SIG y sus bases de
datos. La tendencia actual es que los diferentes organismos desarrollen sus propios proyectos
de SIG. Además, la información básica está, cada vez más en formato SIG. En consecuencia
la labor fundamental de los futuros trabajadores del SIG será el análisis más que la creación
de las bases de datos. Sin embargo es necesario conocer los aspectos relativos al desarrollo de
proyectos SIG debido a diversas razones:
• Seguirá siendo necesario cuando los SIG se utilicen en investigación básica medioambi-
ental. Este tipo de trabajo suele necesitar del desarrollo de nuevas bases de datos.
• Aunque la información este en formato SIG existen diferentes modelos de datos. Todavía
no se ha conseguido crear un formato estandard a pesar (o quizas precisamente por ello)
existen más de 25 organizaciones encargadas de buscar el estandard. El problema no es
técnico sino político, por lo que la posibilidad de solucionarlo en breve parece remota.
Uno de los proyectos más interesantes es opensig (http://www.opengis.org/).
• Todo SIG necesita actualización constante, sino es un proyecto muerto. Esta actualización
no significa sólo nuevas capas de información sino que tambien puede suponer un re-
planteamiento global de la base de datos.
• Aún trabajando en la misma zona dos proyectos SIG pueden ser absolutamente diferentes
debido a las diferencias en la escala de trabajo, por tanto un proyecto a una escala poco
habitual puede significar la necesidad de comenzar un proyecto desde cero.
• Cada vez se considera más a los SIG como una herramienta útil en cualquier tipo de
empresa con un volumen de negocios importante. Por tanto no hay que descartar la posi-
bilidad de ser contratado para trabajar con SIG en cualquier empresa.
117
118
• ¿Quién es el cliente?
• ¿Cual es el objetivo?
El cliente puedo ser yo mismo si estoy haciendo una tesis, una empresa, en caso por ejemplo de
una evaluación de inpacto ambiental, o la administración (trabajos de ordenación del territorio).
El objetivo puede ser la resolución de un problema concreto (EIA, comprobación de una hipóte-
sis) o el desarrollo de una base de datos para ser usada posteriormente. Para cumplir este
objetivo necesito una serie de datos de partida (que formarán la base de datos) y una base
teóricaconstituida por el conjunto de algoritmos y modelos que me permitirán pasar de los
datos de partida al resultado. Al fin y al cabo un SIG es un SISTEMA con entradas que se
convierten en salidas tras pasar por una serie de transformaciones provocadas por la estructura
del SISTEMA. Normalmente un programa de gestión de SIG incluye un conjunto de modelos
y algoritmos (a veces complementarios a veces alternativos) que se organizan normalmente de
forma modular (no existe un único programa sino diversos módulos que ejecutan tareas sencil-
las) ya que los SIG se desarrollaron en entornos UNIX, para facilitar su uso.
Sin embargo sería un error limitar un proyecto de SIG a un programa. Uno de los mandamientos
de los SIG debiera serlo importante son los datos no el programa. Por lo que no hay ningún
problema en utilizar diferentes programas en forma combinada. De hecho, tradicionalmente se
han utilizado programas de CAD para digitalizar, paquetes estadísticos para el análisis de datos,
programas de gestión de bases de datos no espaciales(DBMS), etc. de forma complementaria a
los programs de gestión de SIG .
119
La potencia informática requerida viene determinada por el tipo de módulos que se van a uti-
lizar y el volumen (número y tamaño de los ficheros) de la información de partida. Hoy en día
la potencia informática es un problema menor ya que los ordenadores son lo suficientemente
potentes para manejar grandes volúmenes de datos sin demasiados problemas. Sin embargo,
e trabajo con SIG, especialmente si hay que desarrollarlo desde cero puede llegar a consumir
mucho tiempo, por ello es necesario tener en cuenta los recursos humanos con los que cuenta
el proyecto y su nivel de preparación. Normalmente los proyectos se encargan muy ajustados
de tiempo. Una posibilidad es la automatización de tareas de manera que los programas desar-
rollen las tareas sin necesidad de intervención humana. Los sistemas UNIX son idoneos para la
automatización de tareas que resultan más complejas en sistemas windows. La automatización
de tareas en SIG se ha desarrollado gracias a los lenguajes de SCRIPT o MACROS. Se trata
de lenguajes sencillos que realizan operaciones de alto nivel. En UNIX se disponde de diversos
entornos SHELL, AWK, TCL/TK, PERL que son perfectamente integrables. ArcInfo desarrollo
en principio un lenguaje de macros AML, despues otro más potente AVENUE y finalmente se
ha optado en la última versión por utilizar VisualBASIC.
El problema de la automatización es que los resultados intermedios pueden pasar sin revisión
y colar algunos errores. Finalmente el presupuesto es indispensable ya que deberemoscomprar
todo lo que nos falte. En caso de estar en una empresa o en un centro de investigación habría
que valorar la viabilidad financiera del proyecto antes de ponerlo en marcha.
Un problema que suele plantearse es el de la escala de trabajo. Cuando se trabaja en SIG es
imprescindible distinguir entre dos escalas:
• Escala a la que ocurren los fenómenos que se estudian (escala de trabajo y de los datos de
entrada)
En caso de que lo sea el primer paso será tener un conocimiento suficiente del PGSIG y la
creación de una base de datos PGSIG multiescala (GRASS) y de una sola escala (IDRISI)
Se han propuesto 9 principios para que un proyecto SIG se desarrolle con éxito
2. Necesitan mantenimiento
5. Un SIG tiene diversas utilidades y debe ser compartido por diversos usuarios
7. ¿ Puede ejecutarse en los ordenadores y sistemas operativos disponibles o habrá que com-
prar y/o aprender nuevos?
13. ¿ Se quedará, en algún momento, corto respecto a las necesidades futuras previsibles?
Tipos de software:
• Abiertos - Cerrados
• Raster - Vectorial
• Mapas de campo
• Estadísticas oficiales
• Cartografía oficial
122
• Datos publicados
• Internet
• teledetección
en pantalla como si fuera una tableta. Si la capa debe ser raster puede reclasificarse la capa
inicial.
Una tableta digitalizadora tiene en su interior una fina malla de conexiones eléctricas que de-
finen un sistema de coordenadas XYcon límite inferior X=0, Y=0 y límite superior dependiente
del tamaño de la tableta. Al pinchar con el ratón en un punto, la tableta envía al ordenador las
coordenadas de este punto. Pinchando en varios puntos consecutivos se definen lineas o polí-
gonos. Si se pone un mapa sobre la tableta podemos digitalizar de este modo la información
contenida en el mapa.
Hay que tener en cuenta que las coordenadas físicas de la tableta son arbitrarias, para asignar a
cada punto las coordenadas del mapa hay que calibrarla previamente. Todos los programas de
apoyo a la digitalización con tableta (AutoCAD por ejemplo) disponen de ordenes para ello. El
proceso de calibración consiste básicamente en pinchar en dos o más puntos e introducir por
teclado las coordenadas reales de estos puntos. A partir de esta información el programa realiza
una análisis de regresión lineal para estimar los parámetros de dos funciones que transformen
las coordenadas de la tableta en coordenadas reales
Es posible también realizar un análisis de errores para determinar si los valores son adecuados
o no. En general un programa de CAD asume que los mapas en papel no tienen distorsiones por
lo que en el mejor de los casos sólo se hace un ajuste lineal y normalmente sólo se hace una
traslación y cambio de escala por lo que algunos de los parámentros en las ecuaciones anteriores
son iguales.
Al igual que los escaner, las tabletas tienen el problema del tamaño, en general son caras y si la
tableta es grande ( A1-A0 ) prohibitiva. Además la digitalización con tableta es más cara y sólo
sirve para información vectorial y puesto que requiere mucho tiempo trabajando con ella en-
cargar el trabajo es tabien muy caro. La transformación no sólo incluye el paso de coordenadas
de tableta o de escanner a coordenadas estandard, tambien incluye la transformación entre dos
sistemas de coordenadas diferentes.
Ejemplo con el geológico.
Sea cual sea el sistema que estemos utilizando nos enfrentaremos con la necesidad de importar
capas de información almacenadas en formato SIG pero con un modelo de datos incompatible.
Todos los programas disponen de herramientas que facilitan el proceso. El problema es diferente
para datos raster y vectorial.
124
En el primer caso no hay demasiadas dificultades puesto que la codificación de datos raster
no difiere excesivamente de unos programas a otros. Se trata de simples matrices de números
fáciles de importar sabiendo el número de filas y columnas que la componen y el modo de
codificación de cada celdilla que suele ser muy similar de unos programas a otros. En GRASSlos
módulos que importan datos raster comienzan con el prefijo r.in al igual que los que importan
formatos gráficos.
r.in.arc r.in.elas r.in.gridatb r.in.ppm r.in.utm r.in.ascii r.in.ll r.in.shape r.in.bin r.in.miads r.in.sunrast
r.in.doq r.in.gdal r.in.png r.in.tang r.in.dted r.in.globedem r.in.poly r.in.tiff
El caso de los vectoriales es más complejo. El modo de codificar aspectos como los bordes de
area o los polígonos isla y la existencia de dos modos diferentes depensar acerca de los datos
espaciales (CADy SIG) multiplica la cantidad de formatos diferentes. Además en algunos casos
se trata de formatos propietario, es decir sujetos a copyright, que cambian de unas versiones a
otras del programa. La consecuencia es que no siempre los módulos de importación funcionan
correctamente, siendo necesaria en muchos casos una edición a mano. En GRASS los módulos
de importación de vectoriales son los que comienzan por v.in
Conjuntos de puntos
9.3.3 Estadísticas
Bases de datos no espaciales.
Información no espacial (bases de datos y series temporales)
9.4 Mantenimiento