165 27 5MB
English Pages 438 [468]
Norbert de Lange Geoinformatik in Theorie und Praxis
Norbert de Lange
Geoinformatik in Theorie und Praxis 2. aktualisierte und erweiterte Auflage Mit 184 Abbildungen
PROFESSOR DR. NORBERT DE LANGE UNIVERSITÄT OSNABRÜCK FACHBEREICH KULTUR- UND GEOWISSENSCHAFTEN SEMINARSTR. 20 49069 OSNABRÜCK e-mail: [email protected]
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
ISBN 3-540-43286-8 Springer Berlin Heidelberg Newy York 1. Auflage 2002
ISBN 10 3-540-28291-2 Springer Berlin Heidelberg New York ISBN 13 978-3540-28291-4 Springer Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de Springer-Verlag Berlin Heidelberg 2006 Printed in The Netherlands Die Wiedergabe von Gebrauchsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: E. Kirchner, Heidelberg Herstellung: A. Oelschläger Satz: Druckreife Vorlage des Autors Gedruckt auf säurefreiem Papier 30/2132 AO 5 4 3 2 1 0
Vorwort zur zweiten Auflage Die freundliche Aufnahme dieses Lehrbuches zur Geoinformatik aus dem Jahre 2002 hat zur Vorbereitung einer zweiten, aktualisierten und erweiterten Auflage schon im Sommer 2005 geführt. Dabei bleibt die Konzeption in der vorliegenden Aktualisierung unverändert, obschon andere Schwerpunktsetzungen denkbar sind. Nach wie vor ist die Diskussion um Inhalte der Geoinformatik nicht abgeschlossen. Die im Vorwort zur ersten Auflage genannte und im ersten Kapitel verdeutliche Vielschichtigkeit der Geoinformatik zeigt sich auch in den vielfältigen Rezensionen und Reaktionen von Fachkollegen. Zum einen wird die Breite und Tiefgründigkeit bei sehr konzentrierter Schreibweise herausgestellt. Zum anderen wird vereinzelt angeregt, auf die Kapitel zu Grundlagen aus der Informatik und zu Computersystemen zu Gunsten z.B. von Inhalten zu Geoinformationssystemen zu verzichten. Diese Position ist für die Studiengänge verständlich, für die (inzwischen) Lehrveranstaltungen zur Informatik zum Pflichtangebot gehören. Allerdings gilt weiterhin die Ausrichtung als umfassendes Handbuch für Studium und Praxis, das die Inhalte der Geoinformatik anwendungsbezogen zusammenführt und das eine Brückenfunktion zur Geoinformatik besitzt. Weiterhin gilt, dass ohne derartige Kapitel manche Anwender in der Praxis oder auch Studierende in einem Anwendungsfach wie z.B. der Geographie kaum mit diesen Inhalten in Berührung kommen und oberflächlich oder vordergründig nur Anwendungsprogramme bedienen würden. Diese Neuauflage wäre ohne die Unterstützung mehrerer Kolleginnen und Kollegen nicht erstellt worden. Der Autor dankt daher allen Personen und Einrichtungen, die ihm wertvolle Hinweise und Anregungen gaben. Insbesondere möchte ich meiner Mitarbeiterin Frau M. Gähler für die kritische Durchsicht des Kapitels zur Fernerkundung danken. Ferner danke ich Herrn C. Reichel für die Überarbeitung mehrerer Abbildungen sowie vor allem meinen studentischen Mitarbeitern Herrn J. Kossow und Herrn S. Oltmer für die aufwändigen Materialrecherchen und Überprüfungen der Weblinks. Schließlich danke ich dem Springer-Verlag für die bewährte gute Zusammenarbeit. Osnabrück, Juli 2005
Norbert de Lange
Vorwort zur ersten Auflage In den neunziger Jahren ist mit der Geoinformatik ein neues interdisziplinäres Fachgebiet entstanden. Entwicklung und Konsolidierung sind in vollem Gange. Der vorliegende Band führt verschiedene Themenbereiche zusammen, die zur Geoinformatik gezählt werden. Dabei geht es nicht (allein) um Techniken. Geoinformatik wird vielmehr als Wissenschaft hinter den geographischen bzw. raumbezogenen Informationstechnologien verstanden. Dieses Buch besitzt somit eine Brückenfunktion zur Informatik. Entstanden ist ein umfassendes Handbuch für Studium und Praxis, das die Inhalte der Geoinformatik anwendungsbezogen zusammenführt, das aber auch wichtige Hintergrundinformationen liefert. Es soll insbesondere als Praxishandbuch einzusetzen sein, das auf direkte Anwendungen zielt, für die kommerzielle Software vorhanden ist. Selbst bei dieser Zielsetzung ist die Auswahl der Inhalte zu diskutieren. Sind z.B. ein breiter Einstieg in Kerninhalte der Informatik oder die Darlegung der ER-Modellierung notwendig? Ohne derartige Kapitel würden aber manche Anwender mit diesen Inhalten kaum in Berührung kommen und oberflächlich oder vordergründig nur Anwendungsprogramme bedienen. Diese hier beispielhaft und sehr verkürzt wiedergegebenen Positionen zeigen, dass die Diskussion um Inhalte der Geoinformatik nicht beendet ist. Die Themen des vorliegenden Bandes gehen auf viele Lehrveranstaltungen und vor allem auf die Vorlesung „Grundlagen der Geoinformatik“ zurück, die ich seit 1994 an der Universität Osnabrück durchgeführt habe. Grundlage der ersten Vorlesung war ein Konzept der Geoinformatikvorlesung von U. Streit (Münster). Für die damaligen Anregungen danke ich herzlich. Die Anfänge haben sich teilweise ähnlich, aber auch unterschiedlich weiter entwickelt. Allen Studierenden, die mir durch Fragen und durch kritische Anmerkungen vielfache Anregungen gegeben habe, möchte ich sehr danken. Stellvertretend für die vielen Kollegen, die Hinweise und Anregungen gaben, möchte ich Herrn Breunig (Vechta) erwähnen, der das Kapitel „Grundlagen aus der Informatik“ kritisch durchsah, wofür ich mich sehr bedanke. Meinem derzeitigen Mitarbeiter Herrn S. Pryka, möchte ich für die kritische Durchsicht und für das mühevolle Korrekturlesen danken. Großen Dank schulde ich ihm für die vielen Formulierungshilfen zum Kapitel „Fernerkundung und Digitale Bildverarbeitung“. Mein besonderer Dank gilt auch meinem langjährigen Mitarbeiter Herrn K. Wessels. Er hat das Werk seit den Anfängen durch konstruktive Hinweise begleitet. Ferner möchte ich meinen (ehemaligen) studentischen Mitarbeitern Herr C. Diekmann, Herrn D. Dinger, Herrn C. Heuermann und Herrn T. Stapenhorst für die konstruktive Zusammenarbeit danken, die an der Material- und Literaturrecherche beteiligt waren und die vor allem wesentliche Hilfestellungen bei den kartographischen Arbeiten leisteten. Nicht zuletzt danke ich dem Springer-Verlag für die gute und hilfreiche Zusammenarbeit.
Osnabrück, Januar 2002
Norbert de Lange
Inhaltsverzeichnis
1 EINFÜHRUNG 1.1 1.2 1.3
Ansatz und Aufgaben der Geoinformatik................................................1 Ansatz und Aufgaben der Informatik.......................................................5 Informatik und Gesellschaft ....................................................................8
2 GRUNDBEGRIFFE UND ALLGEMEINE GRUNDLAGEN DER INFORMATIONSVERARBEITUNG 2.1 2.2 2.3 2.4
2.5
2.6 2.7
9
Information, Nachricht, Datum................................................................9 Automat, Computer, Programm, Hard- und Software...........................11 EVA-Prinzip der Informationsverarbeitung ..........................................13 Algorithmen und Programme in Computersystemen ............................15 2.4.1 Algorithmusbegriff .................................................................15 2.4.2 Programmablaufpläne und Struktogramme ............................16 2.4.3 Stufen der Algorithmusausführung in einem Computer.........17 Darstellung von Informationen in Computersystemen durch Bitfolgen 18 2.5.1 Binärdarstellungen..................................................................18 2.5.2 Bitfolgen.................................................................................19 2.5.3 Logische Werte.......................................................................20 2.5.4 Zahlen.....................................................................................20 2.5.5 Texte.......................................................................................21 2.5.6 Bilder und Graphiken .............................................................23 Dualzahlenarithmetik.............................................................................24 Farben....................................................................................................26 2.7.1 Farben als Informationsträger.................................................26 2.7.2 Farbmischung und Farbmodelle .............................................27 2.7.3 Farbcodierungen und Farbtiefe...............................................32
3 GRUNDLAGEN AUS DER INFORMATIK 3.1
1
33
Architektur von Computersystemen ......................................................33 3.1.1 Struktur eines von-Neumann-Rechners..................................33 3.1.2 Aufbau und Funktionsweise eines Prozessors ........................36 3.1.3 Arbeitsspeicher, E/A-Prozessor und Bus................................38 3.1.4 Operationsprinzip eines von-Neumann-Rechners ..................39 3.1.5 Programmierung in Maschinensprache ..................................41 3.1.6 Weitere Rechnerarchitekturen ................................................43
VIII
Inhaltsverzeichnis
3.2
3.3
3.4
3.5
3.6
Programmierung von Computersystemen 45 3.2.1 System- und Anwendungssoftware, Programmierebenen ......45 3.2.2 Erstellen und Ausführen von Programmen mit einem Computersystem .....................................................................47 3.2.3 Programmiersprachen.............................................................51 3.2.4 Programmierkonzepte.............................................................54 3.2.5 Graphiksprachen und Graphikbibliotheken ............................65 3.2.6 Programmierung von Anwendungen für Intranet, Internet.....67 Daten und Datentypen ...........................................................................71 3.3.1 Einführung..............................................................................71 3.3.2 Standarddatentypen ................................................................71 3.3.3 Strukturierte Datentypen.........................................................76 3.3.4 Abstrakte Datentypen .............................................................77 3.3.5 Dateien....................................................................................80 Algorithmen...........................................................................................81 3.4.1 Definitionen und Merkmale....................................................81 3.4.2 Sequentielle und parallele Algorithmen .................................83 3.4.3 Iterationen und Rekursionen...................................................84 3.4.4 Komplexität von Algorithmen................................................87 Grundlegende Algorithmen der Geoinformatik.....................................89 3.5.1 Algorithmen der Koordinatengeometrie.................................89 3.5.2 Graphen und ausgewählte Wegealgorithmen .........................94 3.5.3 Klassifikationsalgorithmen.....................................................99 Softwareentwicklung ...........................................................................102 3.6.1 Aufgaben und Ziele der Softwareentwicklung .....................102 3.6.2 Instrumente der Softwareentwicklung..................................103 3.6.3 Traditionelle Vorgehensmodelle der Softwareentwicklung .104 3.6.4 Objektorientierte Softwareentwicklung ...............................106 3.6.5 Weiterentwicklungen.............................................................107
4 KOMPONENTEN VON COMPUTERSYSTEMEN 4.1 4.2 4.3
4.4 4.5 4.6
109
Aufbau eines Computersystems ..........................................................109 Das Motherboard .................................................................................110 Prozessoren..........................................................................................113 4.3.1 Unterscheidungskriterien und Leistungsmerkmale von Prozessoren....................................................................113 4.3.2 CISC- und RISC-Technologie..............................................114 4.3.3 Prozessoren für Personal Computer......................................116 4.3.4 Prozessoren für Workstations...............................................118 Arbeitsspeicher ....................................................................................119 Graphikadapter ....................................................................................120 Massenspeicher....................................................................................121 4.6.1 Sequentielle Speicher ...........................................................121 4.6.2 Direktzugriffsspeicher ..........................................................122 4.6.3 RAID-Technologie ...............................................................126
Inhaltsverzeichnis
IX
4.7
Eingabegeräte ......................................................................................127 4.7.1 Nichtgraphische Eingabegeräte ............................................127 4.7.2 Graphische Eingabegeräte ....................................................128 4.8 Ausgabegeräte .....................................................................................131 4.8.1 Monitore ...............................................................................131 4.8.2 Displays ................................................................................133 4.8.3 Drucker.................................................................................135 4.8.4 Plotter ...................................................................................140 4.9 Systembetrieb ......................................................................................141 4.9.1 Systemsoftware und systemnahe Software...........................141 4.9.2 Betriebsarten.........................................................................142 4.9.3 Aufgaben von Betriebssystemen ..........................................143 4.9.4 Benutzerschnittstellen...........................................................144 4.9.5 Übersicht über wichtige Betriebssysteme.............................147 4.10 Netzwerke............................................................................................147 4.10.1 Definition und Unterscheidungsmerkmale ...........................147 4.10.2 Kommunikationsschnittstellen und Netzprotokolle..............149 4.10.3 Internet..................................................................................151 4.10.4 Verteiltes Arbeiten im Internet .............................................153 4.11 Anwendungssoftware ..........................................................................157 4.11.1 Individual- und Standardsoftware.........................................157 4.11.2 Anwendungssoftware in der Geoinformatik.........................158 5 RÄUMLICHE OBJEKTE UND BEZUGSSYSTEME 5.1
5.2
5.3
5.4
159
Geoobjekte...........................................................................................159 5.1.1 Begriff des Geoobjekts .........................................................159 5.1.2 Geometrie von Geoobjekten.................................................160 5.1.3 Topologie von Geoobjekten .................................................163 5.1.4 Thematik von Geoobjekten ..................................................165 5.1.5 Dynamik von Geoobjekten...................................................165 5.1.6 Dimensionen von Geoobjekten ............................................166 Koordinatensysteme ............................................................................167 5.2.1 Metrische Räume und kartesische Koordinaten ...................167 5.2.2 Polarkoordinaten und geographische Koordinaten...............168 5.2.3 Homogene Koordinaten........................................................171 5.2.4 Koordinatentransformationen...............................................171 Kartennetzentwürfe .............................................................................177 5.3.1 Raumkoordinaten und lokale Bezugssysteme auf der Erde..177 5.3.2 Abbildungseigenschaften von Kartennetzentwürfen ............178 5.3.3 Abbildungsflächen von Kartennetzentwürfen ......................178 Grundlagen geodätischer Bezugssysteme............................................181 5.4.1 Annäherung der Erde durch Ellipsoide.................................181 5.4.2 Geodätisches Datum und traditionelle Bezugssysteme ........183 5.4.3 Neue terrestrische Referenzrahmen......................................185 5.4.4 Datumstransformationen ......................................................186 5.4.5 Geoid ....................................................................................188
X
Inhaltsverzeichnis
5.5
Geodätische Abbildungen....................................................................189 5.5.1 Begriff und Bedeutung Geodätischer Abbildungen..............189 5.5.2 Das Gauß-Krüger-Koordinatensystem in Deutschland ........191 5.5.3 Das Österreichische Bundesmeldenetz................................ 193 5.5.4 Das Schweizer Koordinatensystem ......................................194 5.5.5 Das UTM-Koordinatensystem..............................................195
6 DIGITALE RÄUMLICHE DATEN: DATENGEWINNUNG UND GEOBASISDATEN 6.1
6.2
6.3
6.4 6.5
6.6
6.7
197
Grundbegriffe ......................................................................................197 6.1.1 Primär- und Sekundärdaten ..................................................197 6.1.2 Analog-Digital-Wandlung ....................................................198 6.1.3 Diskretisierung .....................................................................199 Digitale Erfassung von Geometriedaten ..............................................200 6.2.1 Digitale Erfassung von Geometriedaten im Vektorformat ...200 6.2.2 Digitale Erfassung von Geometriedaten im Rasterformat ....202 6.2.3 Konvertierung zwischen Vektor- und Rasterdaten ...............203 6.2.4 On-Screen-Digitalisierung....................................................205 6.2.5 Erfassung von Lagekoordinaten mit GPS.............................206 Metadaten und Qualität von Daten ......................................................207 6.3.1 Metadaten .............................................................................207 6.3.2 Der Umweltdatenkatalog UDK ............................................208 6.3.3 Der Content Standard for Digital Geospatial Metadata........210 6.3.4 Metadaten-Informationssystem über Geodaten des Bundes.210 6.3.5 Qualität von Daten und Geodaten ........................................212 6.3.6 Räumliche Auflösung, Generalisierung, Lagegenauigkeit ...213 Standards von Daten und Geodaten.....................................................214 GPS - Global Positioning System........................................................216 6.5.1 Aufbau des Satellitensystems ...............................................216 6.5.2 Prinzip der Distanzbestimmung............................................219 6.5.3 Fehlereinflüsse und Genauigkeiten einer GPS-Standortbestimmung ..........................................................................220 6.5.4 Differentielles GPS (DGPS).................................................221 6.5.5 Einsatzmöglichkeiten des Global Positioning Systems ........222 6.5.6 Zukunft von GPS..................................................................223 Geobasisdaten......................................................................................225 6.6.1 Geobasisdaten der Vermessungsverwaltungen.....................225 6.6.2 Das Automatisierte Liegenschaftskataster............................227 6.6.3 Das Amtliche Topographisch-Kartographische Informationssystem ATKIS..................................................232 6.6.4 Das AFIS-ALKIS-ATKIS Konzept .....................................240 Aufbau von Geodateninfrastruktur ......................................................242
Inhaltsverzeichnis
7 VISUALISIERUNG RAUMBEZOGENER INFORMATIONEN 7.1
7.2
7.3
7.4
7.5
7.6
7.7
7.8
245
Graphische Informationsverarbeitung .................................................245 7.1.1 Graphische Darstellungen von Informationen......................245 7.1.2 Digitale graphische Darstellungsformen raumbezogener Informationen .......................................................................246 7.1.3 Computergestützte wissenschaftliche Visualisierung...........248 Graphische Kommunikation und graphische Semiologie....................249 7.2.1 Graphische Kommunikation.................................................249 7.2.2 Graphische Semiologie.........................................................253 Graphische Gestaltungsmittel..............................................................257 7.3.1 Signaturen.............................................................................257 7.3.2 Allgemeine Gestaltungsmerkmale........................................261 7.3.3 Klasseneinteilungen..............................................................262 7.3.4 Texte und Beschriftungen.....................................................264 7.3.5 Diagrammdarstellungen........................................................265 Einsatz von Farbe ................................................................................265 7.4.1 Farbe als einfaches und kritisches Ausdrucksmittel .............265 7.4.2 Farbassoziationen .................................................................267 7.4.3 Farbabstufungen ...................................................................267 Desktop Mapping ................................................................................268 7.5.1 Entstehung von Desktop Mapping aus Desktop Publishing .268 7.5.2 Anforderungen an Systeme zum Desktop Mapping .............269 Kartographie im multimedialen Umfeld..............................................270 7.6.1 Paradigmenwechsel der Kartographie ..................................270 7.6.2 Datenexploration in der Kartographie ..................................273 7.6.3 Kartographische Potenziale moderner Informations- und Kommunikationstechnologien..............................................274 Multimediale Visualisierung und Web-Mapping ................................277 7.7.1 Multimedia Kartographie: Standards und Perspektiven .......277 7.7.2 Digitale und multimediale Nationalatlanten .........................280 7.7.3 Kartographische Auskunftssysteme und interaktive Planungskartographie ...........................................................281 Ausblick...............................................................................................282
8 DATENORGANISATION UND DATENBANKSYSTEME 8.1
XI
283
Datenorganisation................................................................................283 8.1.1 Grundbegriffe der Datenorganisation ...................................283 8.1.2 Dateisysteme ........................................................................285 8.1.3 Datenbanksysteme................................................................288 8.1.4 Datensichten in einem Datenbanksystem .............................291 8.1.5 Datenmodelle........................................................................292
XII
Inhaltsverzeichnis
8.2
8.3
8.4
8.5
8.6
8.7
Datenbankentwurf mit ER-Modellierung ............................................293 8.2.1 Modellierungskonzepte ........................................................293 8.2.2 Entities und Attribute ...........................................................294 8.2.3 Relationships ........................................................................295 8.2.4 Konzeptueller Datenbankentwurf an einem Beispiel ...........297 Das relationale Datenmodell................................................................299 8.3.1 Aufbau einer relationalen Datenbasis...................................299 8.3.2 Normalformen ......................................................................200 8.3.3 Transformation eines ER-Diagramms in das Relationenmodell..................................................................203 8.3.4 Relationale Datenstrukturen in Geoinformationssystemen ..206 Arbeiten mit einem relationalen Datenbanksystem .............................206 8.4.1 Datendefinition und Verwaltungsfunktionen.......................206 8.4.2 Datenmanipulation und Datenauswertung............................207 8.4.3 Der Sprachstandard SQL einer Datenmanipulationssprache für relationale Datenbanksysteme.........................................208 Datenkonsistenzen...............................................................................310 8.5.1 Begriff und Bedeutung von Datenkonsistenzen ...................310 8.5.2 Referentielle Integrität..........................................................311 8.5.3 Trigger ..................................................................................311 8.5.4 Transaktionen .......................................................................311 Objektorientierung in Datenbanksystemen..........................................313 8.6.1 Ansatz objektorientierter Datenbanksysteme .......................313 8.6.2 Merkmale objektorientierter Datenbanksysteme ..................314 8.6.3 Standardisierungen ...............................................................316 Erweiterte relationale Datenmodelle ...................................................316 8.7.1 Generalisierung und Vererbung............................................316 8.7.2 Geschachtelte relationale Datenbankmodelle.......................318 8.7.3 Objektrelationale Datenbankmodelle ...................................318
9 GEOINFORMATIONSSYSTEME 9.1
9.2
319
Digitale Informationssysteme und Geoinformationssysteme ..............319 9.1.1 Informationssysteme.............................................................319 9.1.2 Vierkomponentenmodelle eines Informationssystems .........320 9.1.3 Begriff und Bedeutung von Geoinformationssystemen........320 Modellierung von Geoobjekten in einem Geoinformationssystem .....327 9.2.1 Geoinformationssystem als Modell der realen Welt.............327 9.2.2 Geometrisch-Topologische Modellierung von Geoobjekten im Vektormodell .............................................328 9.2.3 Geometrisch-Topologische Modellierung von Geoobjekten im Rastermodell ...................................................................332 9.2.4 Speicherung von Geometrien im Rastermodell ....................333 9.2.5 Thematik von Geoobjekten ..................................................334 9.2.6 Vergleich von Vektor- und Rastermodell.............................335
Inhaltsverzeichnis
9.3
9.4
9.5
9.6
9.7
XIII
Bearbeitung und Analyse von Geoobjekten im Vektormodell ............337 9.3.1 Erfassen und Editieren raumbezogener Daten......................337 9.3.2 Verwaltung raumbezogener Daten: Datenabfragen und Suchoperationen ...................................................................338 9.3.3 Fortführung und Aktualisierung raumbezogener Daten .......339 9.3.4 Räumliche Überlagerungen und geometrisch-topologische Analysefunktionen................................................................341 Bearbeitung und Analyse von Geoobjekten im Rastermodell .............345 9.4.1 Aufbereiten von Rasterdaten ................................................345 9.4.2 Konvertieren von Sachdaten auf Rasterbasis........................347 9.4.3 Räumliche Analysen von Rasterdaten ..................................338 Netzwerkanalysen................................................................................352 9.5.1 Das Netzwerkdatenmodell....................................................352 9.5.2 Analyse optimaler Wege in einem Netzwerk .......................354 9.5.3 Ermittlung von Einzugsbereichen ........................................354 9.5.4 Weitere Analysemöglichkeiten in einem Netzwerk .............356 Räumliche Interpolation und Modellierung von Flächen ....................356 9.6.1 Ausgangsfragestellungen......................................................356 9.6.2 Trendflächenanalyse.............................................................357 9.6.3 Räumliche Interpolation durch Mittelwertbildung ...............358 9.6.4 Dreiecksvermaschung und Thiessen-Polygone ....................360 9.6.5 Erstellen von Höhenmodellen und Oberflächenmodellen ....361 Trends..................................................................................................364
10 FERNERKUNDUNG UND DIGITALE BILDVERARBEITUNG ...........365 10.1 Begriffsbestimmungen und Einsatzmöglichkeiten der Fernerkundung.....................................................................................365 10.2 Ansatz von Fernerkundung und digitaler Bildverarbeitung.................367 10.2.1 Grundprinzip der Fernerkundung .........................................367 10.2.2 Digitale Bildverarbeitung .....................................................369 10.2.3 Photogrammetrie ..................................................................370 10.3 Physikalische Grundlagen ...................................................................370 10.3.1 Das elektromagnetische Spektrum .......................................370 10.3.2 Solare Einstrahlung und Einflüsse der Atmosphäre .............371 10.3.3 Das Reflexionsverhalten der Erdoberfläche .........................373 10.4 Wichtige Aufnahmesysteme................................................................375 10.4.1 Übersicht ..............................................................................375 10.4.2 Leistungsmerkmale abbildender Fernerkundungsinstrumente ...........................................................................376 10.4.3 Bahnparameter von Fernerkundungssatelliten......................377 10.4.4 Aufnahmesysteme von Wettersatelliten ...............................378 10.4.5 Die Aufnahmesysteme von Landsat .....................................380 10.4.6 Die Aufnahmesysteme von SPOT ........................................384 10.4.7 Indian Remote Sensing Satellite...........................................387 10.4.8 Aufnahmesysteme mit abbildendem Radar ..........................389
XIV
Inhaltsverzeichnis
10.4.9 Ausblick zur Satellitenfernerkundung ..................................391 10.4.10 Flugzeuggestützte Aufnahmesysteme ..................................392 10.5 Digitale Bilder .....................................................................................394 10.5.1 Aufnahme digitaler Bilder in der Fernerkundung.................394 10.5.2 Visualisierung digitaler Bilder in der Fernerkundung ..........394 10.5.3 Bezug von Fernerkundungsdaten .........................................395 10.6 Digitale Bildbearbeitung......................................................................397 10.6.1 Bildvorbearbeitung ...............................................................397 10.6.2 Kontrastverbesserung ...........................................................304 10.6.3 Bildtransformationen............................................................306 10.6.4 Räumliche Filteroperationen ................................................308 10.6.5 Kombination mehrerer Bilder...............................................411 10.7 Multispektralklassifikation ..................................................................414 10.7.1 Prinzip der Multispektralklassifikation.................................414 10.7.2 Unüberwachte Klassifikation ...............................................415 10.7.3 Überwachte Klassifikation ...................................................416 10.7.4 Probleme der pixelbasierten Multispektral-Klassifikation ...419 10.7.5 Ermittlung der Klassifikationsgenauigkeit ...........................420 10.7.6 Räumlich-spektrale Bildsegmentierung................................422
1 Einführung
1.1
Ansatz und Aufgaben der Geoinformatik
Mit der Geoinformatik ist ein neues interdisziplinäres Fachgebiet entstanden, das eine Brückenfunktion zwischen Informatik, Geographischen Informationstechnologien und Geowissenschaften oder raumbezogen arbeitenden Wissenschaften ausübt: Digitale Technologien Informatik Praktische Informatik
Geoinformatik Raumbezogene Fachdisziplinen Agrarwissenschaften Ökologie u. Biogeographie Geographie Geologie Geophysik Umweltwissenschaften
Geographische Informationstechnologien Geodäsie und Vermessung Kartographie Fernerkundung Photogrammetrie (Luft-)Bildauswertung Geostatistik
Abb. 1.1: Beziehungen der Geoinformatik zu anderen Disziplinen
Inzwischen muss zur Kenntnis genommen werden, dass die Etablierung der Geoinformatik als eigenständige Disziplin vollzogen ist. Wissenschaftliche Tagungen und Zeitschriften, Studiengänge und Lehrbücher sind hierfür klare Indikatoren ebenso wie Fachmessen zur Geoinformatik oder die Verwendung des Begriffs als Bestandteil von Firmennamen. Allerdings sind Definition und Zuordnung von Inhalten noch im Fluss. Eine breite wissenschaftstheoretische Diskussion um Inhalte von Geoinformatik fehlt nach wie vor. Gegenüber der jüngeren Bezeichnung Geoinformatik ist seit längerem der sehr schillernde Begriff GIS eingeführt, der im engeren Sinn nur für Geoinformationssysteme steht, häufig aber mit dem neuen Arbeits- und Forschungsgebiet der Geoinformatik gleichgesetzt wird, ohne es allerdings abzudecken. Die Dominanz von „GIS“ u.a. in den raumbezogen arbeitenden Fachdisziplinen ist vor allem auf die schnell voranschreitende Softwareentwicklung von GIS-Technik und auf die sich beschleunigende, sehr breite Anwendung dieser Technologien zurückzuführen. Brassel u.a. (1998, S. 49) fassen den jüngeren Werdegang der Informatisierung
2
Einführung
der Geographie bzw. auch allgemein der Geowissenschaften zusammen, wobei sie (nur) die zentrale Rolle von GIS herausstellen: „Kann man die Periode von 1960 bis ca. 1975 als Pionierphase mit ersten Automatisierungsversuchen und Softwareentwicklungen an den Hochschulen betrachten, so standen in der Phase zwischen 1975 und 1990 die GIS-Implementationen bei ersten großen Datenanbietern und die Entwicklung erster Generationen von kommerzieller GIS-Software im Vordergrund. Die 90er Jahre bringen dann eine immense Ausweitung der GIS-Nutzung, die Vernetzung von administrativen Systemen und die Herausbildung eines kommerziellen GIS-Dienstleistungssektors, und ab 1995 wird der Ausweitungs- und Integrationsprozess weiter beschleunigt durch die Ausbreitung der Internettechnologie.“ Ein wichtiger Meilenstein für die Herausbildung und Formulierung von Standards zu Geoinformationssystemen war das 1990 vom National Center for Geographic Information and Analysis (NCGIA) vorgelegte Core Curriculum in GIS (vgl. Goodchild u. Kemp 1990). Inzwischen ist eine Fülle englischsprachiger Lehrbücher und mit den Werken von Bartelme (1989 bzw. 1995, 2000), Göpfert (1991), Bill u. Fritsch (1991) und Bill (1996) bzw. Bill (1999a u. 1999b), Saurer u. Behr (1997), Dickmann u. Zehner (1999), Kappas (2001) und Reinhardt (2003) auch deutschsprachiger Lehrbücher verfügbar. Während sich in den 90er Jahren im deutschen Sprachraum „GIS“ im Sinne von Geoinformationssystemen etablierte, begann international eine Diskussion um „GIS“ als Wissenschaft. Diese Neuorientierung setzte mit dem vierten „International Symposium on Spatial Data Handling“ 1990 ein, auf dem von Goodchild in seiner programmatischen Keynote Address „GIS“ als Geographic Information Science eingefordert wurde: „GIS needs a strong scientific and intellectual component if it is to be any more than a commercial phenomenon, a short-lived flash in the technological plan. It is too easy to see current GIS as a hardware and software technology in search of applications, and to see the field of GIS as defined by the functional limits of its major vendor products. We need to move from system to science, to establish GIS as the intersection between a group of disciplines with common interests, supported by a toolbox of technology, and in turn supporting the technology through its basic research.“ (Goodchild 1990 S. 11). Auch das jüngste NCGIA-Curriculum, dessen Inhalte noch im Fluss sind, versteht GIS im Sinne von Geographic Information Science (vgl. National Center for Geographic Information and Analysis - Weblink, vgl. Goodchild 1997). Benannt werden viele Themen, die über die Technik von Geoinformationssystemen weit hinausgehen und auch allgemeine Konzepte der Geographie (vgl. z.B. Themen wie spatial relationships, abstraction and incompleteness, handling uncertainty) ebenso aufgreifen wie die gesellschaftliche Relevanz von GIS. Das Wort Geomatik geht auf den französischen Photogrammeter Dubuisson zurück, der das vierte Kapitel in seinem Lehrbuch (1975) umschreibt mit: „PhotoGéomatique: La Cartographie Photogrammétrique Automatique“. Inzwischen wird allerdings Geomatik als Schnittmenge von Geodäsie und Informatik verstanden. In dieser Ausrichtung bestehen bereits an verschiedenen Hochschulen Studiengänge mit dem Namen Geomatik im Titel.
Ansatz und Aufgaben der Geoinformatik
3
Seit Mitte der 90er Jahre kommt im deutschen Sprachraum verstärkt die Bezeichnung Geoinformatik auf. In einer ersten Begriffsnäherung werden „unter Geoinformatik jene Aspekte raumbezogener Informationsverarbeitung verstanden, die sich mit formalen und theoretischen Grundlagen befassen und mit Methoden der Informatik untersucht werden“. (Kainz 1993 S. 19). Die überarbeitete Neuauflage des Buches „GIS - Technologie“ (Bartelme 1989) verbunden mit einer Umbenennung in „Geoinformatik“ (Bartelme 1995) markiert deutlich die Neuorientierung. Vor dem Hintergrund der zeitlichen Entwicklung, die eindeutig durch Geoinformationssysteme geprägt war, ergibt sich nach Bartelme (1995 S. 1 bzw. 2000 S. 1) eine recht enge Ausrichtung von Geoinformatik: „Die Geoinformatik setzt sich mit dem Wesen und der Funktion der Geoinformation, mit ihrer Bereitstellung in Form von Geodaten und mit den darauf aufbauenden Anwendungen auseinander. Die dabei gewonnenen Erkenntnisse münden in die Technologie der Geoinformationssysteme.“ Von zentraler Bedeutung ist hierbei: „Der Begriff der Geoinformation (GI) ergibt sich durch Spezialisierung auf Information, die orts-, lage- bzw. raumbezogenen Charakter hat.“ (Bartelme 1995 S. 12 und 2000 S. 13). Nach wie vor besteht in dem Lehrbuch von Bartelme eine enge Beziehung zu Geoinformationssystemen. Allerdings ist Geoinformatik mehr als GIS. Zweifellos sind Geoinformationssysteme die wichtigsten Werkzeuge der Geoinformatik, was eben dazu geführt hat, dass die neue Disziplin selbst mit GIS gleichgesetzt wurde und eine Diskussion „Werkzeug oder Wissenschaft“ einsetzte (vgl. Blaschke 2003). Jedoch sind Fernerkundung und digitale Bildverarbeitung untrennbare Bestandteile der Geoinformatik. Sie erfassen und stellen räumliche Daten oder Geoinformationen bereit und analysieren sie im Hinblick auf raumrelevante Fragestellungen. Ebenso erfolgt in Geoinformationssystemen häufig und in immer stärkerem Maße eine gemeinsame Verarbeitung und Analyse von Fernerkundungsinformationen mit weiteren Geodaten. Vor allem Ehlers hat bereits früh in mehreren Beiträgen die enge Zusammengehörigkeit von GIS und Fernerkundung thematisiert (vgl. Ehlers u.a. 1989, 1991 u. 2000). In einem versteckten Tagungsband (vgl. Ehlers u. Amer 1991) wurde 1991 und dann 1993 aufbereitet mit weiteren Definitionsansätzen aus dem nordamerikanischen Raum in der deutschsprachigen Zeitschrift GeoInformations-Systeme die Bezeichnung „Geo[infor]matics“ benutzt, wobei besonders die integrative Zielsetzung herausgestellt wurde. Die damalige Schreibweise verdeutlicht die noch nicht abgeschlossene Evolution der noch jungen Terminologie: „Geoinformatics as the art, science or technology dealing with the acquisition, storage, processing production, presentation and dissemination of geoinformation“ (Ehlers 1993 S. 20). Modifiziert umschreibt Ehlers (2000) dann Geoinformatik als einen verzahnten integrierten Gesamtansatz zur Erfassung, Speicherung, Analyse, Modellierung und Präsentation von Geo-Prozessen (vgl. Ehlers 2000 S. 586).
4
Einführung Geodaten Geodatenerfassung Global Positioning System Fernerkundung Digitale Bildverarbeitung
Geoinformationssysteme
Geoinformatik Digitale Kartographie Visualisierung
Datenbanksysteme Informatik
Abb. 1.2: Aufbau und zentrale Teilbereiche der Geoinformatik
Noch allgemeiner und breiter wird von Streit definiert: „Die Geoinformatik (geoinformation science, geomatics) befasst sich mit der Entwicklung und Anwendung informatischer Methoden zur Lösung fachspezifischer Probleme in den Geowissenschaften unter besonderer Berücksichtigung des räumlichen Bezuges der Daten; mit Hilfe geoinformatischer Methoden werden aus Geodaten fachbezogene Geoinformationen gewonnen.“ Integraler Bestandteil dieser Online-Vorlesung sind insbesondere Grundlagen der Mathematik und Informatik sowie die Fernerkundung (vgl. WWW-Vorlesung Geoinformatik (U. Streit) - Weblink). Hier sollen die verschiedenen Ansätze zusammengeführt und Geoinformatik sehr allgemein definiert werden. Deutlich sollen die Nähe zur Informatik wie auch das Besondere der in der Geoinformatik zu verarbeitenden Informationen werden: Die Geoinformatik widmet sich der Entwicklung und Anwendung von Methoden und Konzepten der Informatik zur Lösung raumbezogener Fragestellungen unter besonderer Berücksichtigung des räumlichen Bezugs von Informationen. Die Geoinformatik beschäftigt sich mit der Erhebung oder Beschaffung, mit der Modellierung, mit der Aufbereitung und vor allem mit der Analyse sowie mit der Präsentation und der Verbreitung von Geodaten. Geoinformatik ist insbesondere als Wissenschaft hinter den Technologien im Sinne von Goodchild (1997) zu verstehen, der zu den geographischen Informationstechnologien die drei großen Gruppen Global Positioning System (GPS), Geoinformationssysteme und Fernerkundung zählt. Kenntnisse der geometrischtopologischen Modellierung von Geoobjekten, die Darstellungsmöglichkeiten von Geoobjekten in Koordinatensystemen und Kartennetzentwürfen sowie geodätische Grundlagen sind notwendige Voraussetzungen zum Einsatz der Technologien der Geoinformatik. Neben GPS müssen weitere Methoden der Geodatenerfassung wie überhaupt Geodaten einschließlich Datenqualität und Metadaten sowie Geobasisdaten thematisiert werden. Die Verwaltung von Geodaten erfordert Datenbankmanagementsysteme, wobei zur Modellierung von Datenstrukturen Kenntnisse der konzeptuellen Modellierung von Geoobjekten notwendig sind. Die Darstellung und Präsentation von Geodaten setzen Kenntnisse der graphischen bzw. kartographischen Präsentation voraus, wozu die Kartographie im Hinblick auf den Einsatz der neuen digitalen Visualisierungswerkzeuge zu erweitern ist. Insbesondere sind Grundlagen aus der Informatik feste Bestandteile der Geoinformatik.
Ansatz und Aufgaben der Informatik
5
Obschon die Geoinformatik eine recht junge Wissenschaft ist, können deutlich zentrale Arbeits- und Forschungsschwerpunkte ausgemacht werden. Einen guten Überblick über die Entwicklung sowie über Fragestellungen und Aufgaben der Geoinformatik geben die Beiträge zum jährlichen Symposium für Angewandte Geographische Informationsverarbeitung (vgl. zuletzt Strobl u.a. 2005): - Geoinformationssysteme (GIS) und davon abgeleitete Fachinformationssysteme sowie jünger: 3D-GIS und Modellierung der Zeit in GIS, Mobile GIS - OpenGIS und Interoperabilität zwischen GIS und zu Standardsoftware - Aufbau von Geodateninfrastrukturen - Multimediale Anwendungen in den Geowissenschaften, vor allem Geoinformationssysteme und Visualisierungen von Geodaten im Internet - Computergestützte Kartographie und Digitale Kartographie - Datenbanken und Metadatenbanken für räumliche Fragestellungen, - Satellitengestützte Navigation und Bestimmung von Lagekoordinaten (GPS) und damit verbunden die digitale Datenerfassung im Gelände - digitale Bildverarbeitung von Fernerkundungsdaten.
1.2
Ansatz und Aufgaben der Informatik
Der sehr vielschichtige Begriff Informatik wurde Ende der 60er Jahre als deutsche Übersetzung des amerikanischen Fachbegriffs „computer science“ eingeführt und zunächst auch in dieser direkten Übersetzung als Wissenschaft vom Computer verstanden. Allerdings gibt diese häufig benutzte Umschreibung von Informatik nur einen Teil der Bedeutungsinhalte wieder. Inzwischen hat sich die Informatik zu einer zusammenhängenden, theoretisch fundierten Grundlagenwissenschaft entwickelt, die auf andere Wissenschaftsbereiche übergreift: Die Informatik ist die Wissenschaft von der systematischen Verarbeitung, Speicherung, Übertragung und Darstellung von Informationen, vor allem der automatischen Verarbeitung mit Hilfe von informationsverarbeitenden Maschinen. In diesem Zusammenhang wird unter einer systematischen Verarbeitung die planvolle, d.h. formalisierte, und gezielte Lösung von Problemen mit Hilfe von Algorithmen verstanden. Dabei sind Algorithmen mit formalen Mitteln beschreibbare Verarbeitungsvorschriften, die von einem mechanisch oder elektronisch arbeitenden Gerät nachvollziehbar sind und zur Lösung von Problemen benutzt werden können. Die automatische Verarbeitung bedeutet, dass eine Maschine, d.h. ein Automat, nach einem festgelegten Verfahren Eingabedaten in Ausgabedaten umwandelt. Im Mittelpunkt stehen dabei sog. Computer, d.h. universell einsetzbare Maschinen, die von Programmen gesteuert werden, die die Algorithmen in maschinenverständlicher Form ausdrücken (vgl. Kap. 2 u. 3). Allgemein wird in der Informatik die Struktur und das Zusammenwirken von Algorithmen (Prozesse), von zu verarbeitenden Daten (Datenstrukturen) sowie von Sprachen untersucht, durch die Algorithmen, Prozesse, Daten und Eigenschaften sowie Verhaltensweisen treffend beschrieben werden können. Insbeson-
6
Einführung
dere geht es um die Lösung von Aufgaben mit Hilfe von Rechnern (auch Rechenanlagen, Datenverarbeitungsanlagen, Computern) oder konkreter um die Formulierung von Problemen mit Hilfe von Programmiersprachen, mit denen ein Computer zur selbständigen Lösung der Aufgaben gesteuert werden kann. Informatik wird häufig umgangssprachlich mit Datenverarbeitung oder Elektronischer Datenverarbeitung gleichgesetzt oder assoziiert. Gegenüber dieser sehr verkürzten Sicht belegen gerade die verschiedenen Teilgebiete der Informatik das große Spektrum von Aufgaben und Anwendungen (vgl. Abb. 1.3). So sollte der eher traditionelle Begriff Datenverarbeitung aus dem Sprachgebrauch verschwinden und durch den treffenderen Begriff der Informationsverarbeitung ersetzt werden. Die stürmische Entwicklung der Informatik aus Teilbereichen anderer Fachgebiete (Mathematik, Logik, Elektrotechnik) seit etwa 20 Jahren hat zu einem selbständigen Fachgebiet mit mehreren Teilgebieten geführt (vgl. Abb. 1.3): Die Theoretische Informatik baut auf Methoden und Modellen der Mathematik auf. Sie befaßt sich u.a. mit der Entwicklung formaler, mathematischer Modelle von Geräten, die Informationen verarbeiten (Automatentheorie), mit der Theorie der formalen Sprachen oder mit der Komplexitätstheorie, die sich u.a. mit dem für Berechnungen notwendigen Aufwand an Zeit oder Speicherplatz beschäftigt. Die Praktische Informatik erarbeitet u.a. Methoden zur Entwicklung von Programmsystemen, mit denen geeignete Algorithmen, deren Formulierung ebenfalls zu diesem Teilgebiet gehört, durch ein Computersystem ausgeführt werden können. Ferner werden konkrete Entwicklungsumgebungen und Softwarewerkzeuge zur Unterstützung von Programmierern und Anwendern erstellt. Die Technische Informatik beschäftigt sich mit dem funktionalen Aufbau von Computern und Peripheriegeräten sowie mit dem logischen Entwurf von integrierten Schaltungen (Chips), Rechnern oder Peripheriegeräten.
Kern-Informatik Theoretische Informatik - Automatentheorie - Sprachentheorie - Theorie der Berechenbarkeit - Komplexitätstheorie - Algorithmentheorie - Theorie der Programmierung - Formale Semantik
Praktische Informatik - Algorithmen - Datenstrukturen - Programmiermethoden - Programmiersprachen - Compilerbau - Betriebssysteme - Softwaretechnik - Mensch-MaschineKommunikation
Technische Informatik - Rechnerarchitektur - Hardware-Komponenten - Mikroprogrammierung - Rechnernetze - Schnittstellentechnik - Rechnerorganisation - Prozessdatenverarbeitung
Angewandte Informatik - Computergraphik - Künstliche Intelligenz - Simulation und Modellierung - Textverarbeitung und Büroautomatisierung - Anwendungen in Fachdisziplinen wie - Wirtschaftsinformatik - Bioinformatik - Medizin. Informatik - Umweltinformatik - Geoinformatik
Abb. 1.3: Teilgebiete der Informatik
Ansatz und Aufgaben der Informatik
7
Theoretische, praktische und technische Informatik werden unter dem Oberbegriff Kern-Informatik zusammengefasst. Die Angewandte Informatik befaßt sich mit der Umsetzung von Methoden der Kern-Informatik in anderen Wissenschaften (z.B. Wirtschaftsinformatik, Geoinformatik, Umweltinformatik) und mit den im jeweiligen Umfeld notwendigen Techniken (z.B. Speicherung und Verwaltung raumbezogener Informationen, Verarbeitung und Verwaltung von Funktionen und Geschäftsprozessen in einem Handelsinformationssystem). Die systematische Verarbeitung von Informationen mit Hilfe von Algorithmen und technischen Werkzeugen oder Rechenapparaten hat eine lange Tradition. Die Anfänge und die eigentliche Entwicklung des Rechnens und dann auch der Rechner können mit der Erfindung der Zahlensysteme gleichgesetzt werden. Bereits früh entstanden erste Rechenhilfen und einfache Rechengeräte, von denen der Abakus heute noch eine gewisse Bedeutung hat. Allerdings kamen erst ab dem 17. Jahrhundert mechanisch arbeitende, funktionstüchtige Rechenmaschinen für die Grundrechenarten auf. Die stürmische Entwicklung der modernen elektronischen Rechenanlagen und dadurch später die Herausbildung der Informatik als Wissenschaft begannen erst in den 1940ziger Jahren (vgl. Tab. 1.1): Tabelle 1.1: Meilensteine der Informatik 1941 Zuse baut die elektro-mechanische Anlage Z3 (erster funktionsfähiger programmgesteuerter Rechenautomat, Lochstreifeneingabe, 2000 Relais, Multiplikationszeit etwa 3 Sek.). 1944 In Zusammenarbeit mit IBM entwickelt Aiken die teilweise programmgesteuerte Rechenanlage MARK 1 (Multiplikation 6 Sek.). 1946 Der erste vollelektronische Rechner (ENIAC, Electronic Numerical Integrator and Automatic Calculator mit 18000 Elektronenröhren, Multiplikation 3 Millisek.) wird von Eckart u. Mauchly fertiggestellt. 1946- Von Neumann, Turing u.a. entwickeln das Grundprinzip der modernen Computer: Ein1952 zelprozessor, Programm und Daten im gleichen Speicher. 1949 Der erste universelle Digitalrechner (EDSAC Electronic Delay Storage Automatic Calculator, gespeichertes Programm) wird von Wilke fertiggestellt. 1951 Die erste Serienfertigung von Universalrechnern beginnt (z.B. USA: UNIVAC I mit 5600 Röhren, 18000 Dioden, 19 t Gewicht). Drei Jahre später wird die erste Großserie eines Computers aufgelegt (IBM 650, 2200 Stück). 1954 Die erste hochentwickelte Programmiersprache für naturwissenschaftlich-technische Anwendungen FORTRAN wird eingeführt. 1955 Die Computer auf der Basis von Elektronenröhren erreichen ihre höchste Entwicklungsstufe. 1956 In den USA wird der erste volltransistorisierte Rechner gebaut (TX-O). 1964 Die ersten kommerziellen Computer mit integrierten Schaltungen kommen auf den Markt. 1972 Der erste Supercomputer CRAY-1 mit teilweise parallelen Prozessoren, hoher Baudichte und Halbleiterspeicher wird gebaut. 1976 Job und Wozniak entwickeln in den USA den ersten „Personal Computer“ (Geburtsjahr von Apple). 1981 IBM stellt am 12. August den PC (Personal Computer) vor. 1994 Rechner werden in massiver paralleler Datentechnik gebaut. 1990er Global Positioning System und PDA ermöglichen neue Formen der Navigation und des mobile Computing
8
Einführung
Die weiteren Entwicklungen sind schwer abzuschätzen. So können z.B. optische Computer, bei der optische Bauelemente die elektronischen ersetzen oder Lichtwellenleiter die Kupferkabel verdrängen, eine neue Hardwaregeneration einleiten. Insbesondere können optische Schaltelemente zu neuartigen Schaltlogiken führen, die auf mehreren unterschiedlichen und unterscheidbaren Zuständen aufbauen können und die nicht wie beim binären Ansatz auf der Basis von elektronischen Elementen auf nur zwei Zuständen beruhen (Auflösen des „binären Ansatzes“; vgl. ferner zum Quantencomputer: Quantum Computation - Weblink).
1.3
Informatik und Gesellschaft
Neben den klassischen Arbeitsfeldern der Kerninformatik und der Angewandten Informatik ist ein Gebiet „quer“ zur Informatik entstanden, das sich mit den Auswirkungen der Informatik auf gesellschaftliche Entwicklungen beschäftigt und das inzwischen sämtliche Wissenschaften oder Bereiche des gesellschaftlichen Lebens erfasst hat. Dieses Gebiet wird am ehesten durch den Begriff „Informatik und Gesellschaft“ umschrieben. Dabei geht es neben der Technikbewertung vor allem um die Abschätzung von Technologiefolgen (vgl. Jischa 1993, Lenk 1993, Skorupinski u. Ott 2000, vgl. auch Fachbereich 8 „Informatik und Gesellschaft“ der Gesellschaft für Informatik, vgl. Gesellschaft für Informatik - Weblink). Auch im engeren Bereich der Geoinformatik wurden bereits gesellschaftliche Aspekte der neuen Technologien untersucht. In Arbeiten des National Center for Geographic Information and Analysis wurden vor allem Fragestellungen im Zusammenhang mit GIS thematisiert (vgl. Harris u. Weiner 1996, Couclelis 1996, Zusammenstellung nach Brassel u.a. 1998): - Epistemologie von GIS (z.B. kritische Aspekte des Informationsgehaltes von GIS, historische Aspekte, welche Realitäten vermittelt GIS?, Virtualisierung), - GIS, Dateninstitutionen und Zugang zu Information (z.B. soziale, institutionelle, regionale Privilegien, ethische Fragen, GIS und globaler Wandel, Verletzung der Persönlichkeitssphäre/Datenschutz, Urheberrechtsfragen), - Gesellschaftliche Auswirkungen des technologischen Wandels (Enträumlichung des Raums - Raum ohne Ausdehnung, Beschleunigung wirtschaftlicher und sozialer Prozesse, Entstehung einer Informationsklassengesellschaft, Einflüsse auf die Rollen der Geschlechter, Informationsüberflutung, Änderung des Produzenten-Konsumenten-Verhältnisses, neue Organisationsformen, z.B. virtuelle Unternehmen), - Alternative GIS-Modelle (z.B. föderalistisch statt zentralistisch, individuelle Freiheit/Entfaltungsmöglichkeiten vs. Kontrolle, Auswirkungen von unsicherer Information in GIS, virtuelle Realitäten, Auswirkungen der Internettechnologie), - GIS und lokale Gemeinschaften (lokales Wissen, Einfluss der neuen Technologie auf lokale Strukturen, GIS für partizipative Gemeindemodelle), - Räumliche Technologien, GIS und städtischer Raum (Zugriff auf Technologie und räumliche Interaktion, Verkehrsverhalten, Investitionsverhalten).
2 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
2.1
Information, Nachricht, Datum
In der Informatik kommt den „Informationen“ eine zentrale Bedeutung zu. Ebenso verbinden sich in der Informatik mit den Begriffen Nachricht, Signale, Zeichen und Datum klar definierte Inhalte, die sich nicht mit umgangssprachlichen Bedeutungen decken: Information umfasst eine Nachricht zusammen mit ihrer Bedeutung für den Empfänger. Eine Nachricht ist eine endliche Folge von Signalen einschließlich ihrer räumlichen und zeitlichen Anordnung, die somit nach vorher festgelegten Regeln zusammengestellt ist. Signale sind elementare feststellbare Veränderungen wie z.B. ein Ton, eine Mimik, ein Lichtblitz, eine Farbveränderung, eine Bewegung oder ein elektrischer Impuls. Unterschieden werden analoge Signale, die einen zeitlich/räumlich kontinuierlichen Verlauf besitzen (z.B. Schallwellen), und digitale Signale, die zeitlich kurz sind und nur eine begrenzte Zahl von Werten - zumeist nur zwei - annehmen können. Während in analogen Signalen die Information mit Hilfe von Signalhöhe und -dauer verschlüsselt ist, wird in digitalen Signalen die Information durch Signalanzahl, -abstand und (evtl.) -dauer verschlüsselt. In einem Digitalrechner werden digitale Daten verarbeitet, die durch zwei diskrete und klar zu trennende Signale (0 und 1) dargestellt werden.
13
T SALE 4
Abb. 2.1: Beispiele von Nachrichten
Die in der Abbildung 2.1 aufgelisteten Nachrichten, die sich aus einer strukturierten Abfolge von Signalen, d.h. hier von Farbveränderungen auf einer weißen Papiergrundlage, zusammensetzen, haben zunächst für den Leser und Empfänger keine Bedeutung. Erst durch die Verarbeitung dieser Nachricht beim Empfänger, wozu u.a. Entschlüsselung, Berechnung und Interpretationen gehören können, erhält die Nachricht einen Sinn und wird für den Empfänger zur Information. Das japanische Zeichen steht für die Silbe dai mit der Bedeutung „groß“.
10
Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Die Zahl 13 erhält für den Empfänger erst dann eine Bedeutung, wenn Temperaturdaten in Grad Celsius übermittelt werden sollen (nicht in Fahrenheit oder nicht 13 Jahre oder 13 Franken). Die Nachricht T4SALE soll eine Sammlung von Softwarewerkzeugen in Datenbanken kennzeichnen: Tools for Searching, Accumulation, Labeling, Estimation (Wortspiel mit „tea for sale“). Die letzte Zeichenfolge stellt Morsesignale dar. Dann kann die Signalfolge als die Buchstabenfolge SOS entschlüsselt werden. Diese Nachricht wird erst dann beim Empfänger zu einer Information, wenn er die international anerkannte Bedeutung dieser Buchstabenfolge kennt (Hilferuf, Save Our Soules). Zur Darstellung von Informationen werden zumeist Zeichen verwandt, worunter ein Element aus einer zur Darstellung von Information vereinbarten endlichen Menge von Objekten (dem Zeichenvorrat) verstanden wird. Dabei ist Zeichen nicht mit Symbol gleichzusetzen, das ein Zeichen zusammen mit der dem Zeichen zugeordneten Bedeutung umfasst. So besteht z.B. der Zeichenvorrat einer Verkehrsampel aus den Farben Rot, Gelb und Grün. Allerdings kann das Zeichen „Rot“, d.h. „Rotes Ampellicht“, bereits als Symbol verstanden werden, da in diesem Zusammenhang die Bedeutung des Zeichens evident ist. Ein linear geordneter Zeichenvorrat wird allgemein als Alphabet bezeichnet. Alphanumerische Zeichen entstammen einem Zeichenvorrat, der aus mindestens Dezimalziffern und Buchstaben besteht. Numerische Zeichen entstammen einem Zeichenvorrat, der überwiegend einer ziffernorientierten Zahlendarstellung dient und entweder nur aus Ziffern oder aus Ziffern und denjenigen ergänzenden Buchstaben und Sonderzeichen besteht, die zu einer solchen Zahlendarstellung erforderlich sind. Daten sind Zusammensetzungen aus Zeichen oder kontinuierliche Funktionen, die auf der Basis von Konventionen Informationen darstellen. Sie dienen vorrangig der Verarbeitung oder als deren Ergebnis, wobei die Verarbeitung die Durchführung mathematischer, umformender, übertragender und speichernder Operationen umfasst. Digitale Daten bestehen nur aus Zeichen, analoge Daten nur aus kontinuierlichen Funktionen. Nach Anwendungsbereichen ergeben sich mehrere Klassifizierungen von Daten. Zu unterscheiden sind mindestens: - Eingabedaten liefern die zur Lösung einer Aufgabenstellung notwendigen Informationen, während Ausgabedaten die Lösung der Aufgabe beschreiben. - Aktive Daten wie z.B. Programmanweisungen steuern und kontrollieren einen Arbeitsprozess, während passive Daten wie z.B. Eingabedaten in einem Arbeitsprozess verarbeitet werden. - Numerische Daten umfassen Ziffern und bestimmte Sonderzeichen wie z.B. die Vorzeichen, alphanumerische Daten setzen sich aus beliebigen Zeichen des Zeichenvorrats zusammen (d.h. Buchstaben, Ziffern, Sonderzeichen). Die Grundbegriffe der Informationsverarbeitung, zu denen die hier genannten Begriffe gehören, werden in den neun Teilen der DIN 44300 definiert. Das Deutsche Institut für Normen hat sich mit dieser Terminologienorm um eine deutschsprachige Umschreibung oder Festlegung zentraler Begriffe bemüht, die zuweilen aber recht umständlich erscheinen.
Automat, Computer, Programm, Hard- und Software
2.2
11
Automat, Computer, Programm, Hard- und Software
Unter einem (technischen) Automaten versteht man im Allgemeinen eine Maschine (d.h. ein technisches oder mechanisches Gerät), die eine Eingabe in Empfang nimmt und in Abhängigkeit von Eingabe und Zustand der Maschine eine Ausgabe produziert. Ein endlicher Automat besitzt nur endlich viele Eingabemöglichkeiten und Zustände, wobei zumeist die Begriffe Automat und endlicher Automat synonym benutzt werden. Bekannte Beispiele von Automaten im täglichen Leben sind Getränkeautomaten oder Kartenautomaten (vgl. Abb. 2.2). Entsprechend der obigen Definition erwarten sie eine Eingabe (Geld einwerfen, durch Betätigen eines Auswahlknopfes das gewünschte Produkt auswählen, Geldrückgabeknopf betätigen), besitzen verschiedene Zustände (Geldbetrag ist ausreichend eingegeben, Automat ist bereit) und erzeugen eine Ausgabe (Ausgabe der Ware, Rückgabe des Geldes, Ausgabe eines Signaltons).
Eintrittskartenautomat Kartenwahl Kinder Schüler Erwachsene Senioren
0,00
Geldeingabe
Kartenart wählen Geld eingeben
Storno Geldrückgabe
Kartenausgabe
Abb. 2.2: Eintrittskartenautomat für ein Schwimmbad
Derartige Kartenautomaten arbeiten wie sämtliche Automaten, also auch wie die hier eingehender zu behandelnden Computer und Automaten zur Informationsverarbeitung, nach einem zentralen Prinzip, das den Grundablauf der technischen Funktionen eines Automaten „Eingabe“, „Verarbeitung“, „Ausgabe“ umschreibt, und das als das EVA-Prinzip bezeichnet wird (vgl. Kap. 2.3). Gegenüber diesen noch anschaulichen Beispielen versteht man in der Informatik unter Automaten abstrakte mathematische Modelle von Geräten, die Informationen verarbeiten. Der Zweig der Theoretischen Informatik, der sich mit der Untersuchung dieser mathematischen Modelle beschäftigt, wird Automatentheorie genannt. Ein Computer ist ein Automat, der durch ein Programm gesteuert wird. Die Verwendung verschiedener Programme zur Lösung unterschiedlicher Aufgaben macht einen Computer universell einsatzfähig. Gerade die freie, beliebige Programmierbarkeit kennzeichnet ein grundsätzliches Merkmal eines Computers. Anstelle der englischen Bezeichnung (digital) computer benutzt die DIN 44300 (Teil 5) zur Informationsverarbeitung den Begriff (digitale) Rechenanlage und versteht darunter sinngemäß sämtliche Baueinheiten, aus denen sich ein (digitales) Rechensystem zusammensetzt. Ein Rechensystem stellt dabei eine Funktionseinheit zur Verarbeitung und Aufbewahrung von Daten dar. Ein digitales Rechensystem wird in der DIN 44300 als ein Schaltwerk definiert, dessen sehr komplexe Definition auf die formale Beschreibung eines endlichen Automaten zurückführt.
12
Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Computer, Computersysteme bzw. digitale Rechenanlagen können aufgrund der Leistungsfähigkeit oder Kosten in unterschiedliche Kategorien eingeteilt werden. Klassisch ist die Unterscheidung in Mikrocomputer, Minicomputer, Großrechner und Supercomputer. Dabei wird die Klasse der Mikrocomputer als Personal Computer (PC) und die der Minicomputer als Workstation bezeichnet. Gerade diese beiden Klassen von Computersystemen werden für Anwendungen in der Geoinformatik eingesetzt. Daher stehen sie in der vorliegenden Einführung im Mittelpunkt. Workstation können als leistungsfähigere Personal Computer angesehen werden. Allerdings sind die Übergänge zwischen Mikro- und Minicomputern zumeist fließend. So können leistungsfähige Personal Computer durchaus mit einer Workstation konkurrieren, wobei die Leistung auch vom Betriebssystem und den hierfür konzipierten Programmen sowie von den Anwendungen abhängt. Ein Programm besteht aus einer Folge von Anweisungen oder Ausführungsvorschriften in einer nach den Regeln der verwendeten Sprache festgelegten Syntax zur Eingabe, Verarbeitung und Ausgabe von Informationen. Die einzelnen Schritte eines Programms werden in der Regel nacheinander (d.h. sequentiell) ausgeführt, wobei durchaus Wiederholungen, sog. Schleifen, oder Sprünge auftreten können. Inzwischen sind auch Programme einsatzfähig, die eine Parallelverarbeitung von Programmschritten erlauben. In Abhängigkeit von den äußeren Bedingungen, vor allem in Abhängigkeit der Eingaben und der Zustände des Computers, kann für ein identisches Programm die Dynamik des Programmablaufs verschieden sein. Daher wird die Programmausführung, also das Programm zusammen mit den dazugehörigen Eingaben (d.h. Daten), als ein Prozess definiert. Die Software umfasst die Gesamtheit oder Teile der Programme, die auf einem Computersystem eingesetzt werden können. Die Programme ermöglichen den Betrieb eines Computersystems und die Lösung von Aufgaben mit Hilfe eines Computersystems. Entsprechend muss zwischen Systemsoftware und Anwendungssoftware unterschieden werden (vgl. Kap. 3.2.2, 4.9 u. 4.11): Unter der Systemsoftware werden alle Programme zusammengefasst, die für den korrekten Ablauf einer Rechenanlage erforderlich sind (z.B. Betriebssysteme), und die Programme, die die Programmerstellung unterstützen wie z.B. Compiler (d.h. „Übersetzer“ von Programmen verschiedener Programmiersprachen) oder Testwerkzeuge. Unter der Anwendungssoftware wird die aufgabenbezogene und fachspezifische Software zur Lösung von Benutzerproblemen (z.B. zur Textverarbeitung, zur Buchhaltung, zur Simulation) verstanden. Die Vorsilbe „soft“ soll verdeutlichen, dass es sich bei der Software um leicht veränderbare Komponenten einer Rechenanlage handelt. Die Hardware umfasst die Gesamtheit oder Teile der Bauelemente und technischen Geräte eines Computersystems. Hierzu gehört vor allem der sog. Prozessor, der die Prozesse (d.h. die Programme mit den zugehörigen Daten) ausführt. Zur Hardware gehören ferner die (internen und externen) Speicher, die Peripheriegeräte (u.a. Drucker, Scanner) zur Ein- und Ausgabe sowie die Bestandteile der Vernetzung. Die Vorsilbe „hard“ soll verdeutlichen, dass es sich bei der Hardware um die physikalisch materiellen Teile einer Rechenanlage handelt, die unveränderbar (und nicht kopierfähig) sind.
EVA-Prinzip der Informationsverarbeitung
13
Häufig können Funktionen des Computers sowohl durch die Software als auch durch die Hardware realisiert werden (z.B. komplexe Rechenoperationen oder Zoomfunktionen am Bildschirm). Dabei ist die Hardware-Realisation im Allgemeinen schneller, wohingegen die Software-Realisation flexibler ist. Zur Entwicklung eines Programms werden fast ausschließlich höhere Programmiersprachen benutzt (vgl. Kap. 3.2.1), die eine recht einfache Formulierung von Algorithmen ermöglichen und die mächtige Anweisungen und Werkzeuge bereitstellen. Derartige Programme sind zwischen verschiedenen Rechensystemen austauschbar. Diese Instruktionen müssen aber vor der Ausführung im Rechner in mehrere Befehle der sog. Maschinensprache übersetzt werden, d.h. in sog. (binärcodierte) Maschinenbefehle, die als (spezifische) Befehlsworte eines Prozessors ausgeführt werden können (vgl. Kap. 3.2.1 u. Tab. 3.1 u. 3.2). Letztlich erfolgt die Ausführung eines Befehls in der Maschinensprache durch mehrere elementare Operationen in der Hardware (z.B. Schaltungen). Diese elementaren Operationen werden durch Mikrobefehle gesteuert, die jeweils ein Mikroprogramm bilden. Die Firmware bezeichnet bei mikroprogrammierbaren Rechenanlagen die Menge aller in einem Prozessor realisierten Mikroprogramme, die den sog. Befehlsvorrat des Prozessors bestimmen (vgl. Kap. 3.1.2). So besitzen die gängigen Prozessoren der Personal Computer Kopierbefehle, die aus Mikroprogrammen bestehen, mit denen Daten aus einer Speicherzelle in eine andere Speicherzelle kopiert werden. Die Vorsilbe „firm“ soll verdeutlichen, dass die Mikroprogramme prinzipiell verändert werden können, jedoch über einen längeren Zeitraum fest bleiben. Änderungen an der Firmware nimmt i.a. nur der Hersteller von Computern vor. Die Firmware wird weder zur Hard- noch zur Software gezählt. Sie steht zwischen den Geräten und den Programmen. Insgesamt besteht hinsichtlich Universalität und Anwenderbezug eine ausgeprägte Software-Hardware-Hierarchie.
2.3
EVA-Prinzip der Informationsverarbeitung
Ein Computer wandelt Eingabedaten nach bestimmten Regeln in Ausgabedaten um. Diese Regeln und Anweisungsvorschriften werden dem Computer durch ein Programm mitgeteilt. Dabei setzt das Programm den auszuführenden Algorithmus um (z.B. die Berechnung der Größe einer Grundstückfläche bei bekannten Eckkoordinaten, vgl. Abb. 3.16), so dass die Arbeitsschritte vom Computer interpretiert und schrittweise abgearbeitet werden können. Die Abbildung 2.3 beschreibt das EVA-Prinzip der Informationsverarbeitung, das für alle Rechnerklassen gilt. Vor allem zur Datensicherung und Vereinfachung der Dateneingabe kommt neben Eingabe, Verarbeitung und Ausgabe als weitere technische Funktion die Speicherung von Daten und Programmen auf externen Speichergeräten hinzu. Zur Verarbeitung der Daten gehört auch der einfache lesende Zugriff auf gespeicherte Daten, um sie z.B. mit Auskunftssystemen auszugeben.
14
Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Die Zentraleinheit eines Computersystems führt immer die Verarbeitung der Daten aus. Allerdings wird der Begriff Zentraleinheit häufig mehrdeutig verstanden (vgl. weitergehend zum Aufbau eines Computersystems Kap. 3 u. 4). So werden alle Funktionseinheiten, die zur Interpretation und Ausführung von (Maschinen-)Befehlen benötigt werden, als Zentraleinheit oder Rechnerkern bezeichnet. Dabei werden die Begriffe Zentraleinheit, Rechnerkern oder die englischsprachige Benennung Central Processing Unit (CPU) synonym für den eigentlichen Prozessor verwandt, der u.a. aus dem Rechen- und Steuerwerk besteht und der z.B. die arithmetischen Rechenoperationen übernimmt. Auch wird mit Zentraleinheit der Prozessor zusammen mit dem Arbeitsspeicher bezeichnet. Die DIN 44300 fasst sinngemäß den Prozessor, den Arbeitsspeicher und den Ein-/Ausgabeprozessor zur Zentraleinheit zusammen.
Eingabe
Programm
Ausgabe
Algorithmus
Eingabegeräte
Zentraleinheit
Ausgabegeräte
Externe Speichergeräte
Abb. 2.3: EVA-Prinzip der Informationsverarbeitung und schematische Darstellung eines Computersystems
Während sich die Verarbeitung der Daten immer in der Zentraleinheit vollzieht, erfolgen die Ein- und Ausgabe sowie die Speicherung der Daten mit sehr verschiedenen Geräten: - Geräte für die Eingabe von Daten (z.B. Tastaturen, Scanner, Mikrophone), - Geräte für die Ausgabe von Daten (z.B. Monitore, Drucker, Lautsprecher), - Geräte für die Speicherung von Daten (z.B. Festplatten, Diskettenlaufwerke, CD-ROM-Laufwerke, Bandlaufwerke). Hier wird deutlich, dass die zumeist umgangssprachlich benutzte Bezeichnung „Computer“ wenig mit der abstrakten Definition eines digitalen Rechensystems übereinstimmt. Vor dem Hintergrund der Komponentenvielfalt und dem systemaren Aufbau soll von einem Computersystem gesprochen werden, das sich aus vielen Einzelkomponenten, stets aber aus den drei Hauptgruppen Zentraleinheit, Ein- und Ausgabegeräte, Speichergeräte zusammensetzt (vgl. auch Kap. 3 u. 4). Für die Gesamtheit der Systemkomponenten könnte dann allenfalls vereinfacht oder verkürzt der Begriff Computer herangezogen werden.
Algorithmen und Programme in Computersystemen
2.4 2.4.1
15
Algorithmen und Programme in Computersystemen Algorithmusbegriff
Algorithmen bilden zentrale Bestandteile von Computersystemen und der Informatik, in der man unter einem Algorithmus eine präzise und eindeutig formulierte Verarbeitungsvorschrift versteht, so dass sie von einer mechanisch oder elektronisch arbeitenden Maschine durchgeführt werden kann (vgl. auch Kap. 3.4). Somit beschreiben Algorithmen Lösungsstrategien von Anwendungsaufgaben. Dabei muss mit diesem Begriff nicht stets eine besonders pfiffige Rechenoperation verbunden werden wie z.B. ausgefeilte, im Hinblick auf Rechengeschwindigkeit und notwendigen Speicherplatz optimierte Sortieralgorithmen. Allerdings ist es gerade eine wichtige Aufgabe der Informatik, optimale Algorithmen und zugehörige Bewertungsformen zu entwickeln. Viel einfacher und allgemeiner verstanden umfasst der Begriff Algorithmus die formalisierte Beschreibung eines Lösungsweges, der dann durch ein Programm in einer für einen Computer verständlichen und ausführbaren Form umgesetzt wird. Ein Programm kann somit als die Realisierung eines Algorithmus definiert werden. Als klassisches Beispiel gilt der Algorithmus von Euklid, der den größten gemeinsamen Teiler zweier natürlicher Zahlen a und b bestimmt (vgl. Herrmann 1992 S. 61ff.). Bei der Wiedergabe der Handlungsvorschriften wird eine formalisierte Schreibweise benutzt, die bereits einem Computerprogramm ähnelt (sog. Pseudoprogramm): Beispiel: gesucht ggt (96,36) f(a,b) o ggt (a,b) Eingabe: a, b (a größere Zahl) wiederhole r: = a mod b a: = b b: = r bis r = 0 ggt(a,b): = a Ausgabe ggt (a,b) Ende Comment r: = a mod b („modulo“, Rest, der bei Division a:b entsteht)
Eingabe
a
b
96
36
36
24
24
12
12
0
Schritt 1
r = a mod b
24
Schritt 2
12
Schritt 3
0
Neben dem Algorithmus von Euklid bestehen weitere Algorithmen zur Bestimmung des größten gemeinsamen Teilers. Entsprechend liegen in der Regel zur Lösung einer Aufgabe mehrere Algorithmen vor, die aber unterschiedlich leistungsfähig sind. Die Informatik hat Methoden entwickelt, um die Komplexität eines Algorithmus zu bewerten, worunter allgemein der zur Berechnung erforderliche Aufwand an Betriebsmitteln, zumeist aber nur der erforderliche Speicheraufwand und die erforderliche Rechenzeit verstanden wird (vgl. Kap. 3.4.4).
16
Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
2.4.2
Programmablaufpläne und Struktogramme
Ein Algorithmus, der für die Abarbeitung in einem Computer entwickelt werden soll, muss rechnergerecht vorbereitet werden. Zunächst wird der Algorithmus auf Papier oder - bei wenig komplexen Algorithmen - sofort interaktiv mit Hilfe des Computers am Bildschirm entworfen. Dabei lässt sich das Ablaufschema eines kleineren Algorithmus durch Graphiken (sog. Flussdiagramme oder Programmablaufpläne) aufzeigen, die normierte graphische Symbole benutzen (vgl. Beispiele in Abb. 2.4). Allerdings sind die Ablaufpläne nur für kurze Algorithmen geeignet. Mit zunehmender Länge und Komplexität werden sie unübersichtlich.
Aktion, Operation
Ja
Bedingung Verzweigung
Ein-/Ausgabe
Schnittstelle (Beginn, Ende, Halt)
Ablaufrichtung
Nein
Übergangsstellen
Manuelle Verarbeitung
Kommentar
Abb. 2.4: Ausgewählte Sinnbilder für Programmablaufpläne
Von Nachteil sind u.a. fehlende Darstellungsmittel für Schleifen und Rekursionen (zu diesen Sprachelementen vgl. 3.4.3). Derartige Flussdiagramme entstammen einer Zeit, als noch relativ maschinenorientiert sowie mit Hilfe von Sprungbefehlen programmiert werden musste und leistungsfähige Programmiersprachen, die elegantere Umsetzungen ermöglichen, noch nicht entwickelt waren. Somit werden Programmablaufpläne heute kaum noch verwandt. Demgegenüber bieten Struktogramme übersichtlichere Darstellungsmöglichkeiten (sog. Nassi-Shneidermann-Diagramme). Diese graphischen Ausdrucksmittel gehören zur sog. strukturierten Programmierung (vgl. Kap. 3.2.4.1). Bei dieser Veranschaulichung wird ein Programm in mehrere Strukturblöcke zerlegt. Die Abbildung 2.5 verdeutlicht an einer weiteren Variante des Algorithmus von Euklid beide Darstellungsmöglichkeiten. Derartige graphische Hilfsmittel eignen sich - wenn auch in Grenzen - nicht nur zur Formulierung von formalen, mathematischen Algorithmen, um sie anschließend in ein Computerprogramm umzusetzen. In der Informatik werden hierdurch zentrale Verarbeitungsvorschriften und Programmabläufe auch einem breiten Anwenderkreis anschaulich zugänglich gemacht, ohne dass Programmdetails preisgegeben oder Kenntnisse einer Programmiersprache vorausgesetzt werden. Sie können auch zur Formalisierung und Verdeutlichung allgemeiner Lösungswege und Lösungsstrategien herangezogen werden und besitzen somit eine Bedeutung zur Formulierung von Forschungsabläufen und Prozessen (vgl. auch Kap. 3.6).
Algorithmen und Programme in Computersystemen
17
Start Eingabe a
Start
Eingabe b ja
Eingabe a Eingabe b
a>b nein b:=b-a
a>b ja
nein
a:=a-b
b:=b-a
a:=a-b solange a=b ja
a=b
Ausgabe a
nein Ausgabe a
Stop
Stop
Abb. 2.5: Algorithmus von Euklid als Flussdiagramm und als Struktogramm
2.4.3
Stufen der Algorithmusausführung in einem Computer
Nach der Formulierung des Algorithmus in einer möglichst formalen Schreibweise müssen die Handlungsanweisungen in Ausführungsvorschriften eines Programms umgesetzt werden, das von einem Computer verarbeitet werden kann. Der Algorithmus wird durch den Vorgang der Programmierung in ein Programm umgesetzt. Dabei wird in der Regel eine sog. höhere oder problemorientierte Programmiersprache verwandt (vgl. Kap. 3.2.3), die unabhängig von der technischen Ausstattung des Rechners ist, die für den Programmierer (relativ) leicht verständlich ist und Sprachelemente aus der Alltagssprache besitzt (z.B. „repeat“ für eine Wiederholungsaufforderung). Allerdings ist der Rechner nicht in der Lage, diese Sprache zu verstehen und in Handlungen wie z.B. Rechenschritte umzusetzen. Das Programm im sog. Quellcode (Sourcecode), d.h. in der verständlichen Formulierung durch die höhere Programmiersprache, muss weiter in eine rechnergerechte Form und in Rechnerbefehle übersetzt werden (vgl. eingehender Kap. 3.2 u. 3.2.2 u. Abb. 3.8 u. 3.9). Der Rechner, d.h. genauer der Prozessor, besitzt eigene Befehle, in die das Programm zunächst transformiert werden muss. Dabei haben Prozessoren je nach Hersteller unterschiedliche Befehlsvorräte. Zwar könnte auch in Maschinenbefehlen programmiert werden, in den Anfängen der Informatik musste in dieser Form vorgegangen werden, diese Programmierung ist aber schwierig und fehleranfällig. Zudem ist ein in einer Maschinensprache vorliegendes Programm nicht mehr universell einsetzbar und ebenfalls abhängig vom Rechner bzw. Prozessor. Somit werden inzwischen Programme fast nur in einer höheren Programmiersprache erstellt, die dann in Programme in Maschinensprache übersetzt werden müssen.
18
Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Dieser Vorgang geschieht mit Hilfe von Übersetzerprogrammen (sog. Compilern), die ebenfalls rechner- bzw. prozessorabhängig sind. Somit sind z.B. für bestimmte Prozessoren erstellte Programme nicht auf anderen Prozessoren einsatzfähig (vgl. „Programmtausch“ zwischen Personal Computern und Workstations). Das in die Maschinensprache übersetzte Programm wird vom Prozessor umgesetzt und ausgeführt.
2.5
2.5.1
Darstellung von Informationen in Computersystemen durch Bitfolgen Binärdarstellungen
Ein Bit (Abkürzung für binary digit) stellt die kleinstmögliche Einheit der Information dar. Ein Bit kennzeichnet die Informationsmenge in einer Antwort auf eine Frage, die nur zwei Möglichkeiten zulässt wie z.B. ja oder nein, wahr oder falsch, links oder rechts. Derartige Antworten, die nur zwei Möglichkeiten umfassen, lassen sich einfach durch zwei Zeichen codieren. Dabei werden zumeist die Zeichen 0 und 1 benutzt. Diese Codierungen können technisch dargestellt werden z.B. durch elektrische Ladungen: 0 = ungeladen 1 = geladen durch elektrische Spannungen: 0 = 0 Volt 1 = 3,5 Volt durch Magnetisierungen: 0 = unmagnetisiert 1 = magnetisiert. Diese Umsetzungen werden auch Binärdarstellungen genannt. So heißt ein Element binär, wenn es nur zwei sich gegenseitig ausschließende Zustände annehmen kann. Informationen werden technisch dadurch verarbeitet, indem z.B. geprüft wird, ob eine bestimmte Spannung anliegt oder ob eine bestimmte Stelle auf einer Magnetscheibe magnetisiert ist. Der grundlegende Ansatz der technischen Informatik, d.h. der technischen Realisation der Informationsverarbeitung und der Datenspeicherung, besteht somit darin, sämtliche Informationen (z.B. logische Werte, Texte, Zahlen, Bilder, Töne) durch geeignete Codierungen auf diese Basiszustände von elektronischen Bauelementen zurückzuführen. Die Informatik liefert dann Methoden, die durch Bits bzw. durch Bitfolgen codierten Informationen zu verarbeiten. Im Kapitel 2.6 wird beispielhaft das einfache Rechnen mit Bitfolgen gezeigt, die Zahlen darstellen. Ein Computersystem, das Informationen verarbeitet, operiert nie mit einzelnen Bits. Stattdessen wird immer nur mit Gruppen von Bits gearbeitet, entweder mit 8 Bits, 16 Bits, 32 Bits oder 64 Bits. Immer ist die Länge eines Bitblocks ein Vielfa-
Darstellung von Informationen in Computersystemen durch Bitfolgen
19
ches von 8. Daher wird eine Gruppe von 8 Bits auch als 1 Byte bezeichnet. Für 1 Byte wird die Abkürzung 1B benutzt. Übliche Abkürzungen sind: 1 Kilobyte 1 Megabyte 1 Gigabyte 1 Terabyte 2.5.2
= 2 10 Byte = 1024 Byte =1 kB = 2 20 Byte = 1024 x 1024 Byte = 1 MB = 2 30 Byte = 1024 x 1024 x 1024 Byte = 1 GB = 2 40 Byte = 1024 x 1024 x 1024 x 1024 Byte = 1 TB
Bitfolgen
Zumeist lässt die Beantwortung einer Frage mehr als ein Bit an Information zu. So sind auf die Frage der vorherrschenden Windrichtung mindestens 4 Antworten (Nord, Ost, Süd, West) möglich. Obschon also 4 Varianten möglich sind, ist der Informationsgehalt der Antwort nur 2 Bit. Die ursprüngliche Frage kann nämlich in zwei andere Fragen verwandelt werden, die jeweils nur zwei Antworten zulassen: - Ist die vorherrschende Windrichtung Nord oder Ost (ja/nein)? - Ist die vorherrschende Windrichtung Ost oder West (ja/nein)? Bei dieser Gestaltung der Fragen ist zu beachten, dass jeweils nicht zwischen zwei Alternativen ausgewählt wird. Die erste Frage ist bei Nord- und bei Ostwind mit „ja“ zu beantworten, bei Süd- und bei Westwind lautet die Antwort „nein“. Erst nach Beantwortung auch der zweiten Frage wird die Windrichtung eindeutig bestimmt. Somit wird die vorherrschende Windrichtung Nord durch die Antwortkombinationen „ja“ / „nein“ verdeutlicht. Wird die Antwort „ja“ durch „1“ und die Antwort „nein“ durch „0“ codiert, dann werden die vier vorherrschenden Windrichtungen durch folgende Bitfolgen repräsentiert: 00 (Süd), 01 (West), 10 (Nord), 11 (Ost) Mit einem zusätzlichen Bit, also jetzt mit 3 Bits, können Fragen beantwortet werden, die 8 mögliche Antworten zulassen. Mit 3 Bits können 23 = 8 Antwortmöglichkeiten codiert werden. Derartige Codierungen liegen auf der Hand, wenn von vorneherein sämtliche Kombinationsmöglichkeiten betrachtet werden: 110 (N), 100 (O), 010 (S), 000 (W), 111 (NO), 101 (SO), 011 (SW), 001 (NW). So verdoppelt jedes zusätzliche Bit die Anzahl der möglichen Bitfolgen. Allgemein gilt: Es gibt genau 2 N mögliche Bitfolgen der Länge N. Mit 5 Bits, die 25 = 32 Möglichkeiten präsentieren, können bereits die 26 Buchstaben des Alphabets ohne Umlaute und ohne Unterscheidung von Groß- und Kleinschreibung dargestellt werden. In einem Computer werden aber weitaus mehr Zeichen, d.h. Textzeichen wie z.B. „+“, „ 0 die Fälle, für die gilt: (wi > 0 und wi+1 < 0) oder (wi < 0 und wi+1 > 0). Dieser Algorithmus hat die Komplexität O(n), wobei n die Zahl der Ecken der Fläche ist. 3.5.2
Graphen und ausgewählte Wegealgorithmen
In der Geoinformatik besteht mit den sog. Wegealgorithmen eine besondere Gruppe von Verfahren, die allgemein auf sog. Netzen operieren und für die vielfältige Anwendungsmöglichkeiten gerade bei der Modellierung von Verkehrswegen und der Ermittlung optimaler Routen angegeben werden können. Mathematische Grundlage ist hierfür die Graphentheorie (vgl. z.B. Jungnickel 1994). Allgemein bestehen Graphen aus einer Menge von Knoten und einer Menge von Kanten, die Knoten verbinden. Um Beziehungen in einem Graphen zu beschreiben, werden die Begriffe Adjazenz und Inzidenz verwandt. Zwei Knoten A und E sind benachbart (adjazent), wenn für sie eine verbindende Kante k(A,E) besteht. Adjazenz bezeichnet dabei die Beziehungen zwischen gleichartigen Elementen eines Graphen. Umgekehrt definieren die beiden topologisch benachbarten Knoten eine Kante, die inzident mit den Knoten ist. Inzidenz bezeichnet dabei die Beziehungen zwischen verschiedenartigen Elementen eines Graphen. Die Knoten A und E sind also inzident mit der Kante k(A,E). Ein Weg ist eine Folge paarweise adjazenter Kanten, die von einem Knoten zu einem anderen Knoten führt. Ein Graph heißt zusammenhängend, wenn für zwei beliebige Knoten (mindestens) ein Weg besteht. Ein vollständiger Graph liegt vor, wenn alle Knotenpaare adjazent sind. Falls mehrere Wege zwischen zwei Knoten bestehen, besitzt der Graph (mindestens) eine Schleife. Ein schleifenloser, zusammenhängender Graph wird Baum genannt. A
C
A
B E
F
D
G
C
E
I
zusammenhängender Graph
G
C
F
E
I
nicht zusammenhängender Graph
Abb. 3.24: Typen von Graphen
G
C
F
E
H
I
G
C B
F
D
Baum
A
B
D
H
A
B
D
H
A
B
E
F
D
H
I
Graph nur aus Schleifen
G
H
I
nicht planarer Graph
Grundlegende Algorithmen der Geoinformatik
95
Neben vielfältigen Einsatzmöglichkeiten bei Fragestellungen in Verkehrs- und Kommunikationsnetzen besitzen Graphen auch bei der geometrisch-topologischen Modellierung von Flächen in vektorbasierten Geoinformationssystemen große Bedeutung (vgl. Kap. 9.2). So definieren Kanten eines zusammenhängenden Graphen Flächen, falls ein Graph nur aus Schleifen besteht. Für zusammenhängende planare Graphen gilt insbesondere der Satz von Euler (vgl. Jungnickel 1994 S. 41ff.): kn - ka + p = 2
(kn = Zahl Knoten, ka = Zahl Kanten, p = Zahl Polygone)
Eine Anwendung ergibt sich bei der Datenerfassung mit Hilfe eines Digitalisiertabletts. Häufig liegen Ergebnisse wie in Abbildung 3.24 vor, die sämtlich aber Flächen darstellen sollen. Nur der vierte Graph, für den kn = 9, ka = 11, p = 4 gilt, für den also der Satz von Euler zutrifft, modelliert sämtliche Flächen korrekt. Hierbei stellt das „unendliche“ Gebiet außerhalb des Graphen eine Fläche dar. Der Satz von Euler bietet somit eine Konsistenzprüfung einer flächigen Modellierung. Ein Graph wie z.B. ein reales Verkehrsnetz, für das Entfernungen, Wegzeiten oder allgemein Widerstände zwischen Knoten kennzeichnend sind, kann durch eine Adjazenzmatrix beschrieben werden. Hierbei drückt das Matrixelement aij den Widerstand zwischen den Knoten i und j aus (vgl. Abb. 3.25). Eine Adjazenzmatrix muss dabei nicht zwingend symmetrisch sein (vgl. z.B. richtungsbezogen unterschiedliche Fahrtzeiten zwischen zwei Knoten).
15
A
A B C D E F G H
B
A 15
B 18
C
B 15
A 15
D
C 18
A 12
D 15
E 20
D 15
B 12
C 20
H
0 15
E 15
C 15
F
15 0 25
F 15
E 25
G
A 0 15 18 18
B 15 0
15 12
C
D
20
15 F
20 25
G
0 12 15
D
15 12 0
20
E
15
H
F
15 E
C 18
15
G H
20 20
20 20
25 0 20
G 20
F 20
C 20
20 0
H 20
G 20
D
G
H
Abb. 3.25: Wegenetz mit zugehöriger Adjazenzmatrix und Listendarstellung
Die Darstellung eines Graphen in Form einer Adjazenzmatrix ist allerdings extrem speicheraufwändig (Speicherplatzkomplexität O (n * n)). Demgegenüber verbraucht die Präsentation in Form von Listen weniger Speicher. Hierbei wird zu jedem Knoten eine Liste definiert, in der die unmittelbaren Nachbarn enthalten sind. Allerdings ist hierfür eine Zugriffsfunktion auf einzelne Kantenwerte recht aufwändig zu implementieren. Die sog. Matrixverfahren zur Berechnung kürzester Wege bestimmen gleichzeitig alle Widerstandswerte auf Wegen zwischen allen Knoten eines Netzes. Der Algorithmus nach Floyd (auch Algorithmus nach Warshall genannt, ein Matrixverfahren) bestimmt für alle Paare von Knoten (I,J) die minimale Entfernung, in dem für ein Knotenpaar (I,J) alle Wege über (genau) einen Zwischenknoten be-
96
Grundlagen aus der Informatik
rechnet werden (vgl. Jungnickel 1994 S. 118). Die Berechnung der Entfernung erfolgt durch: W(I,J) = min ^ W(I,J); W(I,K) + W(K,J) `
Rechentechnisch wird der Algorithmus derart programmiert, dass ein Zwischenknoten festgehalten wird und dann die Entfernungen W(I,J) für sämtliche Knotenpaare errechnet werden: Für K = 1, ..., N Für I = 1, ..., N Für J = 1, ..., N berechne W(I,J) = min ^ W(I,J); W(I,K) + W(K,J) `
Am Ende enthält die Matrix W die kürzesten Entfernungen zwischen beliebigen Knoten. Allerdings lassen sich die einzelnen Routen aus der optimalen Entfernungsmatrix nicht ablesen. Sie müssen vielmehr nachträglich mit Hilfe der Ausgangsmatrix rekonstruiert werden. Dazu wird im Rechenverfahren eine sog. Vorläufermatrix eingeführt, für die als Startwerte gesetzt werden: V (I,J) = I, falls I = J oder I direkt benachbart mit J 0, sonst
Die Notierung der jeweiligen Vorläufer muss dann in den Rechengang des Floyd-Verfahrens eingeführt werden: if (w[i,k] + w[k,j] < w[i,j]) then begin w[i,j]:=w[i,k] + w[k,j] v[i,j]:=v[k,j]; end;
Nach Abschluss der Berechnungen können aus dieser Vorläufermatrix alle gewünschten Routen als eine Abfolge von Knoten bestimmt werden. Da für jeden Knoten der Vorläufer bekannt ist, beginnt man am Zielknoten und rechnet rückwärts (Ziel --> Vorläufer --> Vorläufer --> ... --> Anfang). Die sog. Baumverfahren ermitteln die kürzesten Wege zwischen einem vorgegebenen Quellknoten zu allen übrigen Knoten des Netzes. Die bekannteste Methode ist sicherlich der Algorithmus nach Dijkstra (vgl. z.B. Domschke 1995 S. 101-104). Im Laufe des Verfahrens wird ausgehend von einem Startknoten S eine Folge von Nachfolgerknoten in eine Merkliste eingetragen, die mit den Nachfolgern der Nachfolger sämtliche möglichen Routen von S zum Zielknoten Z aufweist. Für diese Knoten werden geschickt sämtliche Wege überprüft, wobei bereits bearbeitete Knoten nicht noch einmal getestet werden. Der hier wiedergegebene Algorithmus (Pseudo-Programm in PASCAL-Notation nach Domschke 1995) benötigt eine Adjazenzmatrix A[i,j] sowie eine Merkliste MERK, eine Liste der Vorgänger des Knoten i (VORG[ i ] ist Vorgänger zum Knoten i), eine Liste DIST[ i ] der Entfernungen des Knoten i zum Startknoten S:
Grundlegende Algorithmen der Geoinformatik
97
MERK: = {S}, DIST[i]:= f für 1d i d n i z S, DIST[i]:=0 repeat wähle Knoten k aus MERK mit DIST[k]: = min {DIST[i] i MERK} lösche Knoten k aus MERK für sämtliche Nachfolger j von k do (*also 0 < A[k,j] < f *) begin M falls j MERK und DIST[j] = f (*der Nachfolger j von S wurde noch nicht erreicht*) DIST[j] = DIST[k] + A[k,j]; VORG [j]:= k; MERK:=MERK {j}; N
falls j MERK und DIST[j] < f (*der Nachfolger j war markiert und wurde bereits überprüft *) wähle den nächsten Nachfolger j vom Knoten k oder falls bereits alle Nachfolger vom Knoten k überprüft wurden, starte nächste Iteration
O
falls j MERK if DIST[k] + A[k,j] < DIST[j] then begin DIST[j]: = DIST[k] + A[k,j]; VORG[j]: = k; end;
end; until MERK = { }
Diese Algorithmen sind wie die meisten anderen Wegealgorithmen speicherplatz- und zeitkritisch. Die (Zeit-)Komplexität beträgt für den Floyd-Algorithmus O(n3) (vgl. Schleifenorganisation). Beim Dijkstra-Algorithmus ist im ungünstigsten Fall der Aufwand proportional zu n2 (n Zahl der Knoten). Die Laufzeit wird bei sehr dichten Graphen linear, wenn die Zahl der Kanten proportional zu n2 wird (vgl. Sedgewick 1994 S. 530, vgl. auch Domschke 1995 S. 103ff.). Beim Rundreiseproblem, auch Problem des Handlungsreisenden oder Traveling Salesman Problem genannt, ist eine Reihenfolge von n Knoten gesucht, so dass jeder Knoten (außer dem Startknoten) genau einmal besucht wird, die Reise wieder am Start endet und die Länge der Rundreise minimal ist. Alle bisher bekannten Verfahren laufen auf eine vollständige Analyse aller Möglichkeiten hinaus. Ein einfaches Suchverfahren, das sämtliche n! Kombinationen überprüft, ist selbst bei einem kleinen Netz nicht anzuwenden (vgl. Tab. 3.8). Eine grundlegende Methode zur Lösung eines solchen Problems basiert auf einer sog. Branch and Bound Technik. Bei jedem Schritt wird die Menge der noch möglichen Lösungen in zwei oder mehr Teilmengen aufgeteilt, die jeweils durch eine Verzweigung (branch) in einem Entscheidungsbaum dargestellt werden können. Ein für das Rundreiseproblem nahe liegendes Kriterium ist, alle Touren danach einzuteilen, ob eine bestimmte Strecke enthalten ist oder nicht. Das Rundreiseproblem soll an einem sehr einfachen Beispiel mit nur vier Haltestellen verdeutlicht werden. Das Beispiel geht von vier Knoten aus, die unterschiedliche Entfernungen aufweisen. Aufgebaut wird ein Entscheidungsbaum mit mehreren Ästen (branches). Allerdings sind nicht sämtliche Äste sinnvoll (vgl.
98
Grundlagen aus der Informatik
Abb. 3.26). So darf die Verzweigung 1-2-1 nicht weiterverfolgt werden, da der Knoten 1 bereits in der Tour vorhanden ist. Nur der Startknoten darf in einer Tour zweimal, d.h. am Anfang und am Ende, enthalten sein, aber nur dann, wenn eine vollständige Tour vorliegt. Für das Beispiel ergibt sich als optimale Route: w1 - 3 - 2 - 4 - 1 mit der Länge 46. 1
Entfernungsmatrix 1
2
3
4
3
2
4
1 2 20 3 10 11 4 13 12 30
4
3
4
2
2
3
4
3
4
2
3
2
1
1
1
1
1
1
Abb. 3.26: Verdeutlichen eines Branch and Bound Algorithmus zum Rundreiseproblem
Das Abarbeiten der verschiedenen Zweige wird verkürzt, indem die Länge der bisher zurückgelegten Wegstrecke bis zu dem Knoten k berechnet wird. Ist diese Weglänge bereits größer als die Länge einer schon berechneten vollständigen Route, werden alle weiteren Wege über diesen Knoten K nicht mehr verfolgt. Im vorliegenden Beispiel tritt eine derartige Schranke (bound) nicht in Aktion, da der Baum noch nicht stark verzweigt ist. Wird aber z.B. die Entfernung zwischen 1 und 3 mit 75 angenommen, wird der mittlere Teil des Entscheidungsbaumes nicht mehr abgearbeitet. Im linken Ast über die Kante 1-2 ergab sich schon als kürzeste Entfernung der Wert 74 (Route 1-2-3-4-1). Für dieses Verfahren steigt die Laufzeit exponentiell an. Falls in einem Graphen von jedem Knoten genau zwei Kanten wegführen, ergeben sich 2n zu überprüfende Wege mit jeweils n Knoten, so dass die Abschätzung gilt: O(2n). Eine Realisierung des vorliegenden Branch and Bound - Verfahrens zeigt Herrmann 1992 (vgl. S. 319ff.). Insgesamt bestehen sehr viele Wegewahlalgorithmen oder allgemeine Algorithmen auf Netzwerken. Einen Einstieg liefern Jungnickel 1994 (vgl. S. 89ff.), Domschke 1995 (vgl. S. 91ff.) und Worboys 1995 (vgl. S. 234ff.). Das Travelling Salesman Problem kann als klassisches Grundproblem der kombinatorischen Optimierung angesehen werden. Neben dem exakten Branchand-Bound Verfahren sind viele heuristische Lösungsverfahren entwickelt worden, die der exakten Lösung nach recht kurzer Zeit nahe kommen, die aber ihr Auffinden nicht garantieren. Im Internet finden sich bereits viele Programmbeispiele (d.h. Java Applets), die in Echtzeit Lösungen des TSP für hunderte von Städten liefern. Sie arbeiten zumeist mit Hilfe sog. Neuronaler Netze (vgl. Kohonen 1995 u. Scherer 1997). Daneben liefern sog. naturnahe Algorithmen wie der sog. Ameisenalgorithmus eine neue Klasse von Algorithmen. Hierbei wird das Verhalten von Ameisenkolonien bei der Futtersuche, bei der die Kolonie als Ganzes den kürzesten West zwischen Nest und Futterquelle findet, auf Optimierungsprobleme angewandt.
Grundlegende Algorithmen der Geoinformatik
3.5.3
99
Klassifikationsalgorithmen
In der Geoinformatik stellt sich u.a. bei allgemeinen Typisierungsproblemen und insbesondere bei der unüberwachten Klassifikation in der digitalen Bildverarbeitung (vgl. Kap. 10.7) die Aufgabe, mehrere Objekte wie z.B. Bodenproben oder Pixel mit jeweils unterschiedlicher Merkmalszusammensetzung in Gruppen zu zerlegen bzw. aufzuteilen. Die statistische Methodenlehre hat für diese Aufgabe eine Vielzahl von Algorithmen entwickelt, wobei hierarchische und partitionierende Verfahren unterschieden werden. Hierarchische Klassifikationsverfahren gehen von den ähnlichsten Objekten aus (Zerlegung einer Menge von m Objekten in m Gruppen oder Cluster). Die zueinander ähnlichsten Objekte werden schrittweise zu Gruppen zusammengefasst.. Bei jedem Schritt verringert sich die Gruppenzahl, die Anzahl der Objekte in den Clustern erhöht sich, die Homogenität der Cluster nimmt ab. Diese Verfahren benötigen somit keine Anfangszerlegung, sie sind aber recht speicherintensiv und bei großen Objektzahlen (wie bei der Klassifikation von Pixeln) nicht geeignet. Demgegenüber gehen partitionierende Klassifikationsverfahren schon von einer Zerlegung einer Menge von m Objekten in k Cluster C1, ..., Ck aus (z.B. eine zufällige Zerlegung) und versuchen, eine Zielfunktion Z(C1, ..., Ck) zu minimieren (zu weiteren Verfahren vgl. Bortz 1999 S. 547ff., Steinhausen u. Langer 1977 S. 69ff. u. Vogel 1974 S. 234ff.): Z (C1, ..., Ck) = ¦1d jd k H (Cj). Hierbei beschreibt H (Cj) die Homogenität des Clusters Cj bzw. die Ähnlichkeit der Objekte in diesem Cluster. Die Grundidee ist, dass die Objekte, die einander möglichst ähnlich sind, zu einer Gruppe zusammengefasst werden. Nahe liegend ist, als Homogenitätsmaß die Streuung bzw. Abweichung vom Gruppenschwerpunkt (Clusterzentroid) zu nehmen (vgl. Abb. 3.27): H (Cj) = ¦iCj d ( X i , S j ) mit (in vektorieller Schreibweise): Xi
( xi1 , xi 2 ,..., xin )
ein Objekt i mit n Merkmalen, 1d id m
Sj
( x j1 , x j 2 ,..., x jn )
der Schwerpunkt der Gruppe Cj, 1d jd k
d(Xi , S j )
¦
n t 1
( xit x jt ) 2
Abstand von X i zum Gruppenschwerpunkt S j .
Die Zielfunktion Z berechnet für alle Cluster die Abstandssummen der Objekte zu den jeweiligen Gruppenschwerpunkten und addiert diese Teilsummen. Der Berechnung der Abstände liegen (die üblichen) euklidischen Distanzen zugrunde (zur Verwendung von Distanzmaßen zur Operationalisierung von Ähnlichkeiten vgl. Kap. 5.2.1). Um den Rechenaufwand zu minimieren, unterbleibt häufig die Berechnung der Wurzel, so dass mit dem Distanzquadrat gerechnet wird. Aufgrund der Ähnlichkeit zur Varianz wird das hierauf aufbauende Homogenitätsmaß auch Varianzkriterium genannt, so dass sich hieraus als Ziel veranschaulicht, die Varianz der Objekte in einem Cluster zu minimieren (vgl. Abb. 3.27):
100
Grundlagen aus der Informatik
Die Cluster C1 bzw. C2 besitzen die Zentroide oder Schwerpunkte: S1
(2,2) bzw. S 2
(6,2) .
Die Homogenität der Gruppen wird durch die Summe der Abstandsquadrate der Gruppenelemente zum Clusterzentroiden oder Gruppenschwerpunkt beschrieben. Für die Gruppen C1 und C2 gilt:
¦
iC1
¦
iC 2
d 2 ( X i S1 )
d 2 >1,1 2,2 @ d 2 >2,3 2,2 @ d 2 >3,2 2,2 @ 2 1 1 4
d 2 ( X i S2 )
2222
Cluster C1
4
Cluster C2
3
8
4
Cluster C3
3
2 1 1
2
2
S2
S1
3
4
5
6
Cluster C4 ?
7
S4
S3
1
1
2
3
4
5
6
7
Abb. 3.27: Verdeutlichung des Varianzkriteriums und von Klassifikationsprinzipien
Bei einem iterativen Austauschverfahren werden nacheinander einzeln sämtliche Objekte aus einer Gruppe herausgenommen und nacheinander einzeln sämtlichen anderen Gruppen zugeordnet. Falls sich nach einer Zuweisung der Wert der Zielfunktion verringert, wird die Neuzuordnung vollzogen, anderenfalls verbleibt das Objekt in der alten Gruppe. Hierbei werden schon nach jeder Zuordnung eines einzelnen Objektes zu einer neuen Gruppe die Gruppenschwerpunkte neu berechnet und die Homogenitätsmaße neu bestimmt. Dieses Verfahren wird nacheinander für alle Cluster solange fortgesetzt, bis kein Objekt mehr unter Verkleinerung der Zielfunktion verschoben werden kann oder bis die letzte Verbesserung der Zielfunktion unter einem vorgegebenen Schwellenwert liegt. In der Abbildung 3.27 besitzen die beiden Cluster C3 und C4 die Zentroide (2,2) bzw. (5.6,2.2) und die Homogenitätsmaße 4 bzw. 12 und somit den Wert 16 für die Zielfunktion. Falls das Objekt (4,3) in das erste Cluster verschoben wird, ergeben sich die neuen Clusterzentroide (2.5,2.25) bzw. (6,2) und die Homogenitätsmaße 7,75 bzw. 8. Hierdurch kann also die Zielfunktion noch (geringfügig) verbessert werden (nun 15,75). Schließlich wird aus den Objekten (4,3), (1,1), (2,3) und (3,2) eine neue Gruppe gebildet. Derartige Austauschverfahren garantieren allerdings nicht, dass das absolute Minimum einer Zielfunktion gefunden werden kann. Die Verfahren sind in gewisser Weise von der Bearbeitungsreihenfolge der Objekte abhängig. Nach einer gleichzeitigen Verschiebung mehrerer Objekte kann u.U. ein lokales Minimum der Zielfunktion überwunden und insgesamt noch weiter verbessert werden.
Grundlegende Algorithmen der Geoinformatik 7
7
6
6
5
5
4
4
3
3
2
2
1
1 1
7
2
3
4
5
6
7
6
6
5
5
4
4
3
3
2
2 Neuberechnung der Gruppenschwerpunkte 1 und Neuzuweisung
1 1
2
3
4
5
6
7
Schritt 1
Zuweisung zu zwei zufällig bestimmten Kernen 1
7
Schritt 2
101
2
3
4
5
6
7
Schritt 3
Neuberechnung der Gruppenschwerpunkte und Neuzuweisung/Ende 1
2
3
4
5
6
7
Abb. 3.28: Kmeans Algorithmus
Gegenüber diesem Austauschverfahren ist in Softwaresystemen zur digitalen Bildverarbeitung häufig der einfachere Kmeans Algorithmus (zumeist als Teil des sog. Isodata-Verfahrens) implementiert (vgl. Abb. 3.28 u. Kap. 10.7). Im ersten Schritt werden für k Cluster zufällig k Zentroide bestimmt, die als „Kristallisationskerne“ dienen. Danach werden sämtliche Objekte dem jeweils nächsten Zentroiden zugeordnet. Im nächsten Schritt werden die Gruppenschwerpunkte der gerade gebildeten Cluster neu berechnet. Wiederum erfolgt eine Zuordnung sämtlicher Objekte zu den jeweils nächsten Zentroiden. Die Iteration wird fortgesetzt, bis keine signifikanten Verschiebungen mehr auftreten und die Verbesserungen eines Homogenitätsmaßes unterhalb eines vorgegebenen Schwellenwertes liegen. Im Unterschied zu einem Austauschverfahren wird hierbei in einem Iterationsschritt das Homogenitätsmaß erst nach Abschluss sämtlicher Zuweisungen neu berechnet. Hierdurch ergibt sich beim Kmeans Algorithmus eine optimalere Rechenzeit, so dass dieses Verfahren in der digitalen Bildverarbeitung zur Klassifizierung von Pixeln (überhaupt) eingesetzt werden kann. Bei diesen Klassifizierungsverfahren stellen sich mehrere generelle Probleme, die nicht algorithmisch, sondern aufgrund der Fragestellung zu lösen sind: - Die Zahl der Cluster muss (durch externe Informationen) vorgegeben werden. - Die Verfahren können zumeist keine Cluster trennen oder zusammenlegen. Die vorgegebene Clusterzahl wird beibehalten (vgl. aber das Isodata-Verfahren). - Eine Anfangszerlegung muss vorgegeben werden, wobei hiervon der Verlauf der Klassifikation und auch das Endergebnis abhängen können.
102
3.6 3.6.1
Grundlagen aus der Informatik
Softwareentwicklung Aufgaben und Ziele der Softwareentwicklung
Eine Hauptaufgabe der Angewandten Informatik ist die Entwicklung von Anwendungssystemen für fachspezifische Aufgaben. Das generelle Ziel ist das Erstellen von qualitativ hochwertiger Software, die grundsätzlich die funktionalen Anforderungen erfüllen muss. Darüber hinaus ist Software nach mehreren Kriterien zu bewerten (vgl. Gumm u. Sommer 2000 S. 668): -
Korrektheit, Zuverlässigkeit Modularität, Flexibilität, Elastizität, Interoperabilität Testbarkeit, Änderbarkeit, Wiederverwendbarkeit, Wartbarkeit Portabilität, Effizienz, Wirtschaftlichkeit Durchsichtigkeit, Verständlichkeit, Integrität Verwendbarkeit, Gültigkeit, Allgemeinheit, Dokumentation.
Softwareentwicklung beinhaltet somit auch Qualitätssicherung und erfordert daher entsprechende Maßnahmen während der Projektdurchführung (u.a. Formulierung von Qualitätszielen, Kontrollen und Evaluationsmaßnahmen). Nicht zuletzt sind eine Dokumentation des Programms und eine gerade für den Anwender verständliche Anleitung unabdingbar. Allerdings versagt bei der Erstellung größerer Programme ein unsystematisches Programmieren völlig. Vor diesem Hintergrund ist unter Softwareentwicklung die systematische Entwicklung von Software mit Hilfe von formalen Techniken, Methoden und Werkzeugen zu verstehen. Im Mittelpunkt steht die Entwicklung von Anwendungssystemen unter betrieblichen und wirtschaftlichen Gesichtspunkten, wobei die Erarbeitung eines Algorithmus und die eigentliche Programmierung zwar wichtige, aber nur Teilleistungen im gesamten Projektablauf sind, die bei größeren Aufgaben nur ca. 30% der gesamten Softwareentwicklung ausmachen. Die Entwicklung von komplexer Anwendersoftware ist häufig weniger ein Problem der Informatik als eine Aufgabe eines gut funktionierenden Projektmanagements. Softwareentwicklung ist nicht mit Programmierung gleichzusetzen. Hier geht es um die Entwicklung einer (softwaretechnischen) Lösung für ein fachliches Problem, das häufig durch ein komplexes Anforderungsprofil und umfangreiche Dateninputs sowie vielfältige Anwender gekennzeichnet ist (vgl. Aufbau eines Umweltinformationssystems mit Fachanwendungen wie z.B. Altlastenkataster oder Flächennutzungsplanung). Vor der eigentlichen Programmierung müssen die Anforderungen der (Teil-)Komponenten sehr genau spezifiziert werden, um dann eine entsprechende Programmleistung in Auftrag geben zu können und um anschließend die erstellte Leistung bewerten zu können. Leider wird diesem fast selbstverständlichen Grundsatz in der Praxis zuweilen nicht gefolgt, so dass bei einem unzureichend ausgearbeiteten Anforderungsprofil Mängel im Leistungsvermögen der Software beinahe unausweichlich sind. Bei der Entwicklung von Software besteht vor allem eine enge Kopplung zwischen der eigentlichen zeitlichen Entwicklung des Programms und der organisato-
Softwareentwicklung
103
rischen Durchführung des Projektes. Dabei erschwert eine oberflächlich zusammengestellte Ablaufskizze die Kommunikation der Beteiligten und verhindert ein effizientes Controlling (d.h. Planung, Überwachung und Steuerung von Entwicklungsaktivitäten). So ist zum einen zu klären, was wann bzw. in welcher Reihenfolge zu machen ist, und zum anderen festzulegen, wer was wann zu machen hat. Während die erste Sichtweise von Softwareentwicklung durch sog. Vorgehensmodelle formalisiert werden kann, steht bei der zweiten Sichtweise das sog. Projektmanagement im Mittelpunkt. 3.6.2
Instrumente der Softwareentwicklung
Für die Softwareentwicklung wird häufig auch der Begriff Software Engineering benutzt. Hierdurch wird der Bezug zu einem ingenieurmäßigen Vorgehen deutlich, bei dem allgemein Prinzipien, Methoden, Verfahren und Werkzeuge unterschieden bzw. eingesetzt werden. Dabei können diese Prinzipien, Methoden, Verfahren und Werkzeuge in jeder Phase der Softwareentwicklung eingesetzt werden (vgl. Kap. 3.6.3). Allerdings ist die Verwendung dieser Begriffe nicht immer einheitlich, zudem greifen die hinter diesen Begriffen stehenden Konzepte häufig ineinander. Hier wird der Systematisierung von Stahlknecht u. Hasenkamp gefolgt (vgl. Stahlknecht u. Hasenkamp 1997 S. 249). Prinzipien bezeichnen allgemeine Handlungsgrundsätze oder Strategien. Im Zusammenhang mit der Softwareentwicklung sind dabei vor allem die schrittweise Verfeinerung, die Top-Down-Entwicklung und die Bottom-Up-Entwicklung zu nennen. Bei der schrittweisen Verfeinerung wird ein komplexes Problem schrittweise in immer kleinere Einzelprobleme zerlegt, die übersichtlicher und in der Regel einfacher zu lösen sind. Dabei kann "von oben nach unten" vorgegangen werden und die Gesamtfunktionalität des Systems in immer kleinere Teilfunktionen bzw. Module zerlegt werden (Top-Down-Vorgehen). Umgekehrt kann aus Teilsystemen bzw. aus Einzelmodulen ein Gesamtsystem aufgebaut werden (Bottom-Up-Vorgehen). Bei der Modularisierung werden abgeschlossene Aufgaben als (softwaretechnische) Einheiten definiert. Dabei müssen Leistungen und Schnittstellen bekannt sein bzw. festgelegt werden (Funktions- und Datendeklaration). Die interne Verarbeitung bleibt verdeckt (sog. Geheimnisprinzip, information hiding). Gerade allgemeine Teilaufgaben, die in gleicher oder ähnlicher Form mehrfach auftreten, sollten als Module konzipiert werden. Weiter können Module auch unabhängig von der speziellen Problemstellung entwickelt und in einem Werkzeugkasten (Tool-Box) für den Entwurf ganz unterschiedlicher Algorithmen oder Systeme (wieder-)verwendet werden. Insbesondere können Softwaremodule einzeln getestet werden (vgl. auch modulare Programmierung, vgl. Kap. 3.2.5.2). Methoden bezeichnen das auf bestimmten Prinzipien aufbauende, planmäßige Vorgehen. Wichtige Methoden in der Softwareentwicklung sind: - der strukturierte Systementwurf - die Entity-Relationship-Modellierung von Datenstrukturen (E/R-Modelle) - die Objektorientierte Systementwicklung.
104
Grundlagen aus der Informatik
Während sich ein vertikal strukturierter Systementwurf durch Umsetzung der schrittweisen Verfeinerung ergibt, wird die E/R-Modellierung bei der Konzeption von Datenbanken erläutert (vgl. Kap. 8.2). Sie wurde ursprünglich zum Entwurf von Datenbankstrukturen entwickelt. Während die Objektorientierung zunächst auf die Programmierung beschränkt war, hat sie sich inzwischen zu einem grundlegenden Ansatz der Softwareentwicklung herausgebildet (vgl. Kap. 3.6.4). Verfahren stellen Anweisungen zum gezielten Einsatz von Methoden dar: -
die Strukturierte Analyse (SA) der Strukturierte Entwurf (Structured Design) die Struktogrammtechnik die objektorientierte Entwurfsmethode.
Teilweise sind für einzelne Methoden und Verfahren bestimmte Darstellungstechniken kennzeichnend: u.a. Datenfluss- und Programmablaufplan (vgl. Kap. 2.4.2), Hierarchiediagramm, E/R-Diagramme (vgl. Kap. 8.2), Struktogramme nach Nassi-Shneidermann (vgl. Abb. 3.11), graphische Darstellungsformen für strukturierte Programme nach Jackson (JSP Jackson Structured Programming). Bei der Strukturierten Analyse (SA), die in der Praxis die größte Verbreitung gefunden hat, stehen Datenflussdiagramme im Mittelpunkt, wobei nach dem TopDown-Prinzip immer feinere Datenflussdiagramme angelegt werden. Das Verfahren des Strukturierten Entwurfs benutzt gleiche Darstellungsformen wie die Strukturierte Analyse und entwickelt Strukturdiagramme für größere Softwaremodule. Allerdings ist die häufige Trennung zwischen Datensicht und Funktionssicht nicht sinnvoll und ein wenig realitätsfern. Die Objektorientierte Systementwicklung hebt diese Trennung auf (vgl. Kap. 3.6.4). Werkzeuge, d.h. Software-Entwicklungswerkzeuge, sind Computerprogramme, die die Entwicklung neuer Software unterstützen. Hierzu können im einfachsten Fall die sog. Entwicklungsumgebungen einer Programmiersprache gerechnet werden (vgl. Kap. 3.2.2). Dabei ist ein Übergang zu den sog. CASE-Tools, d.h. genauer Lower-CASE Tools, fließend. Unter der Bezeichnung CASE (Computer Aided Software Engineering) werden inzwischen umfangreiche Entwicklungswerkzeuge bereitgestellt, wobei (häufig) aus historischen Gründen mit CASE transaktions- und graphikorientierte Werkzeuge bezeichnet werden, die primär dem strukturierten Systementwurf und der E/R-Modellierung dienen. Inzwischen ist es üblich, Upper CASE-Tools zur Unterstützung der Analyse- und Entwurfsphasen (u.a. Darstellungshilfen zum Erstellen von Hierarchiediagrammen, von Datenflussplänen und von E/R-Diagrammen zur Datenmodellierung) und Lower CASE-Tools zur Unterstützung der Realisierungsphase, d.h. Programmierung und Testen (u.a. Werkzeuge zum Editieren, Compilieren, Testen), zu unterscheiden. 3.6.3
Traditionelle Vorgehensmodelle der Softwareentwicklung
Um den Entwicklungsprozess von Software zu strukturieren, sind vielfältige Konzepte vorgelegt worden. Von zentraler Bedeutung ist hierbei das sog. Phasenmodell, das das gesamte Projekt in kleinere und zumeist einfachere Teilaufgaben
Softwareentwicklung
105
zerlegt, die zeitlich aufeinander folgen (vgl. Tab. 3.9). Jede Phase ist noch zu verfeinern. So kann der Systementwurf nach dem Detaillierungsgrad noch in ein Grob- und in ein Feinkonzept zergliedert werden. Insbesondere sind in der Analysephase Wirtschaftlichkeitsüberlegungen und -vergleiche anzustellen und letztlich zu entscheiden, ob Eigenentwicklungen durchzuführen sind oder ob auf Standardsoftware zurückgegriffen werden soll. In der Regel gewährleistet eine derartige Strukturierung eher, dass das Projekt vollständig, übersichtlich und widerspruchsfrei ist. Für jede Phase müssen festgelegt werden: - Aufgaben und einzusetzende Prinzipien, Methoden und Verfahren, - Zeitplan einschließlich Einsatzplan sämtlicher Beteiligten, - Kostenplan. Erst durch eine inhaltlich wie zeitlich zu begründende Phaseneinteilung sind: - die Einhaltung aller Vorgaben zu überprüfen, - der Entwicklungsaufwand zu überwachen, - die Einleitung von kurzfristig steuernden Eingriffen möglich. Tabelle 3.9: Phasenmodell der Systementwicklung Vorphase
Phase Analyse Phase Entwurf
Phase Realisierung Phase Einführung
Projektbegründung Projektvorschläge erarbeiten Projekterwartungen formulieren Projektauftrag erteilen Ist-Analyse Soll-Konzept Systementwurf Programmspezifikation Programmentwurf Programmierung, Anschaffung Standardsoftware Programm- und Systemtest Systemeinführung Systembetrieb
Das allgemeine Phasenmodell ist durch vielfältige Modifikationen erweitert bzw. durch andere Vorgehensmodelle ergänzt worden. So fordert das sog. Wasserfallmodell, dass eine neue Phase erst dann begonnen werden darf, wenn die vorausgehende Phase vollständig beendet ist. Die Phasen werden hierbei als Kaskaden eines Wasserfalls dargestellt. Allerdings ist eine derartig strenge Abfolge in der Praxis kaum realisierbar und realitätsfremd. Nachträgliche von den Anwendern formulierte Änderungen der Anforderungen oder organisatorische Veränderungen können (mehrfach) zu Änderungen des Soll-Konzeptes führen. Dann müssen mehrere (Teil-)Phasen des Phasenmodells wiederholt bzw. zyklisch durchlaufen werden (vgl. weitere Vorgehensmodelle wie z.B. das sog. Spiralmodell).
106
Grundlagen aus der Informatik Projektverlauf
Analyse Design
Test
Analyse
Implementation
Design
Implementation Test Integration
Abb. 3.29: Vorgehensmodelle der Softwareentwicklung: Wasserfall- und Spiralmodell
Ein häufiges Problem in der Praxis besteht darin, dass der Endanwender zu Beginn des Projektes nicht sämtliche Möglichkeiten des zu entwickelnden Systems einschätzen kann. Zumeist können nur die gerade vorliegenden Aufgaben benannt und daraus ein Anforderungsprofil abgeleitet werden. Zumeist ergeben sich aber mit einem neuen System neue Analyse- und Darstellungsmöglichkeiten, die bislang aufgrund fehlender Werkzeuge nicht durchführbar erschienen oder außerhalb der Vorstellung waren und die somit von den Anwendern nicht benannt werden können! Derartige Erweiterungswünsche entstehen dann, wenn erstmalig mit dem neuen System gearbeitet wird und dann (völlig) neue Funktionalitäten eingefordert werden. Somit ergibt sich in der Praxis häufig die Forderung, bereits relativ früh einen Prototyp, d.h. eine prüffähige Version des Systems, zur Verfügung zu haben, wobei nicht sämtliche Funktionen umgesetzt sind, aber das Funktionsprinzip zu erkennen ist, so dass Änderungen formuliert werden können. Dies hat zum Vorgehensmodell des Prototyping geführt, das in verschiedenen Varianten besteht (rapid prototyping, evolutionäres, exploratives, experimentelles, vertikales und horizontales Prototyping). Prototyping kann dabei in einzelnen Phasen wie auch phasenübergreifend eingesetzt werden und somit das Phasenmodell sinnvoll ergänzen, aber das Phasenmodell nicht ablösen. Insbesondere besteht beim Prototyping die Gefahr, dass Zeit- und Kostenplanung nicht eingehalten werden können. 3.6.4
Objektorientierte Softwareentwicklung
Die Objektorientierte Programmierung kennzeichnet das jüngste Programmierkonzept (vgl. Kap. 3.2.4.3), wobei die Objektorientierung nur sinnvoll umgesetzt werden kann, wenn sie bereits in einem frühen Stadium der Softwareentwicklung angewandt wird. Insbesondere wird dann ein Methoden- bzw. Strukturbruch im Entwicklungsprozess verhindert, da ein einziges Konzept durchgängig angewandt wird (Verwendung gleicher Abstraktionsmechanismen wie z.B. Klassen oder Vererbung). Unterschieden werden analog zur bisherigen Systementwicklung die Phasen: - Objektorientierte Analyse (OOA) - Objektorientierter Entwurf (OOD für Objektorientiertes Design) - Realisierung (OOP für Objektorientierte Programmierung). In diesen Phasen wird jeweils mit den gleichen Strukturen (u.a. Klassen, Objekte, Attribute, Methoden) gearbeitet. Versucht wird, die Realität im Hinblick auf
Softwareentwicklung
107
die vorliegende Fragestellung zu modellieren: Während der Analyse sind die Objekte, die Gegenstände der Aufgabenstellung sind, eindeutig zu spezifizieren und dabei die zugehörigen Merkmale, d.h. Attribute wie auch darauf operierende Funktionen, herauszuarbeiten. Dabei werden gleichartige Objekte zu Klassen zusammengefasst. Ferner sind während der Analyse die Beziehungen zwischen den Klassen bzw. Objekten zu kennzeichnen (u.a. Vererbungs- oder Aggregationsstrukturen). Letztlich entsteht ein Objekt- oder Klassenstrukturmodell, das die Inhalte des herkömmlichen Datenmodells und des Funktionsmodells zusammenfasst. Kennzeichnend für diese Modellierung ist dabei anstelle eines Top-Downoder Bottom-Up-Vorgehens ein inkrementelles und iteratives Vorgehen, d.h. eine schrittweise Entwicklung mit immer feinerer Ausgestaltung, wobei mehrere Entwicklungsschritte mehrfach wiederholt werden. Zur objektorientierten Systementwicklung sind eine Vielzahl an Methoden und Verfahren entwickelt worden, wobei Standardisierungsbemühungen inzwischen zu einer allgemein akzeptierten Modellierungssprache geführt haben: Unified Modeling Language (UML). Diese für verschiedene Problemstellungen universell nutzbare graphische Beschreibungssprache zur Objektorientierten Modellierung komplexer Systeme und Prozesse stellt u.a. verschiedene Diagrammtypen zur Modellierung zur Verfügung (vgl. Unified Modeling Language UML - Weblink). 3.6.5
Weiterentwicklungen
Bei den deutschen Bundesbehörden löst seit Februar 2005 das sog. V-Modell XT den bis dahin gültigen Entwicklungsstandard VM-97 ab, der schon 1992 vom Bundesinnenministerium übernommen, 1997 zuletzt aktualisiert wurde und der seitdem eine verbindliche Richtschnur für die IT-Projekte der Bundesverwaltungen darstellte. Das neu Vorgehensmodell wurde von Wissenschaftlern der TU München und der TU Kaiserslautern in einer Kooperation mit Industriefirmen entwickelt (vgl. V-Modell - Weblink). Die Plattform eignet sich für Unternehmen ebenso wie für Behörden und kann unter einer Common Public License auch außerhalb des öffentlichen Bereiches in der Projektwirtschaft beliebig adaptiert und eingesetzt werden. Das alte V-Modell (vgl. Abb. 3.30) orientierte sich noch sehr stark an dem Wasserfallmodell. Demgegenüber wurde das V-Modell XT nach dem Baukastenprinzip konzipiert, das insbesondere ein iteratives und inkrementelles Vorgehen einschließt. Hinter dem Modell steht die Idee des iterativen Vorgehens zur schrittweisen Verbesserung der Produkte – auch über mehrere Phasen hinweg. XT steht für „eXtreme Tailoring" und soll je nach Projektart ein maßgeschneidertes Vorgehen erlauben, das durch vorgefertigte Dokumentvorlagen wie Plan- und Angebotsbausteine unterstützt wird. Das neue XT-Modell berücksichtigt auch erstmals die „Rollen“ zwischen Auftraggeber und Auftragnehmer. Dies war der Wunsch der Industrievertreter, da mit dem Abschluss eines „wasserdichten“ Vertrages die Formulierung der Aufgabe häufig nicht erledigt ist, d.h. gerade bei neuen und innovativen Projekten, die Neuland betreten und die ein hohes Risiko aufweisen. So sind nicht selten erst im
108
Grundlagen aus der Informatik
Verlauf eines Projektes zusammen mit dem Auftragnehmer die Spezifikationen gemeinsam zu erarbeiten. Hierdurch besteht allerdings die Gefahr, dass ein Controlling erschwert bzw. unmöglich wird, was ja gerade durch das Vorgehensmodell verhindert werden soll.
Analyse
Evaluierung
Design
Inbetriebnahme
Module
Integration Test
Implementierung
Abb. 3.30: Vorgehensmodelle der Softwareentwicklung: V-Modell
Ein derartiges Vorgehen, bei dem erst im Projektverlauf im Einvernehmen mit dem Auftraggeber die Spezifikationen gemeinsam erarbeitet werden, wird im Software Engineering auch als Agile Development bezeichnet. Diese Konzepte legen mehr Gewicht auf funktionsfähige Software als auf umfassende Pflichtenhefte und stellen vor allem das flexible Reagieren auf veränderte Rahmenbedingungen gegenüber dem Abarbeiten eines Plans in den Vordergrund (vgl. Schlagworte wie Adaptive Software Development, Dynamic System Development Methodology, Feature Driven Development und Lean Development vgl. Agilealliance - Weblink). Dazu gehört auch das wegen seiner Nähe zum Hacking nicht unumstrittene „eXtreme Programming" (XP), bei dem in engem und ständigem Kontakt mit dem Abnehmer kleine Teams zumeist nur zwei Programmierern dynamisch Teilaufgaben übernehmen und deren Lösung nahezu im Tagesrhythmus in das Gesamtprojekt einspeisen. Das neue V-Modell hat sich somit diesen agiler Vorgehensweisen geöffnet und kann sie unterstützen. So kann man auch das sog. Wasserfallvorgehen umdrehen und mit der Implementierung und Integration beginnen und im Nachgang die Dokumentation und Spezifikation erstellen. V-Modell XT V-Modell 97
Hacking
XP (extreme Programming)
Agile Development
Abb. 3.31: Vorgehensmodelle der Softwareentwicklung
Wasserfallmodell
Stufenplan
4 Komponenten von Computersystemen
4.1
Aufbau eines Computersystems
Ein Computersystem setzt sich aus sehr verschiedenen Bestandteilen zusammen, die das EVA-Prinzip der Informationsverarbeitung umsetzen (vgl. Abb. 4.1). Als Grundkomponenten finden sich immer Ein- und Ausgabegeräte, Speichergeräte und (bei Personal Computern oder Workstations) vor allem eine Hauptplatine (sog. Motherboard), auf der sich verschiedene, durch mehrere Leiterbahnen verbundene elektronische Bauelemente (u.a. Prozessor und Arbeitsspeicher) befinden. Nach wie vor ist das Motherboard die wichtigste Einheit, die sich in einem Rechnergehäuse befindet, das insbesondere Speichergeräte aufnimmt. Gerade bei den modernen Peripheriegeräten wie z.B. Wechselplatte oder CD-Brenner werden aber die Grenzen zwischen Speichergeräten, Ein- und Ausgabegeräten fließend.
Rechnergehäuse
Motherboard CPU
Bus Arbeitsspeicher
Ein- u. Ausgabeeinheiten
Permanente Speicher Festplatte Diskette CD / DVD Bandlaufwerk
Eingabegeräte
Tastatur
Bildschirm
Mikrophon Plotter
Digitalisiertablett Maus Scanner
Lautsprecher Drucker/ Belichter
Abb. 4.1: Aufbau und ausgewählte Komponenten eines Computersystems
Ausgabegeräte
110
4.2
Komponenten von Computersystemen
Das Motherboard
Das Motherboard ist die zentrale Baueinheit eines Computersystems, die den Prozessor und den Arbeitsspeicher sowie verschiedene Steuerelemente aufnimmt. Viele Komponenten sind fest auf dem Motherboard verlötet. Ferner bestehen Steckplätze, über die weitere Bauteile mit dem Motherboard verbunden sind. Zu unterscheiden sind Sockelplätze, in die z.B. die Prozessoren gesteckt werden, und Sockelleisten für Erweiterungsplatinen (sog. Erweiterungskarten wie Graphikoder Netzwerkkarten). Diese Steckplätze bieten erhebliche Vorteile, da ein Computersystem individuell an die Nutzerbedürfnisse angepasst werden kann, wobei vor allem eine einfache Modifizierung infolge von veränderten Anforderungen (z.B. Einbau einer sog. Soundkarte) sowie infolge von Technologieverbesserungen möglich ist. Wesentliche Baugruppen (vor allem für Personal Computer) sind:
Strom Tastatur/ Maus Steckplätze für Erweiterungskarten
CPU Sockel
RAM
Controller
Batterie
Taktgeber
ROM
Echtzeituhr
CMOS
Abb. 4.2: Schematische Darstellung einer Hauptplatine eines Personal Computers
In dem Prozessor sind die zur eigentlichen Informationsverarbeitung notwendigen Komponenten wie z.B. Rechen- und Steuerwerk integriert. Er wird zumeist in einen speziellen Sockelplatz (vgl. Abb. 4.2) oder verbunden mit einer Steckkarte in eine besondere Sockelleiste (vgl. Abb. 4.2) eingesteckt. Leistungsfähige Motherboards besitzen zusätzliche Sockel für weitere Prozessoren (vgl. Kap. 4.3). Der Haupt- oder Arbeitsspeicher dient zur vorübergehenden Speicherung des Programms und von Zwischenergebnissen. Nach dem Ausschalten des Rechners gehen diese Informationen verloren. Sie müssen daher in externen Speichern vorgehalten oder gesichert werden. Gegenüber den externen Speichern besteht der Haupt- oder Arbeitsspeicher aus extrem schnellen Speicherzellen, auf die direkt zugegriffen werden kann. Hieraus erklärt sich der Name RAM (Random Access
Das Motherboard
111
Memory, „random access“ = wahlfreier, direkter Zugriff). Speicherbausteine werden zumeist in mehreren Einheiten zusammengefasst (Speichermodule) (vgl. Kap. 4.4). Der Betrieb externer Speicher wie Disketten- und Festplattenlaufwerke, Bandlaufwerke oder CD- und DVD-Laufwerke wird mit Hilfe von speziellen Prozessoren (sog. Input-/Output-Controllern, kurz I/O-Controller) gesteuert, die die Funktionen dieser Massenspeicher kontrollieren und die Verbindung zum Prozessor herstellen. Die Controller befinden sich häufig auf speziellen Steckkarten, können aber auch auf dem Motherboard integriert sein. Der Speicherinhalt der Festwertspeicher (ROM = Read Only Memory) kann abgesehen von Spezialformen nur gelesen und nicht mehr verändert werden. Dabei übernimmt ausschließlich der Hersteller die Programmierung der ROMBausteine. Auch nach dem Ausschalten der Stromversorgung bleiben die gespeicherten Informationen erhalten, die u.a. Systemprogramme umfassen, die zum Starten des Computersystems benötigt werden, sowie die Mikroprogramme des Steuer- und Rechenwerks. Im ROM ist insbesondere ein spezielles Programm, das Basic Input and Output System (BIOS), fest gespeichert. Beim Einschalten des Computers leistet es die interne Selbstüberprüfung und das Starten wichtiger Systemsoftware wie u.a. des Betriebssystems in der Regel von der Festplatte. Dabei werden die Informationen, die im CMOS-RAM abgelegt sind, gelesen und ausgewertet. Lediglich bei besonderen Formen des Festwertspeichers können die Inhalte gelöscht werden. So ist das Löschen bei einem EPROM (Erasable Programmable Read Only Memory) nur durch intensive ultraviolette Bestrahlung oder bei einem EEPROM (Electrically Erasable and Programmable Read Only Memory) nur elektrisch möglich. Dann kann auch ein Anwender mit geeigneten Geräten eine Programmierung vornehmen. Die von Anwendern veränderbare Systemkonfiguration des BIOS wird in einem batteriegepufferten Arbeitsspeicher, dem sog. CMOS-RAM (CMOS = Complementary Metal Oxid Semiconductor, RAM = Random Access Memory), gespeichert und beim Start des Computersystems dem BIOS zur Verfügung gestellt. Durch die Batterie wird gewährleistet, dass die im CMOS-RAM gespeicherte Information nach dem Abschalten des Rechners nicht verloren geht. Über ein sog. Setup-Programm kann die Systemkonfiguration geändert gespeichert werden. Cache-Speicher sind schnelle Zwischenspeicher, die zwischen Prozessor und Arbeitsspeicher vorhanden sind und die helfen, die hohe Verarbeitungsgeschwindigkeit des Prozessors und die im Vergleich dazu relativ langsame Geschwindigkeit des Arbeitsspeichers zu überbrücken. Innerhalb des Prozessors unterscheidet man beim Cache-Speicher zwischen dem sog. Level-1-Cache (kurz L1-Cache) und einem externen Cache, dem Level-2-Cache (kurz L2-Cache). Der L1-Cache dient der kurzfristigen Speicherung von Daten und Befehlen innerhalb des Prozessors. Er befindet sich oft direkt auf dem Prozessor und ist zumeist nur wenige Kilobyte groß. Diese Technik bietet erhebliche Geschwindigkeitsvorteile, da ein schnellerer Zugriff auf die im L1-Cache gespeicherten Befehle erfolgen kann, als wenn ein Zugriff auf den deutlich langsameren Arbeitsspeicher erfolgt. Der Prozessor versucht durch besondere Verfahren solche Daten im Cache-Speicher zwischenzuspeichern, die mit großer Wahrscheinlichkeit bei der Weiterverarbeitung
112
Komponenten von Computersystemen
erneut benötigt werden. Dies ist insbesondere bei der Verarbeitung von Programmschleifen der Fall. Dabei müssen mehrere Befehle mehrfach verarbeitet werden, so dass eine Zwischenspeicherung mit einem schnellen Zugriff besonders effizient ist. Der Transport der Informationen erfolgt über Leitungen, die die verschiedenen Bauteile auf dem Motherboard miteinander verbinden. Diese Leitungen werden allgemein Bus oder Bussystem genannt (zu weiteren Differenzierungen wie z.B. Daten- und Adressbus vgl. Kap. 3.1.3). Für Personal Computer sind bisher mehrere Systeme bis zur Marktreife entwickelt worden: der ISA-Bus (ISA = Industry Standard Architecture), der EISA-Bus (EISA = Enhanced oder Extended Industry Standard Architecture), die Micro-Channel Architecture (MCA), der VLB-BUS (VESA Local Bus, VESA = Video Engineering Standards Association) und der PCI-Bus (PCI = Peripheral Component Interconnect), der sich als Standard durchgesetzt hat. Er besitzt eine Busbreite von 32 Bit bzw. als neuer Standard 64 Bit und Bustaktraten von 33 - 66 MHz. Die Datenübertragungsrate kann bis zu 533 MB/sec betragen. Der PCI-Bus arbeitet unabhängig vom Hauptprozessor, der durch spezielle Bus-Controller entlastet wird. Die Informationen werden in Form von elektrischem Strom nicht gleichmäßig, sondern in Intervallen ausgetauscht. Die einzelnen Bauteile werden durch einen gemeinsamen Takt angetrieben (Taktgeber), der die reibungslose Zusammenarbeit der verschiedenen Komponenten (Synchronisation) gewährleistet. Für die Hardware-Schnittstellen, über die eine Übertragung von Daten zwischen dem Motherboard und den Peripheriegeräten des Computers zur Ein- und Ausgabe erfolgt, bestehen mehrere Standards. Bei der seriellen Schnittstelle (sog. COM-Port) werden die Daten nacheinander übertragen (bitweise). Daher ist diese Übertragungsart relativ langsam, diese Schnittstellen sind aber einfach zu bauen. Sie sind für größere Entfernungen sicherer als parallele Verbindungen. Der Datentransfer ist in zwei Richtungen möglich. Bei der parallelen Schnittstelle (auch Centronics-Schnittstelle) werden mehrere Daten parallel übertragen (Datentransfer über 8 Leitungen, d.h. pro Leitungstakt ein Byte), so dass hohe Übertragungsraten möglich sind. Die Übertragung funktioniert störungsfrei nur über kurze Entfernungen (bis zu 6 m). Der Datentransfer ist (ohne Tricks) nur in eine Richtung möglich. Als Schnittstellenstandard für Zusatzgeräte in mobilen Rechnern wurden Einschubkarten in Scheckkartengröße entwickelt (sog. PCMCIA-Karten, PCMCIA= Personal Computer Memory Card International Association, Zusammenschluss von über 400 Herstellern). Die jüngste Schnittstellenvariante, die den Anschluss von Peripheriegeräten vereinfacht, ist der Universal Serial Bus für Personal Computer (USB). Die Erweiterungskarten stecken in Sockelleisten (Slots), die untereinander und mit der Hauptplatine durch Datensammelleitungen verbunden sind. Die meisten Computersysteme besitzen inzwischen sehr leistungsfähige Graphikkarten, die über einen eigenen Prozessor und Speicher verfügen und die letztlich erst das Bild erzeugen, das am Monitor dargestellt wird. Dabei wandeln sie die digitalen Signale in analoge um. Entsprechend gibt es u.a. Soundkarten zum Anschluss von Lautsprechern oder Netzwerkkarten zum Anschluss an Datenfernleitungen (z.B. Internet über die Telefonanlage) zur Datenkommunikation. Motherboards für Personal
Prozessoren
113
Computer bieten Sockelleisten für ISA- und PCI-Erweiterungskarten sowie eine beschleunigte Graphikschnittstelle mit eigener Sockelleiste (sog. Accelerated Graphics Port, AGP), die eine direkte Verbindung von der Graphikkarte zum Prozessor sowie vor allem zum Arbeitsspeicher ermöglicht. Hierdurch können besonders rechenintensive Graphikdarstellungen beschleunigt werden, indem Informationen wie z.B. Texturen oder Tiefeninformationen bei 3D-Darstellungen in den Arbeitsspeicher ausgelagert werden. Allerdings müssen Betriebssystem und Prozessor diese Graphikschnittstelle unterstützen bzw. geeignete Software und Anwendungen vorliegen.
CD-/DVD-Laufwerk
Netzteil Arbeitsspeicher Prozessor
DiskettenLaufwerk
Kühlelement mit Lüfter
Festplatte
Graphikkarte Netzwerkkarte
Motherboard
Abb. 4.3: Schematische Innenansicht eines Personal Computer
Die Abbildung 4.3 schematisiert die Hauptbestandteile eines Personal Computers (d.h. ohne Verbindungskabel, keine getreue Größenwiedergabe). Dargestellt sind (neben dem Netzteil zur Stromversorgung) die Hauptplatine mit den Speichermodulen und den Steckkarten (hier: Graphikkarte, Netzwerkkarte und Steckkarte mit dem Prozessor, der aber unter dem Kühlelement verschwindet) sowie mehrere Speichergeräte (hier: Festplatte, Disketten- und CD/DVD-Laufwerk).
4.3 4.3.1
Prozessoren Unterscheidungskriterien und Leistungsmerkmale von Prozessoren
Prozessoren können im Hinblick auf ihre Leistungsfähigkeit nach mehreren Kriterien beurteilt werden:
114
Komponenten von Computersystemen
- Die Taktfrequenz definiert die Häufigkeit des Wechsels der Schaltzustände einer Schaltung pro Sekunde, wobei eine höhere Taktfrequenz den schnelleren Prozessor kennzeichnet (bei Prozessoren eines Herstellers). Sie wird in Hertz gemessen. Für Personal Computer sind derzeit Prozessoren mit einer Taktfrequenz bis zu 3.800 MHz (Mega Hertz, 1 Mio. Schwingungen pro Sek.) erhältlich. - Das interne Datenformat kennzeichnet die Anzahl der Bits (0/1-Zustände), die in einer Takteinheit vom Prozessor gleichzeitig verarbeitet werden können. Je breiter das interne Datenformat eines Prozessors ist, desto schneller kann er bei gleicher Taktfrequenz Informationen verarbeiten. Prozessoren für Personal Computer besitzen derzeit zumeist ein internes Datenformat von 128 Bit, Graphikchips bis 256 Bit. - Das externe Datenformat wird auch Datenbus-Breite genannt. Hierdurch wird die Anzahl der Bits quantifiziert, die in einer Takteinheit zwischen Prozessor und Arbeitsspeicher ausgetauscht werden können. Derzeit weisen die meisten Prozessoren für Personal Computer eine Datenbus-Breite von 128 Bit auf. - Der physikalische Speicherbereich (Adressraum) kennzeichnet die Anzahl der Speicherzellen, die für Betriebssystem, Programm und Daten maximal adressierbar, also belegbar, ist. Diese Größe ist abhängig von der Zahl der Bits, die zur Adressierung verwendet werden können. Bei 20 Adressbits sind 220 = 1.048.576 Speicherzellen ansprechbar, und somit ist, da jede Speicherzelle aus einem Byte besteht, insgesamt ein Zugriff auf 1 MB Informationen möglich (sog. 1 MB-Adressraum). Bei 24 Adressbits (224 = 16 MB Speicherzellen zu einem Byte) beträgt der Adressraum 16 MB, bei 32 Adressbits 4 GB. - Mit der maximalen Rechenleistung wird die aufgrund der Prozessorleistung (Takt, internes und externes Datenformat) theoretische erreichbare Rechenleistung benannt, die in mips (million instructions per second) gemessen wird. Diese Instruktionsrate ist allerdings umstritten, da sie von der Architektur des Rechners, von dem im Prozessor verfügbaren Befehlssatz, von der Art der Programmbefehle und vom eingesetzten Betriebssystem abhängt. Bei überwiegend mathematisch-technisch genutzten Rechnern, die häufig Operationen mit Hilfe von Gleitkommazahlen ausführen, macht es Sinn, die Rechenleistung durch die Zahl der Flops (floating point operations per second) auszudrücken. - Benchmark-Tests berücksichtigen simultan mehrere interne Beurteilungskriterien. So kann das Leistungsverhalten anhand einer Mischung verschiedener Maschinenbefehle oder repräsentativer Anwendungsprogramme bewertet werden, auch können die Bearbeitungszeiten von Programmen oder die Antwortzeiten an den Terminals beurteilt werden. Die sog. SPEC-Benchmarks der Standard Performance Evaluation Corporation sind häufig benutzte Standards für Personal Computer und Workstations (vgl. SPEC-Benchmark - Weblink). 4.3.2
CISC- und RISC-Technologie
Prozessoren werden über zahlreiche Befehle gesteuert, die den sog. Befehlssatz ausmachen. Hierzu gehören Befehle zum Laden und Speichern von Bitfolgen oder
Prozessoren
115
zum Ausführen arithmetischer Operationen (zur prinzipiellen Arbeitsweise eines Prozessors vgl. Kap. 3.1.2). Ein Befehl wird bzw. wurde wiederum in mehrere Mikrobefehle zerlegt, die als Mikroprogramm ausgeführt werden. Die Befehlssätze einzelner Prozessoren für Personal Computer umfassen zum Teil 300 bis 400 Befehle, auf die sämtliche Anweisungen von Programmen oder Betriebssystemen zurückgeführt werden. Derartige Prozessoren mit einem umfangreichen Befehlssatz basieren auf der CISC-Technologie: Complex Instruction Set Computer. Der 80386-Prozessor von Intel war noch in reiner CISC-Technik konstruiert. In den Prozessoren werden allerdings nur relativ wenige Befehle relativ häufig benutzt. So nutzen rund 80% aller Berechnungen nur 20% der verfügbaren Instruktionen (sog. 80/20-Regel). Seit Anfang der 90er Jahre werden in verstärktem Maße Prozessoren entwickelt und eingesetzt, die auf der sog. RISC-Technologie basieren (Reduced Instruction Set Computer). Diesen Prozessoren steht u.a. nur ein vereinfachter, sehr begrenzter Befehlssatz (ca. 80-150 Befehle) zur Verfügung. Die Verringerung erhöht das Verarbeitungstempo. Von Nachteil ist, dass das maschinennahe Programmieren schwieriger ist und dass komplexere Aufgaben in mehrere Einzelbefehle umgesetzt werden müssen. Allerdings sind die Befehlssätze von RISC-Prozessoren auch wieder angewachsen. Ferner bestehen neben dem tendenziell kleineren Instruktionssatz weitere RISC-Merkmale, unter denen die sog. Fließbandverarbeitung (pipelining) eine zentrale Bedeutung besitzt, mit der zudem weitere Konzepte der RISC-Technologie verbunden sind. Die Verarbeitung der Befehle erfolgt dabei ähnlich der Arbeit an einem Fließband in mehreren Stufen nacheinander, wobei die unterste Stufe ständig nachgeladen wird. Der Befehl wird an die nächste Stufe weiter gereicht, nachdem ein Arbeitsschritt beendet ist. Der nächste Befehl rückt nach. Allerdings muss gewährleistet sein, dass eine Verarbeitung innerhalb eines Taktzyklus möglich ist, was einfache Befehle voraussetzt. Durch dieses Verarbeitungsprinzip befinden sich stets mehrere Befehle in verschiedenen Ausführungsstufen im Rechner. Die Arbeitszyklen einzelner Befehle überlappen einander, wobei hier angenommen wird, dass ein Befehl aus drei einzelnen Phasen besteht, die jeweils einen Taktzyklus benötigen (Holen und Dekodieren, Ausführen, Speichern oder Bereitstellen). In diesem Fall der Befehlsverarbeitung in 3 Phasen steht nach dem dritten Zyklus ständig ein Ergebnis zur Verfügung (vgl. Abb. 4.4). Diese Fließbandverarbeitung erhöht wesentlich den Befehlsdurchsatz, allerdings wird nach wie vor je Taktzyklus nur ein Befehl geladen. Reale Prozessoren weisen auch mehr Phasen und jeweils mehr Taktzyklen auf. Die Leistung eines Prozessors kann durch mehrere parallel arbeitende Pipelines weiter gesteigert werden. Falls zwei oder mehrere parallele Pipelines vorliegen, so bezeichnet man den Prozessor als superskalar. Bei der superskalaren Bauweise besitzt jede Pipeline eine eigene Arithmetikeinheit. Dabei ist eine parallele Ausführung mehrerer Befehle möglich. Allerdings muss vorher geprüft werden, ob die Befehle voneinander unabhängig sind und verschiedenen Pipelines zugewiesen werden können. Neben der Fließbandverarbeitung bestehen weitere bedeutende RISC-Merkmale. So sind die Befehle ähnlich strukturiert und möglichst gleich lang. Komplexe Befehle z.B. zur Verarbeitung mehrerer Operanden werden vermieden und
116
Komponenten von Computersystemen
durch Folgen schneller und einfacher Befehle ersetzt. Ein Speicherzugriff erfolgt nur über die beiden Befehle Load und Store. Im Cache werden Zwischenergebnisse prozessornah gepuffert. Vor allem besitzen RISC-Befehle keine oder nur wenige Mikroprogramme. Die RISC-Befehle werden ohne Zwischeninterpretation direkt auf der Hardware ausgeführt. Demgegenüber ist die Übersetzung der Programme komplexer. Die im Mikrocode (vgl. Kap. 3.1.2) liegenden Aufgaben werden durch den Compiler erbracht (zu weiteren technischen Merkmalen von CISC- und RISC-Technologien vgl. Horn u. Kerner 1998 S. 88ff.). Klassische Verarbeitung von dreistufigen Befehlen Taktzyklus
Befehl 1
1
Holen und Dekodieren
2
3
Ausführen
Speichern/ Bereitstellen
Befehl 2
4
5
Holen und Dekodieren
Ausführen
6
Speichern/ Bereitstellen
Beschleunigte Verarbeitung von dreistufigen Befehlen durch Pipelining Taktzyklus
Befehl 1
Befehl 2
1
Holen und Dekodieren
2
3
Ausführen
Speichern/ Bereitstellen
Holen und Dekodieren
Ausführen
Speichern/ Bereitstellen
Holen und Dekodieren
Ausführen
Speichern/ Bereitstellen
Holen und Dekodieren
Ausführen
Befehl 3
Befehl 4
4
5
6
Speichern/ Bereitstellen
Abb. 4.4: Verarbeitung von Befehlen
4.3.3
Prozessoren für Personal Computer
Seit der Einführung der Mikroprozessoren ab 1972 hat die US-amerikanische Firma Intel nahezu ein Monopol bei den Prozessoren für Personal Computer errungen. Dies wurde wesentlich begünstigt durch die Einführung des von der Firma Microsoft speziell für Intel-Prozessoren entwickelten Betriebssystems MS-DOS (vgl. Kap. 4.9.5). Ein großer Vorteil der Familie der Intel-Prozessoren lag darin, dass sie hinsichtlich des Prozessor-Befehlssatzes und anderer wichtiger Eigenschaften aufwärtskompatibel sind bzw. waren. Der grundlegende Befehlssatz wurde auch bei den neueren Prozessoren beibehalten und allenfalls um einige
Prozessoren
117
zusätzliche Maschinenbefehle ergänzt (zur Bedeutung dieser Begriffe vgl. Kap. 3.1). So ist die früher für einen leistungsschwächeren Prozessor beschaffte Software auch auf leistungsstärkeren Prozessoren ablauffähig. Da der Anteil der Softwarekosten an den Gesamtinvestitionen eines Computersystems immer größer wird, diente diese Strategie der Sicherung der Softwareinvestitionen. Diese Aufwärtskompatibilität, d.h. die Einsatzmöglichkeit der älteren Software auch mit einem jüngeren Prozessor, verbunden mit einer größeren Leistungsfähigkeit bewirkte aber auch, dass bei einem günstigen Preis-Leistungs-Verhältnis der neuen Prozessorgeneration auf den jüngeren Prozessortyp umgestiegen wurde, was langfristig wiederum den Absatz der neuen Prozessoren sicherte. Die Aufwärtskompatibilität, bzw. aus der Sicht des Prozessors die Abwärtskompatibilität, führte allerdings auch zu problematischen Entwicklungen. So blieben lange Zeit die spezifischen Leistungsmerkmale der neuen Prozessoren ungenutzt. Während der Intelprozessor I-8086 nur 20 Adressbits besaß, so dass nur 220 = 1.048.576 Speicherzellen ansprechbar und insgesamt nur ein Zugriff auf 1 MB Informationen möglich waren, wies bereits der Intelprozessor I-80386 schon 32 Adressbits auf. Dieser Adressraum von 4 GB wurde aber nicht genutzt. Das eigentliche Problem war das Festhalten am veralteten Betriebssystem auf der Basis von MS-DOS (zugeschnitten auf den 8086). Erst neuere Betriebssysteme, die die 1 MB Schranke überwanden, konnten die Leistungsfähigkeit der Prozessoren ausnutzen. Die Entwicklung der Betriebssysteme und der Software hinkte somit deutlich hinter der Prozessorentwicklung hinterher. Die Prozessorgenerationen für Personal Computer wurden in der Vergangenheit durch die Bezeichnungen des Marktführer Intel bestimmt und vom 8080 bzw. 8086 bis zum 80486 hochgezählt. Neben diesen Prozessoren wurden sog. mathematische Coprozessoren (z.B. 8087, 80287, 80387) zur beschleunigten Verarbeitung von Gleitkomma-Operationen entwickelt. Seit dem 80486 ist ein derartiger Coprozessor im Hauptprozessor integriert. Da ein Namensschutz nicht für Bezeichnungen geltend gemacht werden kann, die nur aus Ziffern bestehen, werden die Prozessorgenerationen von Intel seit dem 80486 durch Namen bestimmt (u.a. Pentium I, Pentium 4). Der (inzwischen fast einzige) Mitbewerber AMD (Advanced Micro Devices) verwendet seitdem u.a. die Namen K6, Duron und Athlon. Kommerziell sind immer mehrere Varianten einer Generation verfügbar, die sich zum Teil deutlich hinsichtlich ihrer Leistungsmerkmale unterscheiden. Neben der Firma Intel, die hinsichtlich der Entwicklung neuer Technologien der Konkurrenz ein Stück voraus ist bzw. war, besteht mit AMD ein Prozessorhersteller, der preiswertere, zum Teil leistungsfähigere Prozessoren herausbringt und ein sehr gutes Preis-Leistungs-Verhältnis bietet. Bislang galt, dass stets durch Intel ein neuer Entwicklungszyklus angestoßen und eine neue Prozessorgeneration für Personal Computer definiert wurde. Im Jahre 1999 wurde mit dem Prozessor Athlon der Firma AMD diese „Regel“ durchbrochen, dessen Leistung dem Niveau des Pentium III mit gleicher Taktfrequenz mindestens ebenbürtig war. Besonders in der Berechnung von Aufgaben mit Fließkommazahlen war der Athlon stark, was sich besonders bei Multimedia-Anwendungen bemerkbar macht. Mit dem Athlon 1000 MHz entschied AMD im Februar 2000 schließlich den Prestigekampf
118
Komponenten von Computersystemen
um die Vermarktung des ersten Gigahertz-Prozessors für sich. Inzwischen ist die 4 GHz-Schwelle erreicht. Der Marktbereich der Personal Computer teilt sich in die sog. Intel-Welt, die aus Computersystemen auf der Basis von Intel-Prozessoren oder hierzu kompatiblen Prozessoren besteht, und die sog. Apple-Welt auf. Während die Firma Intel vornehmlich Prozessoren und Speicherbausteine herstellt und primär als Hardwareproduzent zu typisieren ist, bietet die Firma Apple Komplettsysteme einschließlich leistungsfähiger Peripheriegeräte wie Scanner und Laserdrucker sowie einem eigenen Betriebssystem an. Die ab 1984 verfügbaren Macintosh-Modelle basierten auf Prozessoren der 680x0-Familie des Herstellers Motorola. Die Power Macintosh-Modelle, die seit 1994 auf dem Markt sind, besitzen sog. POWERProzessoren, die gemeinsam von Apple, IBM und Motorola in sog. RISCTechnologie entwickelt wurden (vgl. Kap. 4.3.4). Im September 1999 stellte Apple den Power Mac G4 vor, der als erster PC in den Leistungsbereich eines sog. „Supercomputers“ vorstieß und höchsten Ansprüchen von Video- und Graphikanwendungen gerecht wird. Inzwischen ist der Power Mac G5 erhältlich, der dank seines 64-Bit-Prozessors bis zu 8 GB Arbeitsspeicher ansprechen kann und der vor allem im Bereich Design und Publishing deutliche Geschwindigkeitsvorteile besitzt. In ihm stecken bis zu zwei POWER G5 Prozessoren, die gegenüber dem POWER G4 eine optimierte Velocity Engine besitzen (u.a. mit Vektorverarbeitungseinheit mit 162 integrierten SIMD-Befehlen, vgl. Kap. 3.2.6 u. 4.3.4). Hard- und Software beider Computerwelten sind nicht miteinander (direkt) kompatibel. Abgesehen von rechnerspezifischen Eigenarten wie z.B. Genauigkeit der Datentypen oder der maximalen Größe von Arrays, die u.U. eine Anpassung erfordern, muss aufgrund unterschiedlicher Befehlssätze der Prozessoren der Quellcode für jede Plattform neu compiliert werden (vgl. Kap. 3.3.2). Text- oder Datendateien können aber konvertiert und ausgetauscht werden. Auf die Wiedergabe von Kennwerten zu Prozessoren wird verzichtet. Aktuelle Daten sind nur über die Homepages der Hersteller zu beziehen (vgl. auch CPUCollection Weblink). 4.3.4
Prozessoren für Workstations
Prozessoren für Workstations sind ausschließlich RISC-Prozessoren, wobei auch zunehmend die jüngeren Prozessoren für Personal Computer die Technologie benutzen. RISC-Prozessorfamilien werden fast immer nur auf den zugehörigen Rechnerplattformen der jeweiligen Hersteller eingesetzt (PA-RISC Prozessoren von Hewlett Packard). Die Prozessoren besitzen spezifische Leistungsmerkmale, um sich gegenüber der Konkurrenz abzusetzen. In diesem Marktsegment sind offene Architekturen seltener, so dass in der Regel nicht mehrere Halbleiterhersteller diese Prozessoren fertigen dürfen. Ausnahmen bildeten die Sparc- bzw. Ultra-Sparc-Prozessorfamilie von Sun Microsystem sowie die Alpha-ChipArchitektur von DEC (Digital Equipment Corp., von der Firma Compaq und diese wiederum von Hewlett Packard übernommen). Die POWER-RISC Architektur
Arbeitsspeicher
119
(POWER = Performance Optimized With Enhanced RISC) wurde gemeinsam von Apple, IBM und Motorola zur POWER-PC-Prozessorfamilie und von IBM inzwischen zur POWER5-Prozessorfamilie weiterentwickelt. Im Power Mac G5 von Apple arbeiten die Prozessoren POWER PC 970 bzw. POWER PC 970FX von IBM, die auf dem POWER 4+ Prozessor basieren. Der von Apple benutzte Name G5 soll verdeutlichen, dass inzwischen die fünfte Generation von POWER-PCProzessoren in Apple Macintosh Rechnern eingesetzt wird. Auch hier wird auf die Wiedergabe von Kennwerten zu Prozessoren verzichtet. Aktuelle Daten sind nur über die Homepages der Hersteller zu beziehen (vgl. auch CPU-Collection Weblink).
4.4
Arbeitsspeicher
Generell bestehen zwei große Gruppen von Speicherbausteinen, die für den Arbeitsspeicher verwendet werden. SRAM-Speicherbausteine (Static Random Access Memory) besitzen zwei Transistoren zur Speicherung eines Datenbits. Dabei bleibt ein gespeichertes Datenbit (Wert 1) solange gesetzt, wie eine Spannung anliegt (statisch, permanent). Demgegenüber sind die DRAM-Speicherbausteine (Dynamic Random Access Memory) einfacher aufgebaut. Hierbei wird ein Datenbit nur durch eine kleine elektrische Ladung in einem Kondensator gespeichert, der durch einen Transistor gesteuert wird. Die eigentlichen Speicherelemente sind also Kondensatoren. Allerdings haben Kondensatoren den Nachteil, dass sie bereits nach kurzer Zeit ihren Ladezustand verlieren. Sollen die Informationen längere Zeit vorgehalten werden, muss der Ladezustand der Kondensatoren ausgelesen und danach wieder hergestellt und somit aufgefrischt werden. Dieser sog. Refresh muss sehr häufig durchgeführt werden (im Millisekunden-Rhythmus). Während eines Refresh ist ein Zugriff auf den Speicher nicht möglich. Die Abstände zwischen zwei Refresh-Aktionen, also die Zugriffsmöglichkeiten, sind je nach technischer Ausfertigung unterschiedlich lang. DRAM-Speicherbausteine werden vor allem für Arbeitsspeicher benutzt, wobei inzwischen eine Vielzahl von Bauarten besteht: EDO-RAM (Extended Data Output RAM, veraltet), SDRAM (Synchronous Dynamic RAM), DDR-SDRAM (Double Data Rate SDRAM und Weiterentwicklungen zu DDR2-SDRAM) und RDRAM (Rambus Dynamic Random Access Memory). Die Rambus-Speicherbausteine sollten die Nachfolge von SDRAM bilden. Der Massenmarkt wird aber inzwischen von DDR-SDRAM beherrscht, während RDRAM nur auf einigen Workstations und Servern eingesetzt wird. SRAM-Speicherbausteine benötigen keinen Refresh und ermöglichen kurze Zugriffszeiten. Sie werden u.a. als Hardware-Cache oder auf Graphikkarten eingesetzt, wobei für hochwertige Graphikadapter ein spezieller Typ von Speicherbausteinen, sog. VRAM-Speicherbausteine (Video Random Access Memory), benutzt wird. In älteren Rechnern wurden die Speicherbausteine auf dem Motherboard festgelötet oder in spezielle Sockel eingesetzt (sog. DIPs, Dual Inline Pin, bezeichnet
120
Komponenten von Computersystemen
nach den beiden Reihen von Pins an den Längsseiten der Speicherbausteine). Heute wird der Arbeitsspeicher (d.h. RAM) zumeist in Form von Speichermodulen bereitgestellt. Dabei sind mehrere Speicherbausteine auf einer Einheit aufgelötet und zu einem einzigen Speichermodul in Form einer kleinen Steckkarte zusammengefasst, die in Steckplätze des Motherboards gesteckt werden. Hauptsächlich werden unterschieden: Single Inline Memory Module (SIMM), Dual In-Line Memory Module (DIMM) und Rambus In-Line Memory Module (RIMM), die sich vor allem hinsichtlich der Bestückung mit Speicherbausteinen und Zahl der Kontakten unterscheiden.
4.5
Graphikadapter
Die Graphikadapter zählen zu den wichtigsten Komponenten von Computersystemen, da sie digitale in analoge, elektrische Signale zur Bildschirmsteuerung umwandeln und somit die Leistungsfähigkeit der Benutzerschnittstelle MenschMaschine bestimmen. Zumeist stellen sie eigene Baueinheiten dar, die sog. Graphikkarten, die in die Hauptplatine eingesteckt werden. Allerdings können sie auch auf dem Motherboard integriert sein. Die Graphikkarten besitzen inzwischen fast immer eigene Prozessoren, die den Hauptprozessor von den sehr rechenintensiven Graphikberechnungen entlasten (z.B. Zoomen oder Entfernen verdeckter Linien bei 3D-Darstellungen). Zudem haben sie immer einen eigenen Speicher, von dessen Größe die möglichen Auflösungen und Farbtiefen abhängen. Für Personal Computer wurden im Laufe der Zeit verschiedene Graphikstandards mit unterschiedlicher Auflösung und Farbenanzahl für graphische Ein- und Ausgabegeräte entwickelt (Auflösung in Spalten x Zeilen): Tabelle 4.1: Graphikstandards für Personal Computer Abkürzung
Bedeutung
CGA EGA VGA SVGA XGA WXGA SXGA WSXGA SXGA+ WSXGA+ UXGA WUXGA SUXGA (QXGA)
Computer Graphics Array Enhanced Graphics Array Video Graphics Array Super VGA Extended Graphics Array Wide XGA Super XGA Wide SXGA Super XGA Plus Wide SXGA Plus Ultra XGA Wide UXGA Super Ultra XGA (Quad XGA)
übliche Auflösung in Bildpunkten 320 x 200 640 x 350 640 x 480 800 x 600 1024 x 768 1280 x 768 1280 x 1024 1600 x 900 1400 x 1050 1680 x 1050 1600 x 1200 1920 x 1200 2048 x 1536
Anmerkung 4 Farben 16 aus 64 Farben bis 16 Farben bis zu 224 Farben Breitbildschirme Breitbildschirme Breitbildschirme Breitbildschirme Pixel gegenüber XGA vervierfacht
Massenspeicher
121
In der Geoinformatik ist die Farbpräsentation an einem Monitor, d.h. eine möglichst exakte Wiedergabe z.B. von Farbkarten oder (Luft-)Bildern in Echtfarben bei einer hohen Auflösung von besonderer Bedeutung. Der Monitor bestimmt durch seine Bauart zunächst die maximal mögliche horizontale und vertikale Auflösung. Die höchstmögliche Farbauflösung einer Darstellung an einem Monitor wurde aber vor allem durch die Speicherkapazität der Graphikkarte beschränkt. Inzwischen wird die Leistungsfähigkeit einer Graphikkarte durch den Graphikprozessor und die mögliche Bildwiederholfrequenz bestimmt (vgl. Kap. 4.8.1). So sind moderne Graphikprozessoren in der Lage, bestimmte standardisierte 3DDarstellungsfunktionen beschleunigt zu verarbeiten. Mögliche Bildwiederholfrequenz und Bildschirmauflösung sind wiederum miteinander gekoppelt. Eine höhere Auflösung führt im Allgemeinen zu einer geringeren Bildwiederholungsrate. Der beschränkende Faktor ist hierbei die (begrenzte) Rechenkapazität des Graphikprozessors. So müssen selbst bei gleichbleibender Bildwiederholfrequenz, aber einer höheren Auflösung pro Sekunde Rechenoperationen für eine größere Zahl von Bildpunkten durchgeführt werden (vgl. Kap. 4.8).
4.6
Massenspeicher
Die externen Speicher dienen der dauerhaften Speicherung von Programmen und Daten. Die sog. Massenspeicher werden im Hinblick auf die Art des Datenzugriffs grob in zwei Gruppen unterteilt:
Massenspeicher Direktzugriffsspeicher
Sequentielle Speicher Magnetbandspulen
Magnetbandkassetten
Magnetischer Speicher Magnetplatten
Disketten
- Festplatten - Wechselplatten
Optischer Speicher
Halbleiterspeicher
- CD-ROM - WORM - löschbare Platten
- FlashSpeicher
Abb. 4.5: Übersicht über Massenspeicher
4.6.1
Sequentielle Speicher
Die sequentiellen Speicher wie Magnetbänder auf Spulen oder in Kassetten erlauben nur einen fortlaufenden Zugriff, der somit nur in der Reihenfolge der gespeicherten Daten erfolgen kann. Um z.B. den n-ten Datensatz zu lesen, muss das Band bis zur n-ten Stelle gespult werden, woraus sich die recht langsame Zugriffszeit erklärt.
122
Komponenten von Computersystemen
Magnetbandgeräte können Magnetbänder aus Kunststofffolie, auf die sequentiell in Laufrichtung große Datenmengen gespeichert werden können, lesen und beschreiben. Beim Schreiben wird eine magnetisierbare Schicht durch Erzeugen eines Magnetfeldes magnetisiert, so dass hierdurch Bitfolgen codiert bzw. technisch realisiert werden (vgl. Kap. 4.6.2). Bis Mitte der 80er Jahre waren dabei noch Spulen mit einem Durchmesser von 26,7 cm üblich, die aber inzwischen durch kleinere Magnetbandkassetten abgelöst wurden. Derartige Medien sind vor allem in großen Rechenzentren zur Datenarchivierung im Einsatz. Bandroboter erlauben insbesondere einen völlig bedienungslosen Magnetbandbetrieb, bei dem nach Aufforderung durch ein Anwenderprogramm ein Roboter automatisch eine Kassette aus einem Archiv holt und in ein Bandlaufwerk einlegt. Verschiedene Hersteller von Bandlaufwerken konkurrieren mit unterschiedlichen Verfahren und Kassettenformaten. Die wichtigsten Bandtechnologien sind: DAT-Laufwerke (Digital Audio Tape) speichern auf sog. DDS-Bändern (Digital Data Storage) ähnlich wie ein Videorecorder (Kapazität bei DDS5 bis 36 GB ohne Kompression). DLT- bzw. SDLT-Kassetten (Digital Linear Tape bzw. Super DLT) besitzen nur einen Spulenkörper, auf dem das Band aufgewickelt ist (Kapazität bei SDLT600 bis 300 GB ohne Kompression). Ähnlich, aber mit kleineren Kassetten arbeiten die LTO-Laufwerke (Linear Tape Open, Kapazität bei LTO3 bis 400 GB ohne Kompression). Die VXA-Technologie von Exabyte erreicht eine hohe Datensicherheit und Lesbarkeit der Bänder. So bestehen zwei Schreibeinheiten, der erste Kopf schreibt eine Spur, der zweite liest diese zur Kontrolle (Kapazität bei VXA-2 bis 80 GB ohne Kompression). Weitere Techniken sind: ADR (Advanced Digital Recording), AIT (Advanced Intelligent Tape) und SLR (Scalable Linear Recording). 4.6.2
Direktzugriffsspeicher
Die Direktzugriffsspeicher ermöglichen den direkten (wahlfreien) Zugriff auf einzelne Datensätze. Mit Hilfe geeigneter Verfahren kann direkt auf einen Datensatz zugegriffen werden (vgl. Kap. 3.3.5). Der Betrieb dieser Speicher wird durch sog. Controller gesteuert, die die Funktionen dieser Massenspeicher überwachen und die Verbindung zum Prozessor herstellen. Für Personal Computer sind derzeit mehrere Techniken üblich: EIDE-Controller (Enhanced Integrated Drive Electronics, entspricht ATA-2, wobei Advanced Technology Attachments (ATA) ein amerikanischer Industriestandard ist, der die Verbindung zwischen PC und Speichergeräten regelt), deren Weiterentwicklung Serial ATA (S-ATA) sowie SCSIController (Small Computer Device Interface). Ein EIDE-Controller kann bis zu vier Laufwerke (d.h. auch Festplatten) ansteuern. S-ATA ist ein neuer Standard, der vermutlich die (E)IDE-Schnittstelle ablösen wird. S-ATA zeichnet sich gegenüber seinem Vorgänger durch eine höhere Geschwindigkeit, eine vereinfachte Kabelführung und die Fähigkeit aus, im laufenden Betrieb den Datenträger zu wechseln. Während bei einer IDE-Platte der Prozessor warten muss, sobald Daten von der Festplatte angefordert werden, ist die SCSI-Technik unabhängig vom Prozessor: Sie steuert den Datentransfer, während der Prozessor mit anderen Auf-
Massenspeicher
123
gaben beschäftigt ist (aber nur bei multitaskingfähigen Betriebssystemen, vgl. Kap. 4.9.2). SCSI wurde ständig weiterentwickelt und liegt in mehreren Standards vor. Diese Technik wird aber zumeist nur noch im Zusammenhang mit Hochleistungsworkstations eingesetzt. Demgegenüber nutzen die üblichen Personal Computer und Notebooks die preiswertere ATA/IDE-Schnittstelle für ihre Laufwerke und USB (vgl. Kap. 4.2). Zu den magnetischen Datenspeichern gehören Disketten und Festplatten (d.h. Magnetplattenspeicher) sowie Magnetbänder (vgl. Kap. 4.6.1), Magnetkarten (im Scheckkartenformat) und die inzwischen fast verschwundenen Magnettrommeln. Diese Datenträger besitzen ein identisches Speicherprinzip: Auf einem nicht magnetisierbaren Trägermaterial, z.B. auf biegsamen oder starren Kunststoffscheiben, auf Kunststofffolien oder auf Aluminiumscheiben (wie bei Festplatten), befindet sich eine sehr dünne, magnetisierbare Schicht. Dieser Datenträger wird an einem oder mehreren Schreib- und Leseköpfen vorbeigeführt, die bei Festplatten im Abstand von weniger als einem tausendstel Millimeter über der Scheibenoberfläche auf einem Luftpolster schweben, das durch die Drehbewegung gebildet wird. Beim Schreibvorgang wird durch Erzeugung eines Magnetfeldes (Stromimpuls auf einen winzigen Elektromagneten im Schreibkopf) die Magnetschicht magnetisiert, umgekehrt induziert beim Lesevorgang die magnetisierte Stelle einen Stromimpuls, so dass hierdurch Bitfolgen codiert und technisch realisiert werden. Je nach Bauart erfolgt die Speicherung in unterschiedlichen Formen wie z.B. bei Magnetbändern in Spuren (Kanälen) bitparallel zur Laufrichtung des Bandes oder wie bei Disketten oder Magnetplatten in konzentrischen Spuren. Disketten sind runde Magnetspeicher, die (bei einem Datenzugriff) in einem Diskettenlaufwerk mit konstanter Umdrehungsgeschwindigkeit rotieren. Die Daten werden bitweise aufeinanderfolgend (d.h. bitseriell) in konzentrischen Spuren aufgezeichnet, die in gleichgroße Sektoren eingeteilt sind. Für Personal Computer sind noch Disketten mit einem Durchmesser von 3 1/2 Zoll und einer Speicherkapazität von 1.44 MB üblich. Ferner gibt es inzwischen auch Disketten mit hohem Speichervermögen mit 100 MB bzw. 500 MB Speicherplatz für sog. ZIP-Laufwerke sowie 2 Zoll Disketten für den Einsatz in tragbaren Rechnern. Disketten sind leicht auswechselbar und handlich, allerdings haben sie eine lange Zugriffszeit und im Vergleich mit anderen Medien recht geringe Kapazitäten. Inzwischen gelten jedoch Disketten als veraltet. Aufgrund der beschränkten Kapazität eignen sie sich nicht mehr als Übertragungsmedium insbesondere für Multimediaprodukte und Bilder, bei denen enorme Datenmengen anfallen, oder für Software. Seit langem besitzen sie keine Bedeutung mehr für die Datenarchivierung. Das Arbeitsprinzip einer Festplatte ähnelt dem der Diskette. Eine Festplatte besitzt aber mehrere Platten mit Schreib-/Leseköpfen übereinander. Zudem sind schnellere Umdrehungen möglich. Festplatten besitzen eine wesentlich höhere Speicherkapazität und kurze Zugriffszeiten. Festplatten gibt es vom Großrechner bis zu Notebooks in verschiedenen Größen. Ihre Speicherkapazität liegt zurzeit im Bereich mehrerer 100 GBytes. Große Bedeutung haben optische Datenspeicher gewonnen, die gegenüber Magnetplatten eine sehr hohe Speicherkapazität, eine geringe Störanfälligkeit und eine lange Lebensdauer besitzen, aber eine erheblich längere Zugriffszeit aufwei-
124
Komponenten von Computersystemen
sen. Zu unterscheiden sind nur optisch lesbare Speicherplatten, die nur vom Hersteller beschrieben werden, genau einmal vom Anwender beschreibbare Platten und Platten, die beliebig oft an denselben Stellen lösch- und beschreibbar sind. Unter den optischen Datenspeichern ist derzeit die CD-ROM (Compact Disk Read Only Memory) immer noch weit verbreitet, die ursprünglich in der Unterhaltungselektronik entwickelt und dort zu einem preiswerten Massenartikel wurde. Sie besitzt eine Kapazität von ca. 700 MB, hat aber recht lange Zugriffszeiten. Beim Lesevorgang wird mit einem Laserstrahl eine Plastikscheibe (Compact Disk) abgetastet. Trifft der Strahl auf eine Vertiefung (pit), so wird er absorbiert bzw. zerstreut. Eine ebene Plattenfläche (land) reflektiert den Strahl, der dann von einer Fotodiode registriert und in einen elektronischen Impuls transformiert wird. Insgesamt ist durch diese sog. lands and pits eine Speicherung von Bitfolgen möglich. Das Lesen erfolgt hierbei völlig berührungslos und dann auch verschleißfrei. Beim Schreibvorgang einer einzelnen Compact Disk werden mit Hilfe eines sog. CD-Recorders (CD-Brenners) durch einen Laserstrahl Vertiefungen in eine Kunststoffscheibe (sog. CD-R, CD-Recordable) eingebrannt, wohingegen bei großen Stückzahlen zunächst eine sog. Master-CD aus Glas hergestellt und dann die CDs gepresst werden. Danach können CD-Rs nicht mehr verändert werden. Die Speicherung erfolgt bei den CD-Rs in einer spiralförmigen Spur. Während die einfache CD-R (CD-Recordable) nur einmal beschreibbar ist, kann eine CD-RW (CD-ReWritable, wieder beschreibbare CD) etwa 1000 mal wieder beschrieben werden. Die CD-RW beruht auf der sog. Phase-Change-Technik, bei der der Datenträger aus einer polykristallinen Speicherschicht besteht, die abhängig vom Erhitzungsgrad durch den schreibenden Laser des CD-Recorders verändert werden kann. Im Ausgangszustand ist die Speicherschicht kristallin. Während der Speicherung erhitzt ein energiereicher Laser kurzzeitig einzelne Bereiche, wodurch an diesen Stellen die Kristalle schmelzen und in einen amorphen Zustand übergehen. Die Reflexion dieser amorphen Stellen ist viel geringer als an den kristallinen Stellen. Beim Lesen mit einem weniger intensiven Laser wird der Laserstrahl von den kristallinen Stellen reflektiert und von den amorphen Stellen zerstreut bzw. absorbiert. Somit können insgesamt Bitfolgen gespeichert werden. Das reflektierte Licht wird analog zur CD-R von einer Fotodiode registriert und in einen elektronischen Impuls transformiert. Während des erneuten Beschreibens können die amorphen Stellen wieder in den kristallinen Zustand zurückgeführt werden (etwas längeres Erhitzen unter dem Schmelzpunkt). Eine Weiterentwicklung der CD-ROM stellt die DVD-ROM (Digital Versatile Disk Read Only Memory) dar, die als der derzeitige Standard anzusehen ist. So benötigen umfangreiche Graphik-Spiele oder Videosequenzen gegenüber der herkömmlichen CD eine höhere Speicherkapazität. Die DVD ist gleich groß wie eine CD. Sie wird aber zweiseitig hergestellt, wozu zwei CDs halber Stärke aneinander geklebt werden. Während hierdurch sich die Speicherkapazität bereits verdoppelt, werden die Daten auf die DVD zudem erheblich dichter geschrieben, so dass sich eine sehr hohe Kapazität ergibt (zweimal 4,7 GByte). Darüber hinaus kann durch Verwendung eines halbdurchlässigen Materials für die obere Schicht jede Seite mit zwei Datenspeicherschichten versehen werden, so dass 17 GByte Daten gespeichert werden können (sog. double sided - double layer DVD).
Massenspeicher
125
Ursprünglich waren nur lesbare DVDs auf dem Markt (DVD-Video, -Audio und -ROM). Inzwischen gibt es drei Formate für wieder beschreibbare DVDs, die sämtlich auf der sog. Phase-Change-Technologie basieren. Die DVD-RAM als die älteste Variante ist keine wieder beschreibbare DVD-ROM. Hierbei handelt es sich um ein völlig anderes Speichermedium (einseitiges Medium mit einer Schicht zu Gesamtkapazität von 2,6 GByte bis zweiseitiges Medium mit je einer Schicht und einer Gesamtkapazität von 9,4 GByte, Datenträger mit Schutzhülle ähnlich zu einem sog. CD-Caddy). Daneben bestehen zwei weitere wieder beschreibbare DVD-Formate, die DVD-RW und die DVD+RW, die sich alle trotz ähnlichem Aussehen und gleicher Kapazität doch unterscheiden. Allgemein gilt, dass die DVD-RW und die DVD+RW auf eine maximale Kompatibilität mit der DVDVideo und DVD-ROM ausgelegt sind, während die DVD-RAM auf Datensicherheit optimiert ist. Mit „-“ sind alle DVD-Formate gekennzeichnet, welche vom DVD- Forum stammen, und ein „+“ kennzeichnet die Formate vom konkurrierenden Herstellerkonsortium DVD+RW Alliance. Als WORM-Platten (WORM, Write Once Read More bzw. Mostly, Multiple) werden einmal beschreibbare Platten bezeichnet. Die Daten können anschließend nur noch gelesen, aber nicht mehr verändert werden. WORM-Platten dienen hauptsächlich der Archivierung umfangreicher Datenbestände. Die Aufzeichnung erfolgt im Gegensatz zur CD bzw. CD-R in konzentrischen Spuren. WORMPlatten besitzen gegenüber den CDs ein anderes Format und eine erheblich höhere Kapazität (bis 8 GByte je Plattenseite). Einen einheitlichen Aufzeichnungsstandard gibt es bislang noch nicht. Die magneto-optische Aufzeichnungstechnik wird für wiederbeschreibbare optische Platten (ROD, rewritable optical disk) eingesetzt. Die magneto-optischen Speichermedien werden als Magneto Optical Disk (MO-Disk) bezeichnet. Im Unterschied zu einer WORM-Platte wird die Oberfläche nicht unumkehrbar verändert und kann mehrfach beschrieben werden. Hierbei liest und schreibt ein Laserstrahl auf einem speziellen magnetischen Speichermedium, dessen Trägerschicht erst bei einer hohen Temperatur magnetisierbar ist. Bei der Aufzeichnung erhitzt ein scharf gebündelter Laserstrahl eine Stelle auf der Scheibe, wodurch sie magnetisiert wird. Dieser Vorgang ist wiederholbar, so dass letztlich ein beliebig häufiges Beschreiben möglich ist. Beim Lesen wird an den magnetisierten Stellen das auftreffende Licht eines Lasers verändert, so dass die Reflexionsunterschiede wieder in Bits entschlüsselt werden können. Allerdings muss dieser Lesestrahl energieärmer sein als der Schreibstrahl, da er die Magnetschicht nicht erwärmen darf. Derzeit erreichen die Datenträger eine Kapazität von 2,3 GByte (bei 3.5Ǝ MO-Medien) bzw. 9,1 GByte (bei 5.25Ǝ MO-Medien) und sind durchschnittlich 10 Millionen Mal beschreibbar. Gegenüber CD-RWs bieten MO-Disks eine bessere Datensicherheit und eignen sich daher als professionelles Sicherungsmedium. Neben den magnetischen Speichern und optischen Speicherplatten gibt es derzeit noch als Massenspeicher die Flash-Speicher, die zumeist in Speicherkarten im Scheckkartenformat vor allem bei Notebooks und ähnlichen Rechnern eingesetzt werden. Sie dienen nicht nur der Speichererweiterung, sondern auch als Ersatz für Laufwerke, insbesondere für Festplatten. Derzeit besteht ein standardisiertes System für verschiedene Arten von Steckkarten im Scheckkartenformat, die sog.
126
Komponenten von Computersystemen
PCMCIA-Karten (Personal Computer Memory Card International Association). Die PCMCIA-Karten sind als Arbeitsspeichererweiterungen, als kleine Festplatten sowie als Netzwerk-, Modem-, Schnittstellen- und Sound-Karten erhältlich. 4.6.3
RAID-Technologie
Ein besonderes Verfahren zur Datensicherung und Archivierung ist die sog. RAID-Technologie (Redundant Array of Inexpensive Disks bzw. Independent Disks), die eine Erhöhung der Ausfallsicherheit und letztlich eine optimale Datensicherheit zum Ziel hat und die häufig im Serverbereich eingesetzt wird. Die Sicherung erfolgt mit Hilfe von Magnetplattenarrays, die mit Hilfe von Software zu einem einzigen logischen Laufwerk verknüpft werden. Dabei werden mehrere Standards (RAID-Level 0 bis 7) unterschieden, von denen die Level 1, 3 und 5 am meisten verbreitet sind (vgl. Abb. 4.6). Beim Level 1 werden die gleichen Daten gleichzeitig auf eine andere Platte geschrieben (sog. Spiegelung). Durch die Kopie wird somit die doppelte Speicherkapazität benötigt, so dass zwar die Datensicherheit, aber auch die Kosten hoch und die Verarbeitungsgeschwindigkeit geringer sind. Beim Level 3 und 5 wird auf eine Kopie verzichtet. Beim Level 3 werden die Datenblöcke parallel über mehrere Platten verteilt. Von den Daten werden zusätzliche Prüfdaten auf einer weiteren Platte gespeichert. Falls eine Platte ausfällt, können aufgrund der verbleibenden Informationen auf den Platten und den Prüfdaten dann die fehlenden Daten rekonstruiert werden. Der Hardwareaufwand ist geringer. Jedoch wird bei jedem Schreib- oder Lesevorgang auf sämtliche Platten zugegriffen, so dass bei hohen Datenmengen und häufigen Datenzugriffen diese Variante weniger geeignet ist. Beim Level 5 werden die Prüfdaten auf alle Platten verteilt. Hierbei erfolgt der Zugriff auf die Platten unabhängig voneinander, so dass auch ein mehrfacher gleichzeitiger Zugriff möglich ist. Dieses Sicherheitsverfahren erlaubt daher einen effektiven Einsatz bei hohen Datenzugriffsraten, so dass es insbesondere bei kommerziellen Großrechnern und Hochleistungsservern zum Einsatz kommt. Level 3
Daten: 1101 1100 1000 1000 0101 1100 1100 0101
Level 5
Daten: 1101 1100 1000 1000 0101 1100 1100 0101
1111 0110
1101 1100
Datenblock 5 Datenblock 9
1100 1111
1000 1000
Datenblock 6
0000 0000
0101 1100
Datenblock 7 Parity-Block
1000 1001
1100 0101
Parity-Block
Datenbl. 11
1100 1101
Datenblock 8
Datenbl. 12
1011 0000
Abb. 4.6: RAID-Systeme
Parity
Datenbl. 10
Eingabegeräte
4.7 4.7.1
127
Eingabegeräte Nichtgraphische Eingabegeräte
An Eingabegeräten für Computersysteme ist eine beinahe unübersehbar gewordene Vielfalt vorhanden. Zu den derzeitigen Standardgeräten gehören: - Die Tastatur ist das am weitesten verbreitete Gerät für die direkte manuelle Dateneingabe. - Über eine Maus wird eine analoge Bewegung durch ein Symbol innerhalb einer graphischen Benutzeroberfläche nachgeführt. Durch kurzes Drücken (d.h. Klicken) einer der Maustasten kann eine Aktion ausgelöst werden. Entsprechend funktionieren eine Rollkugel (sog. Trackball), d.h. eine auf dem Rücken liegende unbewegliche Maus, oder ein Steuerknüppel (sog. Joystick), mit dem vor allem Computerspiele gesteuert werden. - Berührungsempfindliche Bildschirme ermöglichen eine Dateneingabe oder Auswahl von Optionen wie z.B. bei einem Fahrkartenautomat durch Antippen der Bildschirmoberfläche. Der Rechner identifiziert die Position, das zugehörige Programm löst eine Aktion aus. Ähnlich funktioniert die Eingabe über Lichtgriffel, mit der über den Monitor auch eine graphische Eingabe wie z.B. eine Freihandzeichnung möglich ist. In verschiedenen Anwendungsbereichen sind zum Teil weit verbreitet: - Strichcode- oder Balkencodelesegeräte ermöglichen das maschinelle Lesen eines Codes, der aus verschiedenen breiten Streifen in unterschiedlichen Abständen besteht. Derartige Geräte werden z.B. im Handel zur Warenkennzeichnung verwendet und sind zentrale Bestandteile von sog. Scannerkassen, die die Ware erfassen und die Rechnung erstellen, aber auch gleichzeitig wichtige Eingabedaten für Lagerhaltungsprogramme liefern. - Die Magnetstreifenkartenlesegeräte können die auf kleinen Kunststoffkarten im Scheckkartenformat wie z.B. Ausweisen oder Kreditkarten befindlichen Magnetstreifen lesen (und auch zum Teil beschreiben). - Die Chipkartenlesegeräte können Plastikkarten im Scheckkartenformat, die unter einer vergoldeten Kontaktplatte einen Chip besitzen (sog. Chipkarten), lesen und beschreiben. Bei Speicherchipkarten, bei denen der Chip (zumeist NurLese-Speicher als EEPROM, vgl. Kap. 4.2) benutzerspezifische Daten enthält, bleiben die Informationen auch bei Unterbrechung der Stromzufuhr erhalten. Prozessorchipkarten (sog. SmartCards) verfügen zusätzlich über einen Prozessor, der selbst Daten verarbeiten kann, wobei z.B. über Kontakte auf der Chipkarte eine Stromzufuhr vom Lesegerät erfolgt. Gegenüber Magnetstreifenkarten sind Chipkarten fälschungssicherer und bieten eine höhere Speicherfähigkeit. Unterschieden werden Geld- bzw. Wertkarten (vgl. z.B. Telefonkarten) sowie Identifikationskarten (vgl. z.B. die Krankenversichertenkarten der gesetzlichen Krankenversicherungen). - Die sog. Beleglesegeräte sind in der Lage, eine standardisierte Schrift oder Markierungen auf einem zumeist genormten Datenträger (z.B. Überweisungs-
128
Komponenten von Computersystemen
auftrag einer Bank) zu erfassen. Man unterscheidet dabei Belegleser, die in der Regel nur je eine Zeile je Beleg und Lesevorgang lesen können und die universelleren Formularleser (d.h. Blatt- oder Seitenleser). - Häufig erfolgt eine manuelle Datenaufnahme über sog. Handheldgeräte, auch Personal Digital Assistant (PDA) genannt. Diese sehr kleinen, in der Hand zu haltenden Computer werden z.B. bei Versorgungsunternehmen beim Ablesen von Zählgeräten eingesetzt und anschließend über eine sog. Docking Station an ein stationäres Computersystem angedockt, um den Datentransfer zu ermöglichen. - In jüngerer Zeit hat die audio-visuelle Dateneingabe an Verbreitung und Bedeutung zugenommen, d.h. die Eingabe von Ton oder Sprache (z.B. zur Programmsteuerung) sowie von Bildern über eine Kamera. 4.7.2
Graphische Eingabegeräte
In der Geoinformatik spielen vor allem die graphischen Eingabemöglichkeiten eine besondere Rolle, die eine zweidimensionale Erfassung von Graphiken, Bildern oder Karteninformationen ermöglichen. Unterschieden werden neben der manuellen Koordinateneingabe über Tastatur die halbautomatische Eingabe vor allem über ein Graphiktablett und die automatisierte Eingabe mit Hilfe eines Scanners.
Abb. 4.7: Funktionsprinzip eines Digitalisiertabletts
Das Graphiktablett, das Digitalisiertablett oder einfacher der Digitizer ermöglicht eine Erfassung von Koordinatenpaaren, d.h. von Punkten. Mit Hilfe eines elektronischen Stiftes oder einer Lupe mit Fadenkreuz wird ein bestimmter Punkt einer Vorlage (z.B. eine Hausecke oder ein Straßenkreuz in einer Karte) identifiziert (vgl. Abb. 4.7). Durch Berühren mit dem Stift oder durch Drücken eines Schalters an der Lupe wird ein Impuls auf ein im Tablett integriertes Gittersystem übertragen und zwei elektrische Leitungsbahnen aktiviert, die die zugehörigen Koordinaten liefern. Das Koordinatensystem wird über eine Software definiert (z.B. Festlegen eines Nullpunktes, vgl. Kap. 6.2.1). Linienhafte Strukturen einer Graphik wie Grenzen von Flurstücken oder z.B. Straßenlinien können in Computersysteme eingegeben ("digitalisiert") werden, indem die Lage der Grenzsteine
Eingabegeräte
129
abgegriffen wird oder eine Linie durch eine Folge von geraden Streckenabschnitten angenähert wird, wobei die Anfangs- bzw. Endpunkte der Strecken erfasst werden (vgl. Kap. 5.1.4 u. 6.2.1). Mit dieser Dateneingabe ist eine hohe Genauigkeit verbunden, so dass sie u.a. im Vermessungswesen eingesetzt wird (Auflösung 4000 lines/inch bzw. 150 Linien pro mm, Genauigkeit der Punkterfassung bis zu r 0,13mm). Entsprechend dem Digitalisiertablett ist eine Dateneingabe mit Hilfe eines sog. Pen-Computers (alias Notepad, Pentop) möglich. Dabei übernimmt ein berührungsempfindlicher Flachbildschirm die Funktion eines Digitalisiertabletts und einer Kommunikationsschnittstelle mit dem Computersystem. Hierüber sind Programmsteuerung und auch Koordinateneingaben möglich. Scanner sind optische Abtaster, die eine Text- oder Bildvorlage als Pixelgraphik erfassen, die aus einzelnen, in Zeilen und Spalten angeordneten Bildpunkten besteht (vgl. Kap. 2.5.6). Die durch den Abtastvorgang empfangenen HellDunkel-Signale werden in digitale Signale umgewandelt. Dabei kann ein Schwarz-Weiß-Scanner für jeden einzelnen Bildpunkt nur Schwarz oder Weiß erkennen. Graustufenscanner können für jeden Bildpunkt einen Grauwert erfassen, der zumeist als 8-Bit-Code gespeichert wird, so dass maximal 256 Grauabstufungen codiert werden können. Farbscanner zerlegen einen farbigen Bildpunkt in die drei Grundfarben Rot, Grün und Blau, wobei zumeist jeweils 256 Helligkeitsabstufungen erkannt werden können. Die Farbe jedes Bildpunktes wird somit durch 24 Bit codiert, wodurch über 16 Mio. verschiedene Farben darstellbar sind (sog. True Color Modus, vgl. Kap. 2.7.3). Die Standardscanner, die als Flachbettscanner zumeist im Format DIN A 4 angeboten werden, besitzen inzwischen eine Auflösung von etwa 2400 x 2400 bis 3200 x 6400 dpi. Diese Auflösung kann durch Interpolation zwischen den einzelnen Bildpunkten durch geeignete Algorithmen noch erhöht werden. Selbst bei einer Auflösung von nur 600 dpi ergibt ein Farbscan einer DIN A 4 Seite im TrueColor-Modus eine Datei von ca. 100 MB (21cm * 29,7 cm -> bei 600 dpi 4960 * 6968 Punkte -> bei Farbcodierung mit 3 Byte), was den erheblichen Speicheraufwand verdeutlichen soll. Die im graphischen Gewerbe eingesetzten Trommelscanner erreichen eine höhere optische Auflösung. Hierdurch werden vor allem Farbvorlagen für den professionellen Farbdruck eingescannt, der eine hohe Auflösung erfordert, um eine feine, scharfe, hochauflösende Farbwiedergabe zu ermöglichen, wie sie z.B. in der Kartenproduktion notwendig ist. Die Abbildung 4.8 stellt das Arbeitsprinzip eines Scanners am Beispiel eines Flachbettscanners dar. Bei einem Flachbettscanner wird ein mit einer Lichtquelle und mit Sensoren bestückter Schlitten unter der festliegenden Vorlage vorbeigeführt. Über Umlenkspiegel trifft das reflektierte Licht auf mehrere in einer Zeile nebeneinander angeordnete Photozellen (CCD-Element, Charge Coupled Device), die die Helligkeit der Lichtsignale in Spannungswerte umsetzen. Anschließend setzt ein Analog-Digital-Wandler diese Werte in Bitfolgen um. Bei einer Auflösung von 600 dpi und bei einer Breite einer DIN A 4 Seite werden somit knapp 5000 Photozellen benötigt. Zur Erfassung von Farben muss für jeden Bildpunkt der Rot-, Grün- und Blauanteil des reflektierten Lichts gemessen werden. Allerdings muss hierzu nicht die gesamte Vorlage nacheinander für jede Farbe abgetas-
130
Komponenten von Computersystemen
tet werden (sog. 3-Pass-Verfahren), statt dessen arbeiten die heutigen Scanner nach dem sog. 1-Pass-Verfahren mit Zeilensensoren, die aus drei parallelen Scanzeilen bestehen. Dabei ist zumeist je eine Zeile mit einem Rot-, einem Grün- und einem Blaufilter bestückt. Anstelle der Filter kann auch vor den Zeilen ein Prisma angeordnet sein, das die reflektierten Strahlen der weißen Lichtquelle zerlegt, so dass die Rot-, Grün- und Blauanteile die entsprechende Sensorreihe treffen.
CCD-Scanner Vorlage
Lichtquelle
LED-Lichtquelle Linse Contact Image Sensor (CIS)
beweglich Lichtstrahl beweglich
Umlenkspiegel
Vorlage Lichtstrahl
Belichtungseinheit
beweglich
CIS-Scanner
Linse
beweglich
CCD-Element
Abb. 4.8: Arbeitsprinzip eines CCD-Scanners und eines CIS-Scanners
Demgegenüber reduziert die sog. CIS-Technologie die Zahl der optischen Elemente. Sie erlaubt den Bau flacherer und leichterer Scanner und macht dadurch die Herstellung preiswerter. Hierbei werden (anstelle des Spiegels und der Linsen) unmittelbar unter dem Dokument auf einem Schlitten Sensoren geführt (Contact Image Sensors), die nebeneinander zu einer Zeile angeordnet sind. Die Vorlage wird durch dicht gepackte Reihen von roten, blauen und grünen LEDs beleuchtet, die zusammen weißes Licht erzeugen (LED, Light Emitting Diode). Bei einem Einzugsscanner wird die Vorlage an den Photozellen vorbeigeführt. Ein Trommelscanner, bei dem die Vorlage auf einer sich schnell drehenden Trommel aufgelegt ist, vor der sich die Abtasteinheit bewegt, kann insbesondere große Formate (bis DIN A 0) in hoher Auflösung scannen. Neuerdings gibt es sog. Fotoscanner, die ähnlich zu Reprokameras eine Vorlage von oben aufnehmen. Scannersysteme erfassen die gesamte Information einer Vorlage als Bitmuster, ohne dass zusammenhängende Bitmuster z.B. als Textzeichen oder Linien erkannt werden. Im Anschluss an einen Scanvorgang von Texten setzt zumeist die optische Zeichenerkennung (OCR, optical character recognition) ein. Neben Programmsystemen, die Einzelzeichen einer mit einem Scanner erfassten Textvorlage erkennen (sog. Texterkennung) und sie hierdurch einem Textverarbeitungsprogramm zugänglich machen, sind Programme zum Erkennen von Strichcodes (z.B. bei Scannerkassen) weit verbreitet.
Ausgabegeräte
4.8
131
Ausgabegeräte
Vor dem Hintergrund der großen Vielfalt an Ausgabegeräten, von Monitoren über Drucker bis hin zur Tonwiedergabe oder Steuerung von Maschinen, erfolgt hier eine Konzentration auf graphische Ausgabegeräte, die in der Geoinformatik von besonderer Relevanz sind. Dabei spielt vor allem die Farbe eine zentrale Rolle (zu Grundprinzipien der Farbdarstellung vgl. Kap. 2.7). 4.8.1
Monitore
Während anfänglich in Computersystemen alphanumerische Bildschirme dominierten, bei denen graphische Ausdrucksformen mit Hilfe des ASCII-Zeichensatzes realisiert wurden, sind inzwischen nur noch graphikfähige Farbmonitore im Einsatz. Inzwischen hat sich die Mensch-Maschine-Schnittstelle von reinen TextBildschirmen immer stärker zu graphischen Benutzeroberflächen in Farbe gewandelt. Ferner haben die graphikorientierten oder graphikverarbeitenden Anwenderprogramme immer mehr an Bedeutung zugenommen. Hauptbestandteil eines Monitors ist eine Kathodenstrahlröhre. Eine Kathode sendet in einem luftleeren Glaskolben Elektronen aus, die durch eine mit etlichen Kilovolt Hochspannung positiv geladene Anode angezogen, beschleunigt und zu einem scharfen Strahl gebündelt werden, der dann auf die Innenfläche der Monitorscheibe trifft. Diese Fläche des Kolbens ist mit einer fluoreszierenden Schicht aus zahlreichen Leuchtpunkten bedeckt (sog. Phosphore, die aber nichts mit dem chemischen Element zu tun haben). Der Strahl wird durch ein Ablenksystem entsprechend der darzustellenden Zeichen geführt, so dass der gebündelte Strahl die gewünschte Stelle der Monitorscheibe erreicht. Sobald dieser Strahl auf einen Punkt der Phosphorbeschichtung trifft, leuchtet der getroffene Punkt auf (vgl. Abb. 4.9). Durch die Glasscheibe des Kolbens wird von außen das Zeichen sichtbar. Ein Punkt muss dabei mindestens 25mal pro Sekunde angestrahlt werden, so dass er für das menschliche Auge „kontinuierlich“ leuchtet. Bei alphanumerischen Monitoren wird die Darstellungsfläche zeilen- und spaltenweise in gleich große Felder aufgeteilt, in die jeweils ein alpha-numerisches Zeichen geschrieben werden kann (d.h. Zahl, Buchstabe oder Sonderzeichen). Demgegenüber kann bei einem graphischen Monitor jeder einzelne Bildpunkt der Monitorfläche angesteuert werden. Hierdurch können beliebige Zeichen, d.h. auch Linien oder Bilder, an beliebigen Stellen dargestellt werden. Bei den Farbmonitoren ist die Innenseite des Glaskolbens mit Dreiergruppen von roten, grünen und blauen Phosphorpunkten beschichtet. Für die drei Grundfarben Rot, Grün und Blau werden drei Elektronenstrahlen erzeugt, je einer für die roten, grünen und blauen Phosphorpunkte. Das Auge kann die sehr dicht beieinander liegenden Phosphorpunkte nicht auseinanderhalten. Die Farbreize mischen sich. Durch individuelle Ansteuerung der einzelnen Farbpunkte kann praktisch jeder Farbton erzeugt werden. Durch additive Farbmischung, Monitore gehören zu den Selbstleuchtern, erscheint beim Betrachter ein Farbton (vgl. Kap. 2.7).
132
Komponenten von Computersystemen
Strahlenquelle Fokussierung Bildschirm Elektronenstrahlen Magnetische Ablenkung Lochmaske
ein Elektronenstrahl je Grundfarbe Rot Grün Blau
Lochmaske Schirm
Schirm mit Leuchtphosphoren
Abb. 4.9: Aufbau einer Kathodenstrahlröhre
In Computersystemen kommen hauptsächlich Rasterbildschirme mit einer sog. Bildwiederholungsröhre zum Einsatz, wodurch die technische Aufgabe der Bilderhaltung gelöst wird. So wird bei Rasterbildschirmen das Bild aus einer Matrix von in Zeilen und Spalten angeordneten Bildpunkten (Pixeln) aufgebaut. Um eine optimale Schärfe zu erreichen - der Kathodenstrahl soll jeweils nur auf den ihm zugeordneten Phosphorpunkt treffen und benachbarte Punkte abdecken - liegt (als Blende) vor der Innenseite des Monitors eine Lochmaske (auch Schlitz- oder Streifenmaske). Die Auflösung eines Monitors hängt von dem Punktabstand dieser Löcher ab, der bei etwa 0,26 bis 0,28 mm liegt. Bei einer bestimmten Größe des Monitors, die zumeist durch die Länge der Diagonalen in Zoll (1 Zoll = 2,54 cm) definiert wird, kann die maximale Auflösung errechnet werden (20-Zoll Monitor mit einer sichtbaren Bildschirmbreite von 400 mm und einer Bildschirmhöhe von 300 mm und geschickter Anordnung der Punkte: ca. 1600 * 1280 Pixel). Nach Bauarten unterscheidet man Monitore mit Loch-, Streifen- oder Schlitzmaske. Streifen- und Schlitzmasken weisen aufgrund höherer Lichtdurchlässigkeit und größerer Phosphorflächen einen besseren Kontrast auf, wobei allerdings das Bild nicht unbedingt schärfer wird. Lochmasken erreichen dagegen bei gleichem Punktabstand eine höhere physikalische Auflösung. Ferner wird zwischen Monitoren mit gewölbter oder annähernd flacher Oberfläche unterschieden, wobei letztere ein kontrastreicheres und schärferes Bild erreichen. Bei einer Bildwiederholungsröhre wird das Bild ständig neu aufgebaut, wozu das gesamte Bild aus einem Bildwiederholspeicher ausgelesen wird. Dabei sind zwei Varianten möglich: Im Non-Interlaced-Modus werden jeweils vollständige Bilder geschrieben, im Interlaced-Modus (mit Zeilensprung) wird bei einem Bildaufbau nur jede zweite Zeile geschrieben. Die Bildwiederholfrequenz (gemessen in Hertz (Hz), Schwingungen bzw. Bilder pro Sekunde) bezeichnet dabei die Häu-
Ausgabegeräte
133
figkeit, mit der ein Bild zum Monitor gesendet bzw. am Monitor neu aufgebaut wird. Sie steuert dabei entscheidend das Flimmern des Monitors. So ist erst ab 75 Hz Bildwiederholfrequenz von ca. 90% der Menschen kein Flimmern mehr wahrzunehmen (im Non-Interlaced-Modus). Eine geringere Bildwiederholungsrate ermüdet die Augen und kann auch zu gesundheitlichen Schäden führen. Das wichtigste Qualitätsmerkmal eines Monitors ist neben der möglichen Auflösung (Spaltenzahl x Zeilenzahl) und der möglichen Bildwiederholfrequenz (sog. Vertikalfrequenz) die Zeilenfrequenz (sog. Horizontalfrequenz), wobei diese drei Faktoren voneinander abhängen. Die Zeilenfrequenz gibt dabei an, wie häufig der Elektronenstrahl der Bildröhre pro Sekunde zeilenweise über die BildschirmInnenfläche wandern kann (gemessen in kHz, d.h. in 1000 Hz). Um z.B. 864 Zeilen bei einer Bildwiederholfrequenz von 75 Hz (allgemein anerkannter Mindestwert) darzustellen, muss der Elektronenstrahl 864 x 75 = 64.800 mal pro Sekunde von Zeile zu Zeile wandern. Die hierzu benötigte Zeilenfrequenz beträgt also ca. 65 kHz. Allerdings wird noch etwas mehr Zeit benötigt, um z.B. das Bildende zu erkennen und um vom unteren wieder zum oberen Bildrand zu kommen. Als Faustregel sind auf die gewünschte Zeilenzahl 5% zu addieren. Insgesamt muss der Monitor auch eine hohe Zeilenfrequenz besitzen, um eine hohe Auflösung und eine hohe Bildwiederholfrequenz zu erreichen, die gerade für Graphikanwendungen in der Geoinformatik notwendig sind. Monitore auf der Basis von Kathodenstrahlröhren stellen eine ausgereifte Technologie dar (vgl. Massenmarkt an Fernsehgeräten). Allerdings bestehen (bauartbedingt) auch Nachteile. So sind eine große Bautiefe und daher Gewicht und Unhandlichkeit, ein hoher Stromverbrauch, Probleme der Abbildungsgeometrien z.B. in den Ecken sowie elektromagnetische Emissionen zu nennen. 4.8.2
Displays
Flachbildschirme, die zumeist mit einer Flüssigkristallanzeige (Liquid Crystal Display, LCD) arbeiten, stellen eine Alternative zu den klassischen Monitoren dar und sind inzwischen zum Standard geworden. Sie besitzen vor allem nicht die Nachteile der Kathodenröhre wie insbesondere Größe und Unhandlichkeit, geometrische Verzerrungen oder Konvergenzfehler sowie elektromagnetische Emissionen. Sie sind energiesparend, weisen eine geringe Wärmeabgabe und hohe Leuchtdichte auf und ermöglichen scharfe, kontrastreiche Bilder. Allerdings bestehen auch negative Merkmale wie die eingeschränkte Bildqualität bei Abweichung von der bauartbedingten Standardauflösung. Je nachdem, von wo aus man auf das Display schaut, ändern sich (geringfügig) Farbe und Kontrast des Bildes (Blickwinkelabhängigkeit). Ferner sind Flüssigkristallmoleküle, aus denen LCDisplays aufgebaut sind, relativ träge, so dass z.B. bei schnell bewegten Bildern in Animationen oder Videosequenzen Verschmierungen auftreten können.
134
Komponenten von Computersystemen
Blickrichtung Betrachter Polarisationsfilter Glassubstrat Farbfilter Elektrode
Flüssigkristalle
Thin-Film-Transistor Glassubstrat Polarisationsfilter
Hintergrundlicht
Abb. 4.10: Prinzipieller Aufbau eines Flüssigkristalldisplays
Hier soll der prinzipielle Aufbau eines TFT-Displays (Thin-Film-TransistorDisplays) erläutert werden, der derzeit bei Flachbildschirmen bestimmend ist: Zwei Polarisationsfilter schließen zwischen Glasflächen eine Flüssigkristallschicht wie ein Sandwich ein, hinter dem eine Leuchtstofflampe für das notwendige (weiße) Licht sorgt (vgl. Abb. 4.10). Diese beiden äußeren Polarisatoren lassen jeweils nur eine Polarisationsrichtung (d.h. Schwingungsebene) des Hintergrundlichtes durchgehen. Hier sind die beiden Polarisatoren derart angeordnet, dass die Lichtdurchlassrichtungen rechtwinklig zueinander liegen. Die Flüssigkristallschicht besteht aus einzelnen Molekülen, die ohne ein angelegtes elektrisches Feld eine um 90° gedrehte Helix bilden (daher Twisted Nematic LCD oder TN-LCD). Vom Hintergrundlicht passiert Licht den ersten Polarisationsfilter nur in einer Schwingungsrichtung. Das jetzt polarisierte Licht wird durch die Flüssigkristalle um 90° gedreht und kann schließlich den oberen Polarisationsfilter ungehindert durchdringen. Das Display erscheint (bei eingeschalteter Hintergrundbeleuchtung) im Grundzustand hell. Die Transistoren, die bei einem TFT-Display in einem dünnen Film eingebettet sind und über Elektroden aus hochtransparentem Material angesteuert werden, können ein elektrisches Feld erzeugen, wodurch sich die Ausrichtung der Flüssigkristalle verändert. Das polarisierte Hintergrundlicht wird nicht mehr um 90° gedreht und kann somit den zweiten Polarisationsfilter nicht passieren, der Punkt erscheint dunkel. Die Flüssigkristalle leuchten also nicht selbst. Sie arbeiten vielmehr als „Lichtventile“, die das Licht aus der rückwärtigen Lichtquelle abschirmen oder durchlassen. Dabei ist die Flüssigkristallschicht nicht wirklich „flüssig", die einzelnen Moleküle richten sich vielmehr in einem elektrischen Feld anders aus als ohne, sie sind also beweglich, d.h. „flüssig". Bauartbedingt können Flüssigkristallbildschirme im Grundzustand lichtundurchlässig sein, so dass sich das hier beschriebene Funktionsprinzip umkehrt. Zur Steigerung des Kontrastes und der Helligkeit sind moderne Displays komplexer aufgebaut, bei den aktuellen DSTN- (Double Super Twisted Nematic) oder TSTNDisplays (Triple STN) sind die Moleküle der Flüssigkristallschicht bis zu 260° verdreht.
Ausgabegeräte
135
Bei einem Farbdisplay wird ein Bildpunkt aus drei Subpixeln in den Grundfarben Rot, Grün und Blau aufgebaut, die jeweils über einen Transistor angesteuert werden. Dabei wirken drei innere Folien als Filter, die vom weißen Hintergrundlicht nur die Wellenlängen von rotem, grünem und blauen Licht durchlassen und somit die Monitorfarben (RGB) erzeugen. Bei einer Auflösung von 1024 x 768 Bildpunkten ergeben sich insgesamt 2.359.296 (1024 x 3 x 768) Subpixel bzw. Transistoren. Diese hohe Zahl bedingt den technischen Aufwand und die (noch) hohen Kosten. Die Anzahl an Bildpunkten entspricht der maximal möglichen Auflösung, die bauartbedingt das jeweilige Display darstellen kann. Das Umschalten auf eine niedrigere Auflösung, wie es z.B. bei Spielen häufig notwendig ist, erfordert bei einem TFT-Display eine aufwändige, nicht stets zufrieden stellende Skalierungstechnik oder führt zu einer Verkleinerung der Anzeige mit einem unschönen schwarzen Rand. 4.8.3
Drucker
Zu Anfang der Computerentwicklung erfolgte durch technische Weiterentwicklung des Prinzips einer Schreibmaschine die Ausgabe auf Papier durch Drucker, bei denen ein Zeichen durch den mechanischen Anschlag eines Typenträgers (z.B. ein Typenrad oder eine Typenkette mit geschlossenen Drucktypen) oder von Drucknadeln gegen Farbband und Papier gedruckt wird. Bei den Nadeldruckern sind auf dem Druckkopf matrixförmig Nadeln angeordnet, aus denen die Zeichen aufgebaut werden. Diese Drucker mit Anschlag (sog. Impact-Drucker) sind inzwischen veraltet. Die derzeit gebräuchlichsten Druckprinzipien in Computersystemen sind in Tintenstrahldruckern und Laserdruckern verwirklicht (Drucker ohne Anschlag, Non-Impact-Drucker). Die einzelnen Zeichen werden aus einem Raster von Punkten aufgebaut, die sehr klein und dicht aufeinander folgen können und somit die Auflösung und Schärfe der Textausgabe oder der graphischen Darstellung bestimmen. Bei einer geringen Auflösung und einem groben Druckraster können somit unerwünschte Effekte wie die Wiedergabe von schrägen Kanten durch treppenartige Linien auftreten. Zur Kantenglättung und zur Vermeidung derartiger Effekte werden von den qualitativ hochwertigeren Druckern feinere Druckpunkte zwischen die Bildpunkte einer (gröberen) Vorlage eingefügt, wobei dies zumeist nur für Textkonturen vorgesehen ist. Während dieser Vorgang bei Laserdruckern oft intern durchgeführt wird, erfolgt er bei Tintendruckern durch den Druckertreiber während der Rasterbildberechnung. Farbdrucker, die keine selbstleuchtenden Farben produzieren, basieren auf der subtraktiven Farbmischung der Farben Cyan, Magenta und Gelb (bzw. zusätzlich noch Schwarz). Dabei werden jeweils rasterartig nebeneinander winzige Farbpunkte erzeugt. Aus der Mischung von Papierweiß und mehreren benachbarten Farbpunkten, die das Auge nicht mehr unterscheiden kann, entsteht der gewünschte Farbton als visueller Eindruck beim Betrachter (vgl. Kap. 2.7.2). Um für die Ausgabe von Text einen satten Schwarzdruck zu erreichen, verfügen diese Dru-
136
Komponenten von Computersystemen
cker zumeist noch über eine Patrone mit schwarzer Druckfarbe. Beim Farbdruck verringert sich die Auflösung, d.h. die Auflösung der wahrgenommenen Farbe. Für 256 Stufen einer (Grund-)Farbe benötigt man eine Matrix von 16 x 16 Elementen. Für jedes „Bildpixel" werden also 256 „Druckerpunkte" verbraucht. Die sichtbare Auflösung sinkt um den Faktor 16, d.h. z.B. von 720 dpi auf 45 dpi. Um eine hochpräzise Farbwiedergabe im professionellen Druckgewerbe zu erreichen, wird daher mit Ausgabegeräten (sog. Satzbelichtern, d.h. Ausgabe auf einen Film) gearbeitet, die für jeden Farbauszug getrennt eine Auflösung von bis zu 4800 dpi erzielen. Gegenüber diesem Grundprinzip gibt es auch technische Variationen mit mehr als vier Druckfarben. Als eine jüngere technische Variante ist die sog. Mikrotropfen-Farbmischung zu nennen, bei der bis zu 16 kleinste Tintentropfen auf einem einzigen Punkt übereinander platziert und gemischt werden, so dass beinahe jede Farbnuance entsteht. keine Spannung
+
Heizelement
Düse
Heizelement
Düse
Tinte Spannung
+ Tinte -
Dampfblase
Abb. 4.11: Arbeitsprinzip eines Tintenstrahldruckers (Bubble-Jet-Verfahren)
Bei Tintenstrahldruckern wird ein Druckkopf zeilenweise vor dem Papier hergeführt, wobei der Druck in beiden Richtungen (bidirektional) erfolgen kann. Aus einzelnen Düsen werden winzige Tintentröpfchen auf das Papier gesprüht (pro Farbe ca. 80 Düsen). Beim sog. Bubble-Jet-Verfahren wird mit Hilfe von Heizelementen in einer Druckkammer Tinte verdampft, so dass sich explosionsartig Tintendampfbläschen bilden (vgl. Abb. 4.11). Durch den entstehenden Überdruck (Ausdehnung der Dampfblase) wird Tinte aus der Düsenöffnung ausgestoßen. Nach der sehr schnellen Abkühlung verringert sich das Volumen, so dass Tinte nachfließt. Beim sog. Piezo-Verfahren entsteht der Überdruck durch Verengung von sog. Piezokeramik-Elementen, die sich bei Anlegen einer geringen Spannung verformen, so dass Tinte aus einer Düse verdrängt wird (vgl. Abb. 4.12). Bei der anschließenden Ausdehnung in den Ausgangszustand wird neue Tinte angesaugt. Piezokeramik-Elemente ermöglichen eine sehr viel höhere Ausstoßfrequenz und somit eine wesentlich höhere Geschwindigkeit. Gegenüber dem preiswerteren Bubble-Jet-Verfahren erzeugen Drucker nach dem Piezo-Verfahren etwas exaktere Punkte und erzielen insgesamt höhere Leistungen, die Druckköpfe besitzen eine längere Lebensdauer.
Ausgabegeräte
137
keine Spannung
+
Piezoelement
Düse
Piezoelement
Düse
Tinte Tinte Spannung
+ Tinte -
Abb. 4.12: Arbeitsprinzip eines Tintenstrahldruckers mit Piezoelement
Tintendrucker funktionieren somit ähnlich wie Nadeldrucker. Sie setzen Schriftzüge oder Linien aus sehr vielen kleinen Pünktchen zusammen und benutzen ebenfalls einen hin- und herfahrenden Druckkopf. Moderne Tintenstrahldrucker können eine hohe Druckqualität erreichen. Das Bubble-Jet-Verfahren erzielt eine Auflösung bis etwa 4800 x 1200 dpi, das Piezo-Verfahren bis etwa 5760 x 1440 dpi. Für die Druckqualität ist aber insbesondere das Papier entscheidend. Spezialpapiere besitzen eine sehr glatte Oberfläche und sind speziell beschichtet, so dass die Farben besser haften. Demgegenüber kann bei Normalpapier die Tinte in das Papier eindringen, zerfließen oder sich mit benachbarten Farben mischen. negative Aufladung der Trommel schnell rotierender Drehspiegel
Papierkassette
Reinigungsrolle entfernt Tonerrest Toner
Belichtungstrommel
180°C
Übertragung des Toners von der negativ geladenen Trommel auf das durch den Entlader positive Papier
Tonerfixierung durch Wärme
Papierablage
Abb. 4.13: Arbeitsprinzip eines Laserdruckers
Das Funktionsprinzip eines Laserdruckers verdeutlicht die Abbildung 4.13. Den Grundbaustein bildet eine Belichtungstrommel, die negativ aufgeladen und durch einen Laserstrahl gezielt wieder entladen wird. Dabei werden genau die Stellen (d.h. Bildpunkte) entladen, die später auf dem Papier schwarz erscheinen sollen. Bei einem achteckigen Drehspiegel streicht der Laserstrahl achtmal pro Umdrehung über die Trommel und beschreibt somit acht feine Zeilen mit jeweils
138
Komponenten von Computersystemen
der Höhe eines Bildpunktes. Der negativ geladene Toner, d.h. das negativ geladene feine schwarze Pulver, haftet nur an den entladenen Stellen der Trommel und wird von den sonst gleich geladenen Stellen abgestoßen. Nach der Belichtung trägt somit die Trommel ein Tonerabbild der später auszugebenden Seite. Von der Trommel wird der Toner schließlich auf das Papier übertragen. Dabei berührt das Papier nicht die Belichtungstrommel, vielmehr wird das Papier positiv geladen bzw. unter dem Papier ein Potentialfeld aufgebaut, so dass die Tonerpartikel auf das Papier „gesaugt“ werden. Durch Druck und Wärme wird letztlich der Toner auf dem Papier fixiert. Laserdrucker dominieren in der Schwarz-Weiß-Drucktechnik, sie erreichen eine hohe Auflösung (2400 x 600 dpi) bei einer recht hohen Druckgeschwindigkeit, die für Bürodrucker bis zu 24 Seiten pro Minute, bei Hochleistungsdruckern mehr als 50 Seiten pro Minute beträgt. Laserkanone Umlenkspiegel
Fotoleiter
blau
Zwischenträger
rot
Toner gelb
nach Übertragen von vier Farbauszügen
schwarz Papier
Abb. 4.14: Arbeitsprinzip eines Farblaserdruckers
Ein Farblaserdrucker funktioniert prinzipiell ähnlich zu dem skizzierten Druckprinzip eines Schwarz-Weiß-Laserdruckers, jedoch sind für die subtraktive Farbmischung vier Belichtungsvorgänge (für die Farben Cyan, Magenta, Gelb, Schwarz) und ein dem eigentlichen Druck vorgeschalteter Zwischenträger notwendig (vgl. Abb. 4.14). Ein Laserstrahl beschreibt über einen Drehspiegel zeilenweise einen aufgeladenen Fotoleiter (sog. Organic Photo Conductor), der als Trommel oder auch als Fotoleiterfolie technisch realisiert wird. Die Oberfläche besitzt am Anfang eine gleichmäßig verteilte elektrostatische Ladung, die vom Laserstrahl punktuell entladen wird. Anschließend wird der entsprechende, unterschiedlich geladene, farbliche Toner auf den Fotoleiter übertragen, der sich dort an den entladenen (d.h. „belichteten“) Stellen festsetzt. Der Fotoleiter trägt nach einem Durchgang einen vollständigen Farbauszug (z.B. die dem traditionellen Druckverfahren vergleichbare Gelbplatte). Bis zu diesem Schritt sind die Prinzipien beim Schwarz-Weiß- und Farbdruck identisch. Während sich beim Schwarz-Weiß-Druck jetzt die Ausgabe auf Papier fortsetzt, erfolgt beim Farbdruck erst eine Übertragung auf einen Zwischenträger. Dieser besitzt wiederum einen Ladungsunterschied zum Toner auf dem Fotoleiter,
Ausgabegeräte
139
so dass er diesen anzieht. Diese Verarbeitungsschritte wiederholen sich für die vier Farben. Die „Belichtung“ erfolgt also für jede Farbe separat. Der Zwischenträger nimmt nacheinander die Toner sämtlicher Farben auf. Erst zum Schluss erfolgt vom Zwischenträger eine Übertragung auf das Papier und letztlich eine Fixierung. Hierzu wird das Papier zwischen dem Zwischenträger und einem Übertragungslader durchgeführt, der den Toner auf das Papier „zieht“. Anschließend wird das Papier zwischen einer Heiz- und Andruckrolle gepresst. Dabei vergrößern sich die Tonerpunkte, sie laufen praktisch auseinander. Hierdurch wird ein fließender Übergang erreicht, aber letztlich auch die Auflösung verringert. Nach ähnlichen Grundprinzipien wie ein Laserdrucker arbeiten photoelektrische Drucker wie LCS-Drucker (Liquid-Crystal-Shutter-Drucker), die auch LCDDrucker genannt werden, und LED-Drucker (Light-Emitting-Diode-Drucker). Der LCS-Drucker benutzt keinen beweglichen Laserstrahl, sondern eine der Breite einer Ausgabeseite entsprechende Leiste mit 2400 LCD-Elementen, vor der sich die Belichtungstrommel dreht. Die LCD-Elemente können einzeln angesteuert werden. Sie halten Licht einer starken Lampe zurück oder lassen es mehr oder weniger durch, so dass entsprechend Ladungen auf der Bildtrommel verändert werden. Bei LED-Druckern rotiert die Belichtungstrommel an einer Leiste von 2400 LEDs vorbei. Die Leuchtdioden, die ebenfalls einzeln angesteuert werden können, verändern entsprechend der auszugebenden Information den Ladungszustand der Punkte auf der Trommel. Neben diesen Verfahren bestehen noch Thermotransferdrucker, bei denen durch Aufschmelzen einer wachsartigen Tinte auf Spezialpapier gedruckt wird. Hierbei wird an einem Druckkopf mit einer Reihe von Heizelementen ein Wachstuch mit den Farben Cyan, Magenta, Gelb und Schwarz vorbeigeführt. Das Wachs haftet auf dem Papier und ermöglicht durch Mischen eine Vielzahl prächtiger Farben. Ähnlich arbeiten sog. Sublimationsdrucker, bei denen allerdings Wachs verdampft und in das Spezialpapier eindringt. Die Temperatur steuert dabei exakt die benötigte Farbmenge. Durch dieses relativ langsame und auch teure Verfahren sind Farbausdrucke in höchster Qualität mit brillanten Farben möglich. Somit eignen sich Sublimationsdrucker vor allem dann, wenn wenige Drucke in hoher Qualität benötigt werden. Diese Varianten haben sich aber gegen die Tintenstrahldrucker kommerziell nicht durchsetzen können, die preiswertere Ergebnisse bei inzwischen sehr hoher Qualität liefern. Eine weitere Differenzierung der Drucker ergibt sich nach der Art der Druckausgabe. Bei Zeilendruckern wie Nadel- und Tintenstrahldruckern wird zeilenweise gedruckt, wobei ein Druckkopf hin- und herbewegt wird. Seitendrucker, zu denen u.a. Laserdrucker gehören, besitzen einen internen Speicher, der zunächst die Daten für die Darstellung einer Seite aufnimmt. Danach wird jeweils eine ganze, vollständig aufbereitete Seite gedruckt. Die einzelnen Hersteller von Druckern haben unterschiedliche Programmiersprachen zur Ansteuerung von Druckern entwickelt. Industriestandards sind HPGL, Hewlett Packard Graphics Language zur Steuerung vor allem von Plottern, aber auch von Druckern sowie HPPCL (Hewlett Packard Printer Control Language), die eine Seitenbeschreibungssprache für Laserdrucker darstellt. Als herstellerunabhängige bzw. geräteunabhängige Druckersprache wurde (von der
140
Komponenten von Computersystemen
US-amerikanischen Firma Adobe) PostScript entwickelt. Hierdurch wird eine Seite unabhängig von der Auflösung des Endgerätes durch Koordinaten und Anweisungen beschrieben (sog. Seitenbeschreibungssprache). Bei der Ausgabe auf einem Drucker werden die Beschreibungen für das jeweilige Ausgabegerät umgerechnet, wozu allerdings nur Seitendrucker in der Lage sind, die speziell für PostScript ausgelegt sind. Jedoch kann mit Hilfe geeigneter Software, wie z.B. durch sog. PostScript-Emulatoren, eine PostScript-Datei auch auf einem beliebigen Drucker ausgegeben werden. PostScript wird aufgrund der Geräteunabhängigkeit und der damit verbundenen leichten Austauschmöglichkeit der Druckdateien sowie der Qualität der Ausgabe vor allem im professionellen Druckbereich und im graphischen Gewerbe benutzt. 4.8.4
Plotter
Zur Ausgabe großformatiger Graphiken wie z.B. Bauzeichnungen oder Karten werden sog. Plotter verwandt, die grob nach Vektor- und Rasterplottern unterschieden werden können. Vektorplotter, bei denen Zeichenstifte über das Papier bewegt werden, so dass Linien als durchgezogene Striche und nicht aufgelöst in mehrere Rasterpunkte erscheinen, werden weiter in Flachbett- und Trommelplotter differenziert. Bei der ersten Bauart liegt der Zeichnungsträger fest auf einer Unterlage, Schrittmotoren steuern einen Schlitten (in Y-Richtung), auf dem Zeichenstifte (in X-Richtung) geführt werden. Durch gleichzeitiges Bewegen von Schlitten und gesenktem Stift werden Linienzeichnungen erstellt. Da der Zeichnungsträger selbst nicht bewegt wird, kann eine hohe Präzision erreicht werden, ferner können dickere Materialien oder anstelle von verschieden farbigen oder breiten Zeichenstiften auch Schneidwerkzeuge (z.B. für Foliengravuren) eingesetzt werden. Die Verarbeitungsgeschwindigkeit ist aber aufgrund der langen Wege gering.
Schlitten mit Stift y-Richtung
Laufschiene x-Richtung
Abb. 4.15: Arbeitsprinzip eines Vektorplotters (Flachbettplotters)
Systembetrieb
141
Großformatige Flachbettplotter wurden insbesondere in der professionellen Kartographie (z.B. Landesvermessung) benutzt. Bei Trommelplottern, die schneller sind und weniger Standfläche einnehmen als Flachbettplotter, wird das Papier über eine rotierende Trommel und der Zeichenstift auf einem Schlitten senkrecht zur Bewegungsrichtung des Papiers geführt. Die Treppenstruktur einer gezeichneten Kurve ist bei Vektorplottern nicht sichtbar, falls die Schrittweite kleiner als etwa 1/10 der Strichbreite ist. Somit ist hiermit eine große Präzision der graphische Ausgabe zu erreichen. Jedoch verschwindet dieser Vorteil gegenüber modernen, hochauflösenden und vor allem schnellen Rasterplottern. Rasterplotter, die die langsameren Vektorplotter inzwischen fast vollständig verdrängt haben, arbeiten ähnlich wie Rasterdrucker, jedoch mit einem größeren Ausgabeformat. Das zu zeichnende Bild oder die zu erstellende Strichzeichnung wird (nach dem Rasterprinzip) in einzelne Punkte aufgelöst. Entsprechend gibt es Thermotransfer-, Laser- und Tintenstrahlplotter sowie inzwischen zurückgehend sog. Monochrom- und Farbelektrostaten. Bei den letzteren wird entsprechend der auszugebenden Graphik der speziell beschichtete Zeichenträger elektrostatisch aufgeladen. Beim Durchziehen durch eine Tonerflüssigkeit werden die darin enthaltenen, gegengleich geladenen Tonerpartikel aufgenommen. Dieses Prinzip, das bereits früh entwickelt wurde, um eine Verbesserung gegenüber den langsamen Vektorplottern zu schaffen, ist inzwischen veraltet. Die meisten modernen Plotter, die gerade für Aufgaben in der Geoinformatik Anwendung finden, arbeiten nach dem Prinzip von Tintenstrahldruckern.
4.9 4.9.1
Systembetrieb Systemsoftware und systemnahe Software
Der Betrieb eines Computersystems wird erst durch die Software möglich, die sich in System- und Anwendungssoftware gliedert (vgl. Kap. 3.2.1). Zentraler Bestandteil der Systemsoftware ist das Betriebssystem, das je nach Leistung verschiedene Betriebsarten und Nutzungsformen des Computersystems ermöglicht und das vor allem die Ausführung der Anwenderprogramme regelt. Zur Systemsoftware werden weiterhin die systemnahe Software und die Übersetzungsprogramme der Programmiersprachen gezählt, die eine Übersetzung der zumeist in einer höheren Programmiersprache verfassten Programme in die vom Computersystem auszuführende Maschinensprache leisten (vgl. Kap. 3.2.1). Die systemnahe Software kennzeichnet den nicht eindeutig abzugrenzenden Bereich zwischen Betriebssystem und Anwenderprogrammen und umfasst die Programme, die Verwaltungs-, Entwicklungs- und Überwachungsaufgaben erledigen. Hierzu können z.B. Programme zur Unterstützung der Softwareentwicklung, Programme zur (statistischen) Erfassung der Rechnerauslastung im Hinblick auf eine Optimierung der Ressourcen, Programme zur Überwachung und ggf. zum Entfernen von sog. Computerviren gezählt werden. Strittig ist, ob sog. Browser (vgl. Kap. 4.10.3) zum Betriebssystem oder zur systemnahen Software zählen. Die Übersetzungs-
142
Komponenten von Computersystemen
programme können zu den Betriebssystemen gezählt werden, da sie in ihrer Leistung vom Betriebssystem abhängig sind, oder auch den Software-Entwicklungswerkzeugen (und somit zur systemnahen Software) zugeordnet werden. 4.9.2
Betriebsarten
Der Betrieb eines Computersystems kann im Wesentlichen unabhängig von seiner Größe unter verschiedenen Nutzungsformen erfolgen. Hierbei können mehrere Betriebsarten unterschieden werden, die aber nicht von sämtlichen Betriebssystemen gleichermaßen ermöglicht werden (vgl. auch Tab. 4.4): Auf Workstations und Personal Computern werden gegenüber dem SingleTasking-Betrieb im Multi-Tasking-Betrieb mehrere Programme „gleichzeitig“ ausgeführt, wozu die auszuführenden Programme in kleine Teile, sog. Tasks, zerlegt werden, die dann vom Betriebssystem zeitlich verzahnt abgearbeitet werden. Durch die Aufteilung der Rechenzeit auf mehrere Tasks wird dem Benutzer der Eindruck vermittelt, dass sie gleichzeitig ablaufen. Der Single-Tasking-Betrieb führt die Tasks bzw. Programme geschlossen nacheinander aus. Bei Betriebssystemen für Personal Computer bestehen zwei Sonderformen des Multi-Tasking: Beim kooperativen Multitasking werden die Unterbrechungen, die den Prozessor an andere Tasks anderer Anwenderprogramme zuweisen, von den Anwenderprogrammen selbst ausgelöst. Die einzelnen Programme müssen sich daher kooperativ verhalten, ein Programm muss nach einer bestimmten Zeit den Prozessor „freiwillig“ an andere Programme abtreten. Probleme entstehen dabei, wenn in einem Programm ein Fehler auftritt und keine weiteren Reaktionen auftreten (sog. Programmabsturz). Dann ist der Prozessor blockiert, das Betriebssystem (wie z.B. Windows 3.1) ist nicht in der Lage, diesen Konflikt zu lösen. Demgegenüber werden beim (moderneren und leistungsfähigeren) präemptiven Multitasking die Unterbrechungen einzelner Anwenderprogramme vom Betriebssystem gesteuert. Die Prozessorleistung wird den einzelnen Tasks vom Betriebssystem in Form gleich langer Zeitscheiben zugeteilt. Hierdurch arbeiten die Programme unabhängig voneinander. Ein Fehler in einem Programm, ein Programmabsturz, hat keinen Einfluss auf ein parallel arbeitendes Programm. Beim sog. Multi-Threading werden die Tasks noch weiter in betriebsmittelbezogene Verarbeitungsschritte (Threads) aufgeteilt. Diese Threads werden dann mit Threads aus dem selben Task oder aus anderen Tasks verzahnt verarbeitet. Die meisten Computersysteme besitzen nur einen Prozessor (vgl. Kap. 3.2). Demgegenüber hat das Betriebssystem bei mehreren Prozessoren komplexere Aufgaben, die Ressourcen wie gemeinsamer Arbeitsspeicher und gemeinsame Peripheriegeräte zu verwalten (Mehrprozessor-Betrieb). Der Stapelbetrieb oder Batch Mode war in den Anfängen der Computerentwicklung die Standardbetriebsform, bei der ein Auftrag vollständig beschrieben und als Ganzes erteilt sein muss, bevor mit seiner Abwicklung begonnen werden kann (vgl. eine Urform der elektronischen Informationsverarbeitung, bei der ein Lochkartenstapel mit sämtlichen Anweisungen zur Bearbeitung an einen Rechner abgegeben wurde). Heute besteht eine Stapelverarbeitung (nur) noch, wenn z.B.
Systembetrieb
143
über Nacht größere Datenbestände geschlossen bearbeitet (z.B. Drucken von Abrechnungen oder Bescheiden) oder auch rechenintensive Umrechnungen (z.B. Entzerren von digitalen Bildern in der Fernerkundung) durchgeführt werden. Zumeist findet heute an den Bildschirmarbeitsplätzen ein Dialogbetrieb zwischen Computersystem und Benutzer statt, bei dem der Anwender interaktiv auf Programme und Daten zugreift. Die Bezeichnungen Einbenutzer- und Mehrbenutzer-Betrieb zielen auf die gleichzeitige Nutzung eines Computersystems durch mehrere Nutzer ab, was bei Großrechnern immer gegeben ist. Workstations und Personal Computer gestatten in Abhängigkeit der verfügbaren Hardware und Vernetzungsformen einen SingleUsing- oder einen Multi-Using-Betrieb. Die Betriebsformen Teilhaber- und Teilnehmerbetrieb finden sich vor allem bei vernetzten Computersystemen. So arbeiten im Teilhaberbetrieb mehrere Anwender gleichzeitig im Dialogbetrieb über Datenstationen mit einer Anwendung und demselben Datenbestand (vgl. Auskunfts- und Buchungssysteme). Im Teilnehmerbetrieb arbeiten demgegenüber die Benutzer mit voneinander unabhängigen Programmen oder Daten. Bei vernetzten Computersystemen ist (je nach Betriebssystem) eine zentrale Verwaltung und Bearbeitung von Programmen auf nur einem Rechner oder eine Verteilung der Aufgaben auf verschiedene Rechner möglich (zentrale und verteilte Verarbeitung). Derartige Nutzungsformen werden im Zusammenhang mit Intraund Internetanwendungen zunehmen und sich auch ständig abwechseln, wenn z.B. auf einem zentralen Rechner mit einem Geoinformationssystem Analysen durchgeführt werden, die dann auf dem lokalen Rechner weiterverarbeitet und über Peripheriegeräte ausgegeben werden. 4.9.3
Aufgaben von Betriebssystemen
Das Betriebssystem (Operating System) eines Rechners umfasst die gesamte Software, die zur Durchführung des gesamten Rechnerbetriebs und somit insbesondere zur Ausführung der Anwendungsprogramme und zur Ansteuerung der wichtigsten Peripheriegeräte wie z.B. Tastatur, Monitor, Speicherlaufwerke und Drucker notwendig ist. Das Betriebssystem bildet u.a. die zentrale Schnittstelle zwischen Benutzer und Computersystem, es regelt u.a. die Kommunikation zwischen Anwendern (z.B. Eingabe von Steuerbefehlen, Starten von Programmen) und Rechner (z.B. Ausgabe des Betriebszustands, von Ergebnissen oder auch von Fehlermeldungen während einer Programmausführung). Bei einem Mehrprogrammbetrieb übernimmt das Betriebssystem die Verwaltung der gerade bearbeiteten oder auf die Bearbeitung wartenden (Benutzer-)Aufträge (sog. jobs). Außer dieser Auftragsverwaltung (job management) gehört die Betriebsmittel- oder Prozessverwaltung (task management) zu den Aufgaben eines Betriebssystems. So muss für sämtliche Tasks die Zuteilung, Belegung und Freigabe der zur Ausführung notwendigen Betriebsmittel (z.B. Prozessor oder Peripheriegeräte) geregelt sein.
144
Komponenten von Computersystemen
Betriebssysteme müssen vor allem die Hardware unterstützen und deren Leistungsfähigkeit ausschöpfen. Obschon der Intelprozessor 80386 bereits 1986 auf den Markt kam und über ein internes Datenformat von 32 Bit verfügte, konnte erst ein 32-Bit-Betriebssystem die Leistungsfähigkeit des Prozessors voll nutzen. Derartige Betriebssysteme waren lange Zeit nicht verfügbar (in der sog. Intel-Welt erst ab 1991 mit OS/2 Version 2.0, ab 1993 mit Windows NT oder ab 1995 mit Windows 95). Der Urahn der Betriebssysteme für Personal Computer, das Betriebssystem MS-DOS war lediglich für maximal 1 MByte Arbeitsspeicher ausgelegt, wobei nur 640 KByte für Anwendungsprogramme bereitgestellt wurden. Moderne 32-Bit-Betriebssysteme können hingegen bis zu 4 GByte Arbeitsspeicher verwalten. Betriebssysteme müssen ferner in der Lage sein, umfangreiche Dateibestände auf externen Datenträgern zu verwalten. Sie müssen also mit großen Datenmengen umgehen können und Werkzeuge u.a. zum Kopieren oder Löschen von Daten (sog. Dateimanager) bereitstellen. Insgesamt müssen Betriebssysteme gewährleisten, dass die verschiedenen Hardwarekomponenten, wie z.B. Drucker oder Graphikkarten, überhaupt ansprechbar sind und miteinander arbeiten können. Hierfür stehen u.a. kleine Programme zur Verfügung, die als Treiber bezeichnet werden. Im Allgemeinen werden derartige Treiber von den Hardwareherstellern mitgeliefert. Ein Betriebssystem kann nur über eine (begrenzte) Sammlung von Standardtreibern verfügen, die bei stetig fortschreitender Technikentwicklung jeweils ergänzt werden müssen (z.B. bei Installation eines neuen Druckermodells). 4.9.4
Benutzerschnittstellen
Das Betriebssystem ist die Schnittstelle zwischen Benutzer und Computersystem. Zur Kommunikation mit dem Computersystem und vor allem zum Abruf der von einem Betriebssystem zur Verfügung gestellten Funktionen, z.B. Kopieren oder Löschen von Dateien oder allgemein zum Starten und Beenden von Programmen, stehen Befehle, sog. Kommandos, einer formalen Sprache zur Verfügung (sog. Kommandosprache, JCL, job control language). Die sehr kleine Auswahl in Tabelle 4.3 gibt einen Einblick in die zum Betriebssystem UNIX gehörende Kommandosprache. In den Anfängen der Computerentwicklung waren fast nur kommandozeilenorientierte Betriebssysteme vorhanden. Der Anwender gab zumeist über die Tastatur einen Befehl ein und leitete ihn dem Rechner zu (Eingabe einer Zeile von Kommandos). Der Rechner antwortete durch Ausgabe eines entsprechenden Ergebnisses auf einem alphanumerischen Kontrollmonitor oder auf einem Drucker. Derartige Kommunikationsformen finden sich heute kaum noch. Für nur gelegentliche oder ungeübte Anwender ist eine kommandoorientierte Kommunikation wenig geeignet. Die komplexe Sprache führt zu Verständnisproblemen und Produktivitätsverlusten. Der nächste Schritt in der Entwicklung von Betriebssystemen waren menügesteuerte Benutzeroberflächen, bei denen Anwendern eine Liste von Funktionen angeboten werden, die ausgewählt und einzeln aktiviert werden können. Derartige
Systembetrieb
145
Oberflächen, die heute noch bei Auskunfts- und Buchungssystemen gebräuchlich sind, minimieren den Lernaufwand. Der Benutzer trifft eine Auswahl aus vorgegebenen und häufig auch durch leicht verständliche Umschreibungen erläuterten Anweisungen. Die Tastatur reicht zur Eingabe aus. Tabelle 4.3: Auswahl von UNIX-Befehlen als Beispiele für eine Kommandosprache Syntax des UNIX-Befehls
Bedeutung
cp < file 2>
Kopieren von file1 unter einem anderen Namen oder Ort in file2, z.B. cp anton berta kill [signal] Signale an eigene Prozesse schicken Löschen des Prozesses 1234: kill -9 1234 ls [option] [file] Auflisten der Dateien und Unterverzeichnisse im aktuellen Verzeichnis Wichtige Optionen: -a Auflisten aller Einträge -l ausführliche Liste sämtlicher Dateiattribute mkdir Anlegen eines neuen Verzeichnisses more [option] < file > Ausgabe der Dateien seitenweise am Monitor z.B. more file1 Wichtige Optionen: -n Zeilenumfang einer Seite +n Beginn der Ausgabe mit Zeile n
Im Bereich der Personal Computer wurden schließlich die Betriebssysteme u.a. aufgrund der Markterfordernisse zu benutzerfreundlichen graphischen Bedieneroberflächen weiterentwickelt, die eine intuitive Bedienung durch den Anwender mit Hilfe eines Mauszeigers gestatten. Vorbild für derartige Benutzerführungen war das Betriebssystem der Apple-Computer, das als erstes Betriebssystem bereits 1984 eine graphische Oberfläche besaß. Eine Aktion wird z.B. ausgelöst, indem mit dem Mauszeiger auf der graphischen Oberfläche ein Befehl aus einem Menü oder ein der Aktion zugehöriges Symbol ausgewählt wird. Das kurze, einmalige Drücken der Maustaste erzeugt ein klickendes Geräusch, weshalb dieser Vorgang allgemein mit Klicken oder Anklicken bezeichnet wird. Das Löschen eines Objektes geschieht z.B. durch Auswahl mit dem Mauszeiger und Herüberziehen in einen Papierkorb, aus dem die Datei noch wieder „hervorgeholt“ werden kann. Graphische Benutzeroberflächen bilden inzwischen die hauptsächliche Schnittstelle zwischen Mensch und Maschine. Zu den Standards gehören weiter: Die Benutzerführung erfolgt über verschiedene Fenstertypen wie z.B. Anwendungsoder Dokumentenfenster oder Dialogboxen, die eingeblendet werden, sobald zur Ausführung einer Aktion weitere Angaben und Einstellungen notwendig oder möglich sind. Die Dialogboxen haben ein standardisiertes Aussehen und verwenden stets gleiche Steuerelemente wie z.B. Rollbalken (engl. scrollbars), Schaltflächen (engl. buttons) oder Listenfelder. Über anschauliche Symbole (engl. icons) werden zugeordnete bzw. mit dem Zeichen verknüpfte Aktionen ausgelöst. Über Menüs, die in einer Menüleiste am Bildrand oder im jeweiligen Fenster einer
146
Komponenten von Computersystemen
Anwendung angezeigt werden, kann auf verschiedene Funktionen zurückgegriffen werden. Ferner hat sich die kontextsensitive Handhabung der Maus durchgesetzt. In Abhängigkeit des angewählten Objektes, d.h. einer Datei oder eines Programms oder auch einer Textstelle innerhalb einer Textverarbeitung, können mit Hilfe der rechten Maustaste sog. Kontextmenüs aufgerufen und zugehörige Operationen ausgeführt werden. So werden z.B. beim Anklicken einer Datei über die rechte Maustaste u.a. Funktionen zum Löschen oder Kopieren der Datei angeboten. Tabelle 4.4: Übersicht über wichtige Betriebssysteme für Personal Computer und Workstations MS-DOS
Windows 1.0 bis 3.2
Windows95/98
Windows NT Windows 2000
Windows XP
OS/2
UNIX
MacOS
Microsoft Disk Operating System, seit 1981 verfügbar, 16-Bit-Betriebssystem, das die Funktionalität moderner Prozessoren nicht unterstützte, Einbenutzerund Einplatzbetrieb, leicht bedienbar, ohne graphische Benutzeroberfläche. Microsoft Windows, seit 1985 verfügbar, 16-Bit-Betriebssystem, einfaches (kooperatives) Multitasking, mit graphischer Benutzeroberfläche und Maussteuerung, seit Version 3.x (Erscheinen 1990 bzw. 1992) lange Zeit Standard für Personal Computer. Microsoft Windows 95/98, seit 1995/98 verfügbar, unterstützte voll Fähigkeiten der modernen 32-Bit-Prozessoren, ermöglichte das sog. präemptive Multitasking, enthielt noch zahlreiche Module, die auf der 16-BitTechnologie beruhen. mit Windows NT (bereits) 1992 ein reines 32-Bit-Betriebssystem von Microsoft vorgestellt, von Grund auf neu entwickelt, besitzt z.B. ein völlig neu konzipiertes Dateisystem und unterstützt das präemptive Multitasking, Windows NT netzwerkfähiges Betriebssystem, Nachfolgeversion Windows2000, Einsatz zumeist im Serverbereich, Windows Server 2003 im Jahr 2003 als Nachfolger für die Windows 2000 Serverprodukte. seit 2001 (als Weiterentwicklung von Windows 2000) in verschiedenen Varianten auf dem Markt und derzeit der Standard für Personal Computer (Multitasking- und Multiprozessorfähigkeit, Multi-User-Möglichkeit) Operating System 2 als Nachfolger von MS-DOS von IBM und Microsoft entwickelt, 1987 vorgestellt, sehr leistungsfähig und innovativ, allerdings zu MS-DOS inkompatibel, OS/2 Warp (1992) von IBM allein weiterentwickelt, Privatkundenvertrieb eingestellt UNIX 1969 auf Anfänge in den Bell Laboratories zurückgehend, später in der Programmiersprache C (eigens für UNIX geschaffen) neu geschrieben, sehr leistungsfähiges 32-Bit-Betriebssystem, leichte Vernetzbarkeit mit Multi-User-Betrieb, präemptives Multitasking, zahlreiche Weiterentwicklungen und Dialekte (z.B. Solaris von SUN Microsystems, HP/UX von Hewlett Packard, SINIX von Siemens/Nixdorf, AIX von IBM, SCO UNIX sowie XENIX, die von SCO, DEC und Microsoft hergestellte Variante für Personal Computer), UNIX-Variante LINUX als Freeware verfügbar, stetige Weiterentwicklung durch eine weltweite Fangemeinde von Entwicklern, gegenüber den anfänglichen Kommandozeilenvarianten leichte Bedienung durch graphische Benutzeroberflächen wie X-Windows (Standard unter UNIX) oder deren Weiterentwicklungen wie z.B. OSF-Motif der Open Software Foundation oder Open Windows unter Solaris Betriebssystem System 7.* (ab der Version 7.5 MacOS) seit 1984 für Apple Computer verfügbar, mit graphischer Benutzeroberfläche, konsequente intuitive Benutzerführung, jüngste Version MacOS X v 10.3 Panther.
Netzwerke
4.9.5
147
Übersicht über wichtige Betriebssysteme für Workstations und Personal Computer
Aufgrund der engen Kopplung mit der Hardware waren in den Anfängen der Computerentwicklung die Betriebssysteme nur für bestimmte Rechner oder Rechnermodelle eines Herstellers einsetzbar (sog. proprietäre Betriebssysteme). Proprietär sind heute (lediglich noch) die Betriebssysteme für Großrechner und mittlere Systeme, wobei als Ausnahme UNIX auf sämtlichen Rechnerklassen lauffähig ist, sowie das Betriebssystem MacOS für Apple Computer. Demgegenüber stehen sog. offene Betriebssysteme, die allgemein einsatzfähig sind. Allerdings ist z.B. UNIX nicht einfach zwischen zwei Workstations verschiedener (Prozessor-)Hersteller austauschbar. In der Regel muss (wie bei jeder Software) eine Anpassung an den jeweiligen Befehlssatz des Prozessors erfolgen oder wie z.B. für Linux eine prozessorspezifische Compilierung des frei verfügbaren Quellcodes durchgeführt werden. Die Tabelle 4.4 zeigt deutlich die Dominanz des Softwareherstellers Microsoft, die u.a. auch darauf zurückzuführen ist, dass die Betriebssysteme (bzw. die zugehörige Anwendersoftware) für Intelprozessoren bzw. für intelkompatible Prozessoren entwickelt wurden und dass die Einsatzmöglichkeit der älteren Software auch mit einem jüngeren Prozessor (sog. Aufwärtskompatibilität) gewährleistet war (vgl. Kap. 4.3.3). Dadurch wurde zwar häufig die Leistungsfähigkeit der Prozessoren nicht ausgereizt, die Kompatibilität war aber als Voraussetzung für eine Investitionssicherheit der eingesetzten Software zwingend notwendig. Letztlich entscheidet über den Erfolg eines Betriebssystems (gerade für Personal Computer) das Angebot an Standardsoftware. Die Fülle der verfügbaren Software war der wesentliche Vorteil von Windows 3.*, obschon leistungsfähigere Betriebssysteme auf dem Markt vorhanden waren!
4.10 Netzwerke 4.10.1 Definition und Unterscheidungsmerkmale Unter einem Computernetz oder Netzwerk ist die Gesamtheit von Leitungen, Vermittlungsstellen und Teilnehmereinrichtungen zu verstehen, die sämtlich der Datenkommunikation dienen. Mehrere unabhängige Computerstationen bzw. Arbeitsplätze werden verbunden und können gemeinsam auf Datenbestände zugreifen, Daten austauschen und Betriebsmittel wie z.B. Drucker oder Sicherungsgeräte nutzen. Hinsichtlich der Hardware besteht ein Computernetz mindestens aus dem Leitersystem, das in der Regel aus Koaxialkabel, auch aus Glasfaserkabel oder aus einer drahtlosen Verbindung z.B. über Infrarot oder Satellit aufgebaut sein kann, und aus den angeschlossenen Rechnern, die über geeignete Netzwerkadapter verfügen müssen. Diese werden zumeist als Erweiterungskarten (sog. Netzwerkkarten) in ein Computersystem eingebaut und müssen auf das jeweilige Netzwerksys-
148
Komponenten von Computersystemen
tem abgestimmt sein. Ein verbreiteter und von der IEEE (US-Institut of Electric and Electronic Engineers) genormter Netzwerktyp (Phys. Leitungssystem) für lokale Netze ist das sog. Ethernet, das Übertragungsgeschwindigkeiten von 10 MBit/sec. bzw. 100 MBit/sec. (Fast-Ethernet) bzw. 1000 MBit/sec. (GBitEthernet) erreichen kann. Hinsichtlich der Software besteht ein Computernetz aus spezieller Steuerungssoftware oder aus einem geeigneten Betriebssystem, das den Zugang zum Rechnernetz steuert und die Ressourcen (u.a. verbundene Geräte, aber auch Software) verwaltet. Netzwerke lassen sich nach mehreren Gesichtspunkten klassifizieren: - Nach der Größe des Netzes oder räumlichen Entfernung der Rechner: In lokalen Rechnernetzen (LAN, local area network) sind die Rechner an einen Standort (Gebäude, Betriebsgelände) eingebunden. In Weitverkehrsnetzen (WAN, wide area network) befinden sich die Rechner weit entfernt von einander, Weitverkehrsnetze verbinden auch mehrere lokale Rechnernetze. In Deutschland werden für eine standortübergreifende Übertragung die Festnetze wie auch Funknetze der Telekommunikationsanbieter benutzt. Eine Informationsübermittlung über das Stromnetz war offenbar unter den gegebenen technischen Voraussetzungen für den Massenmarkt nicht tauglich. Erste Realisationen waren in Essen und Mülheim/Ruhr verwirklicht worden. - Nach der Netztopologie: Als Netzwerktopologie oder Netzwerkstruktur wird die Anordnung bezeichnet, wie die einzelnen Rechner untereinander verbunden sind. Die wichtigsten Netzwerktopologien sind, wobei der hier skizzierte logische Aufbau eines Netzes nicht dem physikalischen Aufbau entsprechen muss: Bus-Topologie: Sämtliche Teilnehmer sind über eine gemeinsame Leitung (Bus) miteinander verbunden. Falls eine Station ausfällt, wird die Übertragung nicht beeinträchtigt. Ring-Topologie: Sämtliche Teilnehmer sind ringförmig von Station zu Station miteinander verbunden. Falls eine Station ausfällt, entsteht ein Totalausfall des ganzen Netzes. Stern-Topologie: Die Teilnehmer sind sternförmig mit einem zentralen Rechner (sog. HUB) verbunden. entfernter Server Öffentliches Netz Kommunikationsserver Datenserver
Client Lokales Netz
Client
Client Druckserver
Abb. 4.16:Prinzip eines Client-Server-Netzwerkes
Netzwerke
149
- Nach der Art der verteilten Verarbeitung: Beim sog. Peer-to-Peer Netzwerk sind in der Regel mehrere vollwertige Personal Computer eingebunden, die auch unabhängig, d.h. unvernetzt betrieben werden können. Die einzelnen Rechner sind gleichrangig und übernehmen jeweils die Verwaltungs- und Steuerungsaufgaben, es besteht kein festgelegter Server. Mit einem Peer-to-Peer-Netz ist ein Datenaustausch (gemeinsamer bzw. gegenseitiger Zugriff auf Datenträger, Verschicken von Nachrichten) und eine gemeinsame Nutzung von Peripheriegeräten wie z.B. Druckern möglich. Diese Form ist für kleinere Netze mit bis etwa 15 Rechnern geeignet. Die sog. Client-Server-Netzwerke stellen die wichtigste moderne Verteilungsform dar (vgl. Abb. 4.16). Hierbei sind die beteiligten Rechner nicht gleichberechtigt. Es besteht eine klare Funktionstrennung zwischen leistungsfähigen Rechnern, die als Server Dienstleistungen anbieten, und weiteren Rechnern, die als Clients diese Dienstleistungen nachfragen. Entsprechend der Dienstleistungen werden Daten- und Programmserver (sog. file bzw. application server), die Daten und/oder Programme zur Verfügung stellen, Druckserver, die in Datenoder Druckservern zwischengespeicherte Druckaufträge abarbeiten, und Kommunikationsserver unterschieden. Dabei müssen nicht unterschiedliche Rechner zum Einsatz kommen. Ein leistungsfähiger Rechner kann mehrere Aufgaben übernehmen. Die Funktionsverteilung wird letztlich durch Software geregelt, deren Funktionsfähigkeit somit auch über die Leistung des Netzwerkes im Hinblick u.a. auf Reaktionszeit und Verarbeitungsgeschwindigkeit der Programme entscheidet. Ein Rechner kann sowohl Server als auch Client sein. Passive Server stellen nur Daten oder Programme bereit. Demgegenüber führen aktive Server selbst Programme aus (verteilte Verarbeitung). Damit in einem Netz ein Server mehrere Clients gleichzeitig bedienen kann, muss das Betriebssystem überhaupt eine geteilte Verarbeitung ermöglichen (Multi Threading). 4.10.2 Kommunikationsschnittstellen und Netzprotokolle Neben der Hardware und den eigentlichen Datenleitungen ist das sog. Netzwerkprotokoll von besonderer Bedeutung, durch das festgelegt wird, wie die beteiligten Rechner miteinander kommunizieren. Protokolle sind somit Kommunikationsvereinbarungen, die Absprachen über den Aufbau, die Überwachung und den Abbau von Verbindungen enthalten. Häufig wird ein Kommunikationsmodell entwickelt, das die Kommunikationsformen nach mehreren Definitionsebenen oder Schichten regelt. Das Prinzip soll an dem Beispiel einer Kommunikation zwischen zwei Geoinformatikern in Japan und in Deutschland verdeutlicht werden (zu einem ähnlichen Beispiel vgl. Tanenbaum 1995 S. 487ff.). Angenommen wird dabei der sicher nicht ganz realistische Fall, dass die beiden Geoinformatiker nur die Landessprache beherrschen und jeweils einen Fachmann benötigen, der technisch die Informationsübermittlung ausführt (z.B. ein Faxgerät bedient). Die Kommunikationsarchitektur wird hierbei durch drei Schichten dargestellt:
150
1. 2. 3.
Komponenten von Computersystemen
Schicht: Informatiker in Japan Informatiker in Deutschland Schicht: Übersetzer: japanisch ļ englisch Übersetzer: deutsch ļ englisch Schicht: Übertragungsfachmann Übertragungsfachmann
Diese einfache Kommunikationsvereinbarung verdeutlicht die Schnittstellen zwischen den Schichten und belegt die Unabhängigkeit der Schichten. So ist für die Informatiker die von den Übersetzern vereinbarte Sprache des Informationsaustausches (hier: englische Sprache) ohne Interesse. Für die Übersetzer ist wiederum die Übertragungsart belanglos (z.B. Faxgerät, Luftpost). Um Kommunikationsmöglichkeiten u.a. zwischen unterschiedlichen Rechner(typen), Betriebssystemen und Netzwerkmodellen zu ermöglichen, werden offene Kommunikationsformen und -vereinbarungen angestrebt. Hierzu hat bereits 1983 die Internationale Normungsorganisation ISO (International Organization for Standardization) ein herstellerunabhängiges Konzept, das sog. ISO-Referenzmodell, herausgegeben (auch als OSI- (Open Systems Interconnection) oder ISO/OSI-Referenzmodell bezeichnet). Dieses Modell unterscheidet sieben Funktionsschichten (sog. Layers), von denen vier dem Transportsystem und drei dem Anwendersystem zugeordnet sind (vgl. Oberschelp u. Vossen 1998 S. 450ff.). Tabelle 4.5: Gegenüberstellung von OSI- und TCP/IP-Netzwerkmodellen (vgl. Hansen 1996 S. 1059) OSI-Modell
TCP/IP
Anwendungsschicht Application Layer
File Transfer
Darstellungsschicht Presentation Layer Kommunikationssteuerungsschicht Session Layer
Process / Application Layer
Transportschicht Transport Layer
Host-toHostLayer Internet Layer
Vermittlungsschicht Network Layer Sicherungsschicht Data Link Layer Bitübertragungsschicht Physical Layer
Protokoll-Implementierung E-Mail
WWW
Terminal Emulation
Network Management
TELNET Simple HyperSimple Protocol Network Text Mail ManageTransfer Transfer ment Protocol Protocol Protocol (HTTP) (SMTP) User Datagram Transmission Control Protocol Protocol (UDP) (TCP) Address ResoluInternet Protocol Internet Control tion Message Protocol
File Transfer Protocol (FTP)
Network Access Local Network Layer
Ethernet, IEEE 802, Arcnet, X.25 verdrilltes Kupferkabel, Koaxialkabel, Glasfaserkabel, Funkübertragung
Netzwerke
151
Gegenüber diesem komplexen ISO/OSI-Modell, das sich nicht durchgesetzt hat, stellt derzeit das Netzwerkmodell TCP/IP (Transmission Control Protocol / Internet Protocol) den Markt-Standard dar, der für praktisch alle gängigen Plattformen erhältlich ist. Es wurde insbesondere für den Einsatz auf unterschiedlichen Medien und Rechnern konzipiert, so dass TCP/IP das wichtigste Netzwerkprotokoll zur Vernetzung heterogener Systeme darstellt. Auf der Basis von TCP/IP lassen sich z.B. Rechner vernetzen, die das Betriebssystem UNIX (z.B. AIX oder SunOS), DOS und auch WindowsNT Server aufweisen. Ein einfacher Datenaustausch zwischen verschiedenen Rechnerwelten wird somit ermöglicht. Das TCP/IP Protokoll(system) ist einfacher als das OSI-Referenzmodell und besteht aus nur vier Schichten (vgl. Hansen 1996 S. 1058ff., Horn u. Kerner 1998 S. 172). Oberschelp und Vossen 1998 S. 478 sprechen von fünf Schichten und unterscheiden unterhalb des Internet Layers zwei Ebenen: Der Network Access Layer entspricht den unteren Schichten des ISO-Referenzmodells (Festlegung der physikalisch-technischen Bedingungen der Übertragungsmedien). Hierbei wird auf vorhandene Datenübertragungsdienste aufgebaut. Die Internet-Protokolle sind unabhängig von dieser Übermittlungstechnik, d.h. von dem Network Access Layer. Die Protokolle des Internetlayers definieren u.a. die Adressierung von Zielsystemen über mehrere Transitsysteme sowie die Übertragungseinheit im Internet (das sog. Internet Paket). Hierbei ist das Internet Protocol zentraler Standard. Im Internet (vgl. Kap. 4.10.3) wird ein Rechner (bzw. die Netzwerkkarte) über eine weltweit eindeutige Internet-Adresse identifiziert, die durch 4 Bytes angegeben wird (dargestellt durch vier jeweils durch Punkte getrennte Zahlen von 0 bis 255 wie z.B. IP-Adresse 103.96.178.29). Auf dem Internetprotokoll baut der Host-to-Host-Layer auf, der u.a. die Übertragung des Datenstroms steuert. Grundlage dieser Schicht ist das Protokoll TCP (Transmission Control Protocol), auf dem u.a. die Protokolle des Application Layers aufbauen, die jeweils einen Internetdienst definieren. Während das Protokoll IP für die Zerlegung der Daten in kleine Pakete und die Adressierung zuständig ist, sorgt das Protokoll TCP dafür, dass die Pakete in der richtigen Reihenfolge den Bestimmungsort erreichen. Neben den offenen Kommunikationssystemen haben die Hardwareproduzenten herstellerspezifische, proprietäre Netzwerkarchitekturen entwickelt, die zu den ISO-Normen oder zu den Protokollen anderer Hersteller nicht immer bzw. nicht voll kompatibel sind. Im Hinblick auf die große Bedeutung des Marktstandards TCP/IP haben sämtliche Hersteller aber sog. Gateway-Produkte erstellt, um hierdurch ihre Netzwerke zu öffnen. 4.10.3 Internet Das International Network, Abkürzung Internet, ist eine weltweite Verbindung unterschiedlicher Netze, wobei im Prinzip kein Netz ständiger Verbindungen besteht, sondern der Zusammenschluss auf Vereinbarungen über Kommunikationsformen beruht. Der Informationsaustausch über sehr unterschiedliche Rech-
152
Komponenten von Computersystemen
nerplattformen erfolgt über das TCP/IP-Protokoll, das bis etwa 1982 spezifiziert wurde (vgl. Kap. 4.10.2). Dem Vorläufer des heutigen Internet lagen militärische Zielsetzungen zugrunde, die dezentrale Struktur sollte auch einen Nuklearangriff überstehen. Die vom US-Verteidigungsministerium eingerichtete Forschungseinrichtung ARPA (Advanced Research Projects Agency) initiierte 1969 das sog. ARPAnet, das ab Anfang der 70er Jahre Universitäten und Forschungseinrichtungen verband, die mit dem US-Verteidigungsministerium zusammenarbeiteten. Die eigentliche Geburtsstunde des Internets kann etwa auf das Jahr 1983 zurückdatiert werden, als das ARPAnet auf das Kommunikationsprotokoll TCP/IP umgestellt war. Die einstige Zielsetzung veränderte sich unter Förderung der National Science Foundation (NSF) zu einem nichtkommerziellen Wissenschaftsnetz (NSFnet). Beteiligt waren Forschungseinrichtungen und Universitäten, wobei in den achtziger Jahren auch Forschungsnetze in Europa angebunden wurden. Der Begriff „Internet“ entsteht. Nachdem 1989 am CERN (European Organization for Nuclear Research, urspr. Conseil Européen pour la Recherche Nucléaire) der Netzdienst World Wide Web entwickelt worden war, 1991 von der US-Regierung durch das High Performance Computing Act das Internet zum freien Informationsaustausch freigegeben wurde, größtenteils das NSFnet an Privatunternehmen abgegeben war und eine kommerzielle Nutzung möglich wurde, setzte ein exponentielles Wachstum ein. Es ist davon auszugehen, dass jede wissenschaftliche und öffentliche Einrichtung, jeder Interessenverband sowie jedes Wirtschaftsunternehmen im Internet und zunehmend auch Privatpersonen vertreten sind, d.h. Informationen anbieten. Das Internet hat als Kommunikations- und Informationsmedium eine enorme wirtschaftliche Bedeutung erlangt (vgl. auch den zugenommenen elektronischen Handel, sog. E-commerce). Kennzeichnende Merkmale sind also: offenes System, dezentrale Steuerung, heterogene Hard- und Softwaresysteme. Das Internet stellt viele Dienste zur Verfügung, die durch verschiedene Protokolle realisiert werden, die auf dem Protokoll TCP/IP aufsetzen. Die Dienste werden zum Teil als eigene Programme bzw. Funktionen in Betriebssystemen oder auch in verschiedenen WWW-Browsern angeboten. Die zur Zeit wichtigsten bzw. am häufigsten benutzten Dienste sind: - Electronic Mail oder E-Mail (Simple Mail Transfer Protocol SMTP): Austausch von Nachrichten in Form von Daten. Zumeist wird eine Nachricht, d.h. eine sog. E-Mail, auf einem E-Mail-Server zwischengespeichert, auf den der Anwender eine Zugangsberechtigung hat (indirekter Informationsaustausch). Einer E-Mail können Dateien mit beliebigen Inhalten beigefügt werden (sog. Attachments). Neben dem Internet können E-Mails über sog. Online-Dienste oder Mailbox-Netze verschickt werden. - Usenet News (Network News Transfer Protocol NNTP): Diskussionsrunden im Usenet, das ein System von Anbietern und Nachfragern internationaler Newsgroups darstellt. Ein News-Server des Internet-Providers bzw. eine Mailbox stellt Informations- und Diskussionsforen zur Verfügung, die (kostenpflichtig) abonniert oder eingesehen werden können. - Terminal Emulation oder Telnet (Telnet Protocol): Programmausführung auf einem Internet Rechner. Hierdurch werden Fernzugriffe auf Rechner im Inter-
Netzwerke
153
net möglich, für die ein Anwender eine Zugangsberechtigung haben muss und auf denen er Programme online ausführen lassen kann. - File Transfer (File Transfer Protocol FTP): Auf der Basis des File Transfer Protocols und eines FTP-Programms ist ein einfacher Dateiversand und Datenaustausch zwischen verschiedenen Rechnerwelten gegeben. - World Wide Web, WWW (Hyper Text Transfer Protocol HTTP): Weltweites Informationssystem. Das World Wide Web besitzt inzwischen die größte Bedeutung und wird häufig (fälschlich) mit dem Internet gleichgesetzt. Der Kommunikationsstandard HTTP ist dabei Grundlage der Übertragung von Informationen zwischen einem WWW-Server und einem WWW-Client. Zentrale Aufgaben bei der Kommunikation übernehmen sog. Browser. Hierunter sind Programme zu verstehen, mit denen Datenträger, Verzeichnisse und Dateien durchsucht und dargestellt werden können. Der Zugriff auf eine Information erfolgt über eine standardisierte Adresse (sog. URL, uniform ressource locator), die sich aus der Angabe des Dienstes bzw. des Protokolls (z.B. http://), dem Servernamen (z.B. www.uni-osnabrueck.de) und der Pfadangabe und dem eigentlichen Dokument (z.B. /demo.htm) zusammensetzt. 4.10.4 Verteiltes Arbeiten im Internet Der Aufbau einer Kommunikation zur Übertragung von Textseiten im Internet erfolgt nach einem recht einfachen Prinzip: Mit Hilfe eines WWW-Browsers wird von einem Client in einem Netzwerk eine Verbindung zu einem WWW-Server aufgebaut. Um eine bestimmte Seite anzufordern, wird aus verschiedenen Befehlen eine Anfrage generiert und zum Server gesandt. Dieser sog. Request besteht also aus mehreren Befehlen, die im Hyper Text Transfer Protocol definiert sind. Der Server antwortet mit einem sog. Response. Mit dieser Antwort werden vom Server wiederum Befehle und vor allem Daten zurückgeschickt, d.h. die Seite wird in der Beschreibungssprache HTML (Hypertext Markup Language) übertragen. Anschließend wird die Verbindung beendet (abgesehen von der relativ seltenen Ausnahme einer sog. Keep-Alive-Verbindung). Die übertragenen und auf der Festplatte des Client zwischengespeicherten Informationen werden durch den Browser des WWW-Client angezeigt. In die Textdokumente, d.h. in die sog. HTML-Seiten, können neben Text auch Graphiken sowie Ton- und Videosequenzen integriert sein, die je nach HardwareAusstattung wiedergegeben werden können. Hierdurch werden in einer besonderen Form der verteilten Verarbeitung multimediale Objekte, d.h. beliebige Dateien aus Texten, Graphiken, Ton- oder Videosequenzen, in ein Dokument (sog. Hypertext) logisch eingebunden. Die eigentliche Lokalisierung der Datenquellen ist unwichtig. Besondere Markierungen (Verbindungssymbole wie z.B. Textunterstreichungen als Standardform) in Textdokumenten, die in WWW-Browsern angezeigt werden, machen Verbindungen (sog. Links) zu anderen Dokumenten auf beliebigen Servern im World Wide Web deutlich. Durch Anklicken einer derartigen Markierung mit der Maus wird durch den Browser die Verbindung zu dem Dokument aufgebaut, das durch die Markierung bezeichnet wird, und auf den
154
Komponenten von Computersystemen
eigenen Rechner übertragen. Die Abbildung 4.17 (mit zugehörigem HTML-Text) verdeutlicht an einem sehr einfachen Beispiel dieses Prinzip.
Beispielseite HTML Hyperlinks
Hypertext in HTML Die Gestaltung der vorliegenden Seite wurde bewusst sehr einfach gehalten, um den Code übersichtlich zu lassen.
In diesem Beispiel soll lediglich die Kommunikationsform mit Hilfe von Hyperlinks verdeutlicht werden.
Das Internet ermöglicht den leichten Zugang zu zwei besonderen GIS-Tutorials
The NCGIA Core Curriculum in GIScience
GIS-Tutor
Dieser knappe Hinweis zeigt die prinzipielle Einbindungsmöglichkeit von Informationen.
Verwiesen wird auf Dateien, die irgendwo im Internet, also auch im gleichen Unterverzeichnis wie diese Datei, abgelegt sein können.
Abb. 4.17: WWW-Browser und Hypertext
Die Einbindung von Informationen, die irgendwo im World Wide Web liegen können, wird durch Browser als Informationsorganisatoren verwirklicht. Über die in der Abbildung 4.17 dargestellte Variante hinaus bestehen vielfältige Erweiterungsmöglichkeiten. So wurden z.B. sog. Frames (Rahmen) eingeführt, die ein
Netzwerke
155
Dokument gliedern und somit die Navigation erleichtern. Mit Hilfe sog. Cascading Style Sheets (CSS) kann die Form der Darstellung von den Inhalten eines strukturierten Dokuments (z.B. HTML- oder XML-Seiten) getrennt werden. In dieser lange Zeit häufigsten Form der Datenübertragung im Internet werden Informationen nur statisch übermittelt. Der Benutzer erhält Informationen von einem Datenserver, die anschließend offline auf dem Client weiterverarbeitet werden (sog. Herunterladen oder Download von Daten). Hierbei erfolgt neben der Informationsbeschaffung keine Verarbeitung von Informationen über das Internet. Programme bzw. Programmteile, die in HTML-Seiten eingebunden werden, an den Client übertragen und anschließend dort ausgeführt werden, können den Funktionsumfang des Client erweitern und Arbeiten auf dem Client verrichten. Diese Form des verteilten Arbeitens im Internet kann durch mehrere Varianten umgesetzt werden: PlugIns sind Programme, die sich in den Browser (oder in andere Programme) einfügen, um zusätzliche Funktionen zur Verfügung zu stellen. Sie werden z.B. über das Internet übertragen und auf dem Client installiert. Hierdurch kann die Funktionalität des Browsers erheblich gesteigert werden, wodurch vor allem bei interaktiven Graphikanwendungen viel Rechentätigkeit auf den Client verlagert, eine schnelle Übertragung gewährleistet und das Netz weniger belastet werden. Ein Beispiel ist das Acrobat-Reader-PlugIn, das in einem Browser die Anzeige von Dateien im PDF-Format ermöglicht. Ferner kann mit z.B. Java-Applets oder mit JavaScripts der Leistungsumfang von Browsern erhöht werden (vgl. Kap. 3.2.6). Während PlugIns auf dem Client verbleiben und auch für weitere Anwendungen zur Verfügung stehen, müssen Applets stets neu (mit den HTML-Seiten) übertragen werden. Die bisher erläuterten Formen des verteilten Arbeitens im Internet sehen vor, dass Daten oder Funktionen von einem Server auf einen Client heruntergeladen und dort weiterverarbeitet oder eingesetzt werden. Als eine wichtige Anwendung in der Geoinformatik kann das Herunterladen einer Karte genannt werden, wobei dann das Vergrößern oder Verschieben eines Ausschnittes auf dem Client erfolgen. In einer weiteren Form des verteilten Arbeitens erfolgt die Informationsverarbeitung auf dem Server. Allerdings kann der Browser des Clients nicht unmittelbar mit den Anwendungsprogrammen auf dem Server zusammenarbeiten, die ein (einfaches) Auskunftssystem (vgl. z.B. Ausgabe der Bahnverbindungen zwischen zwei Städten) oder umfangreiche Programme bis hin zu (komplexen) Geoinformationssystemen umfassen können. Ein Common Gateway Interface (CGI) auf einem WWW-Server regelt die Kommunikation mit anderen Programmen auf dem Server (vgl. Abb. 4.18). Diese Schnittstelle wird auf dem WWW-Server durch CGI-Skripte realisiert, die vom Client durch Hyperlinks aufgerufen werden. Diese CGI-Skripte werten die Anfrage aus und leiten sie an ein Anwenderprogramm weiter, das nicht zwingend auf dem WWW-Server residieren muss. Dabei wird die Anfrage derartig aufbereitet, dass sie das Anwenderprogramm bearbeiten kann. Entsprechend funktioniert die Rückübermittlung der Ergebnisse. Ein Beispiel einer CGI-Anwendung aus dem Bereich der Geoinformatik stellen die Koordinatenumrechnungen im Rahmen des GPS-Informations- und Beobachtungssystems (GIBS) des Bundesamts für Kartographie und Geodäsie dar (Bundesamt für Kartographie und Geodäsie GIBS - Weblink).
156
Komponenten von Computersystemen
WebBrowser (Client)
HTTP HTML
WebServer
HTML
GIS (Server)
Ergebnisse Variablen
Aufruf von CGI-Skripten
Common Gateway Interface
Abb. 4.18: Funktionsprinzip eines serverbasierten Geoinformationssystems
Ein serverbasiertes Informationssystem bietet mehrere Vorteile (vgl. Tab. 4.6). Der Nutzer benötigt lediglich einen herkömmlichen WWW-Browser, der inzwischen zumeist Bestandteil der Standardkonfiguration eines Rechnersystems ist, um die gewünschten Informationen zu erhalten (z.B. in Form von digitalen Karten bei einer Anfrage an ein Geoinformationssystem). Darüber hinaus ist für den Client keine weitere Software notwendig. Dies senkt zum einen die Investitionskosten des Nutzers. Zum anderen ist keine Einarbeitung in eine weitere, möglicherweise sehr komplexe Software notwendig. Die Bedienung ist allein mit den Kenntnissen des WWW-Browsing möglich. Gerade dieser Vorteil hilft, große Nutzerkreise zu erschließen. Der Datenanbieter benötigt (einmalig) eine WebServer-Software, um überhaupt Informationen im Internet anbieten zu können, und eine CGI-Software sowie das Informationssystem mit den Daten selber. Tabelle 4.6: Gegenüberstellung von Online-Programmsystemen im Internet und nur lokal verfügbaren Informationssystemen Online-Systeme Vorteile
- zentrale Applikation - einfache Verwaltung und Verteilung - Lizenzgebühren unabhängig von den Anwendungen Nachteile - höhere Serverbelastung - höhere Netzbelastung - Notwendigkeit der Administration des Programm-Servers - Notwendigkeit der Anpassung der Standardsoftware
Lokale Informationssysteme - Entlastung des Servers - Entlastung des Netzes - weitere Nutzungsmöglichkeiten des Informationssystems - höhere Anforderung an die lokale Hardware - aufwändige Verwaltung - Lizenzkosten steigen mit der Zahl der Anwender
Anwendungssoftware
157
4.11 Anwendungssoftware 4.11.1 Individual- und Standardsoftware Die Software macht letztlich ein Computersystem universell einsetzbar. Die Anwendungssoftware dient dabei zur Lösung von benutzer- und aufgabenspezifischen Problemen. Generell kann zwischen Branchensoftware sowie Individualund Standardsoftware unterschieden werden. Branchensoftware ist auf die speziellen Anforderungen einzelner Branchen wie z.B. Bauwesen, Handwerk oder Handel mit in der Regel sehr spezifischen Aufgaben zugeschnitten. In den einzelnen Branchen kann Individual- wie (branchenspezifische) Standardsoftware wie auch branchenübergreifende Standardsoftware eingesetzt werden. Individualsoftware ist eigens für einen Anwendungsfall erstellt und auf die spezifischen Bedürfnisse eines Anwenders und seines Aufgabenprofils ausgerichtet. Zumeist werden nach Vorgaben eines Anwenders oder nach Ausarbeiten eines Anforderungskonzeptes spezielle Softwarelösungen programmiert. Jedoch kann auch eine benutzerspezifische Anpassung von Standardsoftware erfolgen, die in der Regel weniger kostenintensiv als die sehr aufwändige Individualprogrammierung ist. Standardsoftware ist (weitgehend) unabhängig von den Anforderungen einer bestimmten Branche. Hierzu gehören insbesondere sog. Office-Pakete, die Programme u.a. zur Textverarbeitung, zur Tabellenkalkulation, zur Zeitplanung umfassen. Die Vorteile von Standardsoftware gegenüber Individualprogrammierung sind vor allem erhebliche Kostenvorteile, eine sofortige Verfügbarkeit und direkte Einsatzmöglichkeit, eine breite Verwendungsmöglichkeit für unterschiedliche Anwendungsbereiche in einem Unternehmen oder einer Behörde (Synergieeffekte vor allem infolge breiterer Programmkenntnisse und Erfahrungsaustausch unter mehreren Anwendern), eine einfachere Bedienung gegenüber Spezialprogrammen sowie ein breiteres Angebot von Schulungsmöglichkeiten. Nachteile von Standardsoftware gegenüber Individualprogrammierung sind vor allem Übereinstimmungsprobleme mit den speziellen Anforderungen eines Anwenders, ein weniger optimales Betriebsverhalten bei einer Einzelanwendung (z.B. „umständlichere“ Bedienung, längere Rechen- oder Reaktionszeiten, „überflüssige“ Programmmodule zu Lasten der Übersichtlichkeit), Anpassungs- und Schnittstellenprobleme zu individuellen Programmsystemen. Allerdings müssen die genannten Vorteile der Individualsoftware nicht immer bestehen. So kann die Konzeption der Standardsoftware für einen breiten Anwenderkreis durchaus zu einer allgemein verständlichen, leichteren Benutzerführung und Bedienung führen, die keine Spezialisten benötigt. Eine Individualprogrammierung kann diese Ziele aber sehr wohl auch oder gerade erreichen. Nicht aufgeführt wurden das sog. Softwarerisiko und die Softwarequalität. Tendenziell ist das Risiko, irgendwann bei Problemen, bei Änderungs- oder Erweiterungswünschen alleine und ohne Unterstützung des Herstellers auskommen zu müssen, bei Standardsoftware geringer. Die Softwarepflege durch den Softwarehersteller ist bei Standardsoftware intensiver, was aber auch zu einer Folge schneller (kostenpflichtiger) Updates führen kann, die ein Anwender aber nicht
158
Komponenten von Computersystemen
(immer zwingend) benötigt, sie dennoch einführen muss, um nicht die Unterstützung zu verlieren oder um nicht irgendwann eine teure Neuanschaffung vornehmen zu müssen. Tendenziell ist aufgrund der größeren Erfahrung der Programmierer eines Herstellers von Standardsoftware eine höhere Qualität zu erwarten. Diese Tendenz muss aber im Einzelfall nicht immer zutreffen. So kann Individualsoftware in der Regel im Hinblick auf den konkreten Einsatz mit (Kopien von) Echtdaten eingehender getestet werden. 4.11.2 Anwendungssoftware in der Geoinformatik Die Geoinformatik nutzt wie jede andere Informationsverarbeitung auch Standardsoftware und passt sie häufig benutzerspezifischen Aufgaben an. Darüber hinaus zerfällt die für Anwendungen und Aufgaben der Umweltinformatik spezifische Software im Wesentlichen in vier große Kategorien: -
Kartographie-, Präsentations- und Visualisierungssysteme (vgl. Kap. 7), Datenbankverwaltungssysteme (vgl. Kap. 8), Geoinformationssysteme (vgl. Kap. 9), Softwaresysteme zur Fernerkundung und digitalen Bildverarbeitung (vgl. Kap. 10).
Von zentraler Bedeutung sind dabei Geoinformationssysteme, die als integrierte Programme u.a. auch Datenbankverwaltung und Präsentation ermöglichen. Geoinformationssysteme sind in der Regel Standardprogramme, die für sehr unterschiedliche Aufgaben wie z.B. zur Verwaltung von Altlastenverdachtsflächen oder im Geomarketing zur Optimierung des Absatzgebietes eingesetzt werden können. Gerade die benutzerspezifische Anpassung von Geoinformationssystemen im Umweltbereich ist ein wichtiges Aufgabenfeld der Geoinformatik. Zu einer derartigen Anpassung gehören u.a. der Aufbau von Geobasisdaten zusammen mit den Fachdaten in einem für die spezifische Anwendung zu entwickelnden Datenmodell wie auch die Entwicklung, d.h. Programmierung, spezieller Verfahren.
5 Räumliche Objekte und Bezugssysteme
5.1
Geoobjekte
5.1.1
Begriff des Geoobjekts
Der räumliche Bezug von Informationen ist kennzeichnend für die Geowissenschaften und auch für die Belange der Geoinformatik. Die Koppelung von Informationen an räumliche Bezugseinheiten, an Raumelemente oder Objekte mit einem Raumbezug, ist für geowissenschaftliche Fragestellungen typisch. Als räumliche Bezugseinheiten, als räumliche Objekte oder (einfacher) als Geoobjekte treten auf: Punkte Linien Flächen Körper
z.B. Grenzstein, Zähl- oder Messstelle, Quellort eines Emittenten z.B. Profillinie, Grenzlinie, Baumreihe, Wasserleitung, Verbindungslinie z.B. Flurstück, Biotop, Gemeindegebiet, Einzugsgebiet z.B. Schadstoffwolke, Grundwasserkörper, Lagerstätte, Gebäude.
Geoobjekte sind räumliche Elemente, die zusätzlich zu Sachinformationen geometrische und topologische Eigenschaften besitzen und zeitlichen Veränderungen unterliegen können. Kennzeichnend für Geoobjekte sind somit Geometrie, Topologie, Thematik und Dynamik. Zur Geometrie eines Objektes gehören sämtliche Informationen zur absoluten Lage und zur Form oder Ausdehnung des betreffenden Geoobjekts (z.B. Lage, Größe, Umfang). Die Geometriedaten werden durch Informationen über die relative Lage und Nachbarschaftsbeziehungen ergänzt (Topologische Informationen, Topologie). Topologische Eigenschaften bzw. Konzepte sind Umgebungen (bzw. Umgebungsbeziehungen), Nachbarschaften (bzw. Nachbarschaftsbeziehungen), Teilmengen (bzw. Teilmengen- oder Enthaltenseinbeziehungen) oder Überlagerungen (bzw. Überdeckungs- oder Überschneidungsbeziehungen). Die Geoobjekte können sehr verschiedene Sachthemen aufweisen (Sachinformationen oder thematische Informationen, Thematik) und zudem eine zeitliche Variabilität (zeitliche Veränderungen, Dynamik) besitzen, die häufig neben geometrischer, topologischer und thematischer Information als weiteres Unterscheidungsmerkmal herangezogen wird. Generell gilt dabei, dass Geoobjekte eine räumliche und zeitliche Variabilität aufweisen können, der sowohl die Thematik als auch die Geometrie und Topologie unterliegen können. Bislang wurde der Begriff Geoobjekt im Sinne von Raumelement und losgelöst vom Objektbegriff der Informatik benutzt. Die Bezeichnung Geoobjekt wurde
160
Räumliche Objekte und Bezugssysteme
aber bewusst gewählt, um den Bezug zur Objektorientierung der Informatik deutlich werden zu lassen (vgl. Kap. 3.2.5.3). So lassen sich Objektklassen bilden, die Verallgemeinerungen oder Typen von Objekten darstellen mit zugehörigen Attributen und Methoden: Tabelle 5.1: Objektorientierung von Geoobjekten
Objektklasse
Straße
Subklasse Autobahn Subklasse Landstraße
Merkmale
Methoden
Anfang, Ende, Breite, Straßenbelag
Längenberechnung, Steigung
weitere, spezielle Merkmale:
weitere, spezielle Methoden:
Breite des Mittelstreifens, Emissionsberechnung Lärmschutzmaßnahmen Bepflanzung des Seitenstreifens Abschätzung der Pflanzkosten
Ein besonderes Merkmal dieses Ansatzes ist die Kopplung mit Methoden, die für einzelne Objektklassen spezifisch sind. Auch die weiteren Konzepte der Objektorientierung wie z.B. Vererbung (d.h. Ableiten einer speziellen Subklasse und Vererben der Eigenschaften der bestehenden Klasse) oder Klassenhierarchien (z.B. Superklasse, Klasse, Subklasse, Objekt, Teilobjekt) lassen sich an dem Beispiel der Objektklasse Straße aufzeigen (vgl. Tab. 5.1 u. Kap. 3.2.4.3). Ein konkretes Objekt, d.h. in der Terminologie der Objektorientierung eine Instanz der Objektklasse, besitzt dann ebenfalls schon die Attribute und Methoden dieser Klasse, aber eigene, spezifische Attributwerte. Dieser Ansatz bzw. die Verwendung des Begriffs Geoobjekt im Sinne der Objektorientierung der Informatik erweitert die eingangs genannte Definition um weitere Inhalte, die sich aus dem Objektbegriff erschließen. Allerdings wird in der Geoinformatik der Begriff Geoobjekt zumeist (noch) nicht in diesem weitergehenden Sinne verstanden oder benutzt. Die in der Geoinformatik bestehenden Verfahren oder derzeit hauptsächlich zur Anwendung kommenden Softwaresysteme greifen in der Regel noch auf den einfacheren Geoobjektbegriff zurück. 5.1.2
Geometrie von Geoobjekten
Die Geometrie eines Geoobjektes umfasst die Angaben zur Lage des Geoobjektes auf der Basis eines eindeutigen räumlichen Bezugssystems (Lagekoordinaten). Dabei werden in der Geoinformatik metrische Bezugskoordinatensysteme zugrunde gelegt, die eine quantifizierbare und objektivierbare Standortbestimmung zulassen. Demgegenüber sind die persönlichen (subjektiven) räumlichen Bezugssysteme, die sich in sog. kognitiven Karten (sog. mental maps) ausdrücken lassen und die sich zumeist aus auffälligen Gebäuden, Straßenzügen, Plätzen oder allgemeinen Landmarken (z.B. ein Denkmal oder ein markanter Baum) aufbauen, zur exakten Lagebestimmung nicht geeignet. Insbesondere sind diese Systeme, die auf
Geoobjekte
161
differierenden Raumwahrnehmungen beruhen, individuell oder sozialgruppenspezifisch verschieden. Derartige Bezugssysteme lassen eine genaue objektive und vergleichbare Angabe von Entfernungen oder von Flächenangaben nicht zu. Voraussetzung hierzu ist ein allgemein gültiges und akzeptiertes Normensystem (z.B. das System von Längen-, Flächen- und Raummaßen basierend auf Meterangaben). Trotz dieser erheblichen Unzulänglichkeiten für die Geoinformatik darf nicht verkannt werden, dass sich letztlich das menschliche Handeln in einem subjektiven Bezugssystem und Wahrnehmungsraum vollzieht, die durch Methoden der Informatik (noch ?) unzureichend erfasst werden. In der Geoinformatik werden verschiedene räumliche Bezugssysteme verwandt. So können Geoobjekte in globalen Koordinatensystemen durch z.B. Geographische Koordinaten oder GPS-Koordinaten dargestellt werden (vgl. Kap. 5.2.2 u. 6.5). Als Bezugssystem kann auch eine Karte mit einer speziellen Kartenprojektion dienen, die die (gekrümmte) Erdoberfläche in eine zweidimensionale Ebene abbildet (vgl. Kap. 5.3). Sehr häufig werden lokale Koordinatensysteme und dann (fast) ausschließlich kartesische Koordinatensysteme benutzt (vgl. Kap. 5.2.1 u. 5.5). Zur Abbildung von realen Geoobjekten in Geoinformationssysteme bzw. zur Erfassung ihrer Geometrie werden in einem Geoinformationssystem ebenfalls Bezugssysteme benötigt. Die Darstellung der Geoobjekte erfolgt im sog. Vektormodell oder im sog. Rastermodell. Das Vektormodell basiert auf gerichteten Strecken, d.h. Vektoren, in einem Koordinatensystem, die durch Angabe eines Anfangs- und eines Endpunktes eindeutig bestimmt sind (in einem zwei- oder dreidimensionalen Koordinatensystem durch (x,y)- oder (x,y,z)-Koordinatenangaben). Auch Punkte sind als Vektoren zu verstehen, die ihren Anfang im Ursprung des Koordinatensystems haben. Die Verbindung zweier Punkte stellt ebenfalls einen Vektor dar, zu dessen vollständiger Beschreibung die Angabe des Ausgangs- und des Endpunktes ausreicht. Allerdings werden Geoobjekte allein durch Vektordaten in Form von Koordinatenangaben nicht hinreichend beschrieben. Zusätzlich zu den Koordinatenangaben müssen in einem Geoinformationssystem weitere Informationen erfasst und gespeichert werden, die besagen, welche Vektoren (Punkte) welche Linie, und welche Linie welche Flächen definieren (zur geometrisch-topologischen Modellierung im Vektormodell vgl. Kap. 9.2.2). Anhand der Punkte bzw. der Diskretisierung in Abbildung 5.1 ist nicht eindeutig zu erkennen, wie Flächen definiert ist. Vektoren
Verlauf unregelmäßiger Diskretisierung Linien in der Realität
Abb. 5.1:Darstellungsprinzipien im Vektormodell
Modellierung durch Vektoren
162
Räumliche Objekte und Bezugssysteme
Vektordaten, d.h. Koordinatenfolgen, sind die Standarddatenform graphischer Informationen in der Kartographie, im Vermessungs- und Katasterwesen oder im Ingenieurwesen („Strichzeichnungen“), aus denen sich vielfältige Anwendungen heutiger Geoinformationssysteme entwickelt haben. Sachdaten (vgl. Thematik Kap. 5.1.4) müssen den Vektorinformationen zusätzlich zugewiesen werden. Bei der Darstellung von Geoobjekten im Rastermodell ist das geometrische Grundelement eine Fläche fester Form und Größe, d.h. in der Regel eine quadratische Masche. Dieses recht einfache Rastermodell gehört zu einem viel allgemeineren Raummodell, das aus beliebigen, unterschiedlich großen und geformten Mosaiken bestehen kann, die eine ebene Fläche oder eine beliebige Oberfläche ohne Überschneidungen vollständig ausfüllen (Mosaikmodell, engl. tesselation). Wenngleich als Maschenform auch gleichseitige Dreiecke oder regelmäßige Sechsecke möglich sind, die eine Ebene parkettieren können, werden letztlich immer Quadrate bzw. quadratische Pixel benutzt, die rechentechnisch einfacher zu behandeln sind. Insbesondere liegt dann dem Rastermodell ein kartesisches Koordinatensystem zugrunde (vgl. Kap. 5.2.1). Das Rastermodell spielt in der digitalen Bildverarbeitung eine zentrale Rolle. So wird die Geometrie in einem Rasterbild (z.B. in einem digitalen Satellitenbild oder nach der Erfassung eines Bildes mit einem Scanner) durch quadratische Bildelemente (Pixel, sog. picture elements, vgl. Kap. 2.5.6) aufgelöst. Das dreidimensionale Äquivalent ist eine dreidimensionale Matrix von kubischen Zellen, von sog. Voxeln. Das räumliche Bezugssystem wird durch eine regelmäßig-flächendeckende Anordnung gleichartiger Pixel gebildet, deren Größe zunächst festgelegt sein muss (sog. Rasterweite oder Maschengröße). Jedes Pixel bzw. jede Rasterzelle wird durch die Angabe seines Zeilen- und Spaltenindex geometrisch eindeutig beschrieben. Dabei wird entsprechend der Indizierung einer Matrix vorgegangen (vgl. Abb. 2.6 u. 5.2). Orientierung im Quadratraster
Geoobjekte und Quadratraster
Rastermodell Linien als Raster
Rastermodell Flächen als Raster
Zeile 7, Spalte 4 Pixel (7,4)
Abb. 5.2: Geoobjekte in Rasterdarstellung
Ein Punkt wird näherungsweise durch ein einzelnes Pixel dargestellt. Ein Linienzug wird durch entsprechende Anordnungen zusammenhängender Pixel angenähert erfasst. Linienzüge können dann z.B. durch Folgen von Indexpaaren (Zeile, Spalte) der zugehörigen Pixel beschrieben werden. Eine Fläche ist ebenfalls durch zusammenhängende Pixel darstellbar. Somit sind keine weiteren Zusatzinformati-
Geoobjekte
163
onen zur Modellierung von Flächen wie im Vektormodell notwendig (zur geometrisch-topologischen Modellierung im Rastermodell vgl. Kap. 9.2.3). Herauszustellen sind mehrere Grundprobleme des Rastermodells: Die geometrische Form der Geoobjekte wird durch die Rasterung verändert, gebogene Linien werden durch treppenförmige Rasterstrukturen angenähert, Form und Größe der Geoobjekte werden vergröbert. Stets werden Flächen betrachtet. Punkte wie auch Linien werden durch flächige Pixel dargestellt. Im Rückschluss bedeutet dies, dass ein einzelnes Pixel oder auch mehrere benachbarte Pixel, die im Rastermodell eine Fläche markieren, in der realen Welt auch Einzelpunkte oder Linien bedeuten können. Diese Schwierigkeiten können verringert, aber prinzipiell nicht behoben werden, indem die Maschengröße verkleinert wird. Hierdurch erhöht sich die Auflösung, wobei gleichzeitig die Größe der Rastermatrix und dadurch der notwendige Speicherplatz erheblich ansteigen. Die Genauigkeit einer Koordinatenangabe im Vektormodell wird aber nicht erreicht. 5.1.3
Topologie von Geoobjekten
Die Topologie kennzeichnet die räumlichen Beziehungen von Geoobjekten zueinander. Bei der Betrachtung der Topologie von Geoobjekten wird die Geometrie abstrahiert. Die topologische Sichtweise kann recht gut am Beispiel eines Luftballons verdeutlicht werden, auf dem z.B. Grundrisslinien eines Straßenplans aufgezeichnet sind. Wird Luft abgelassen oder hineingepumpt, so ändert sich stets die Geometrie. Die Topologie, die relative Lage der einzelnen Grundrisslinien zueinander, ändert sich aber nicht! Diese Transformationen wie auch z.B. Drehungen, Streckungen oder Stauchungen sind topologisch invariant.
Linie 2
Linie3
Linie 1
Linie 1
Linie 2
Linie3
Abb. 5.3: Gegenüberstellung von Geometrie und Topologie am Beispiel eines Busliniennetzes
Die Abbildung 5.3 zeigt die Unterschiede von Geometrie und Topologie. Gegenübergestellt sind die Streckenführungen von Buslinien in einem geometrisch exakten Stadtgrundriss und in einer topologischen Karte, die nur das abstrakte Streckennetz wiedergibt und die geometrisch exakte Linienführung abstrahiert. Diese Darstellung kann noch bei größeren Veränderungen der Linienführungen
164
Räumliche Objekte und Bezugssysteme
wie Umleitungen und Haltestellenverlegungen gültig sein (z.B. bei Umleitung von Linie 2 über die nördliche Parallelstraße in Abb. 5.3). Die topologische Darstellung enthält sämtliche Informationen, die ein Fahrgast zur Orientierung und Routenplanung benötigt: Informationen über Umsteige- oder Haltemöglichkeiten sowie generell über Verbindungsmöglichkeiten zwischen Haltestellen. Diese Alltagsbegriffe benennen dabei zentrale topologische Konzepte: Nachbarschaften, Überlagerungen bzw. Überschneidungen oder Teilmengenbeziehungen, die nicht nur für Netzwerke gelten. Die Abbildung 5.4 systematisiert die sechs möglichen Beziehungstypen zwischen den drei geometrischen Grundformen Punkt, Linie und Fläche in einem zweidimensionalen Raum: Zwei Flächen sind benachbart, falls sie eine gemeinsame Grenze (mindestens einen gemeinsamen Grenzpunkt) besitzen. Zwei Linien sind benachbart, falls der Endpunkt der einen mit dem Anfangspunkt der anderen Linie identisch ist. Zwei Punkte sind benachbart, wenn sie durch eine Strecke miteinander verbunden sind. Allerdings ist es auch möglich, Nachbarschaftsbeziehungen inhaltlich zu definieren. So sind A und B benachbarte Punkte, wenn sie direkt durch eine Strecke mit einer bestimmten Eigenschaft verbunden sind (z.B. Verbindung zweier Städte durch eine ICE-Linie). Zwei Objekte überlagern bzw. schneiden sich, wenn sie (mindestens) einen gemeinsamen Punkt besitzen. Diese Definition macht nur für Linien, Flächen und Volumen Sinn. Sie ist für das Schneiden von Linien unmittelbar einsichtig. Den Durchschnitt von sich überlagernden Flächenkategorien (z.B. Gliederung einer Gemarkung nach Besitzparzellen und nach Anbautypen) kann man als Schneiden von Flächen ansehen. Eine Teilmengenbeziehung liegt z.B. dann vor, wenn ein Punkt auf einer Linie oder in einer Fläche liegt oder wenn eine Fläche eine Teilfläche oder eine Linie enthält. Herauszustellen ist, dass hier Topologie und topologische Beziehungen von Geoobjekten untereinander erläutert werden. Davon unabhängig ist die topologische Modellierung von Geoobjekten im Hinblick auf ihre Darstellung in Geoinformationssystemen zu sehen (vgl. Kap. 9.2.2 u. 9.2.3).
Punkt zu Punkt
Punkt zu Linie
Punkt zu Fläche
Linie zu Fläche
Linie zu Linie
Fläche zu Fläche
Abb. 5.4: Topologische Beziehungstypen von Punkt, Linie und Fläche
Geoobjekte
5.1.4
165
Thematik von Geoobjekten
Ein Geoobjekt besitzt immer eine Thematik, die im Allgemeinen durch mehrere Attribute (Merkmale, Variablen) gekennzeichnet wird. Die Attribute können verschiedene Skalenniveaus aufweisen (vgl. Tab. 5.2): Nominalskala (z.B. Name, Landnutzungstyp: Feuchtwiese), Ordinal- bzw. Kardinalskala (z.B. Eignungsstufung: 13), Intervallskala (z.B. Bodentemperatur: 2 Grad Celsius), Ratioskala (z.B. Tiefe des B-Horizontes: 0,75 m). Diese Sachdaten können zudem in mehreren Datenbanken (unterschiedlicher Herkunft, Aktualität, Genauigkeit) mit differierenden Zugriffsrechten vorgehalten werden. Tabelle 5.2: Skalenbereiche der Statistik Skala
Eigenschaften und Beispiele
erlaubte Operationen
Nominalskala Ordinalskala Intervallskala
Namen, Postleitzahlen, Zahlen als Codierungen Ränge, Bewertungsstufen, Schulnoten
vorhanden oder nicht vorhanden und gleich oder ungleich zusätzlich zur Nominalskala Vergleichsoperationen zusätzlich zur Ordinalskala Addition u. Subtraktion, Betrachtung von Intervallen (30° C ist um 10° C wärmer als 20° C, aber nicht: 30° C ist doppelt so warm wie 15° C) zusätzlich zur Intervallskala Multiplikation u. Division, Betrachtung von Verhältnissen
Ratioskala
metrische Daten mit nicht eindeutigem Nullpunkt: Grad Celsius
metrische Daten mit eindeutigem Nullpunkt: Länge in m, Flächengröße in m2, Alter in Jahren
Die Beschreibung, Bearbeitung und Speicherung der verschiedenen Thematiken von Geoobjekten in einem Geoinformationssystem kann durch das Ebenenprinzip und durch das Objektklassenprinzip erfolgen (vgl. Kap. 9.2.5). Beim Ebenenprinzip werden die Geometriedaten der Objekte und deren Attribute streng nach den verschiedenen thematischen Bedeutungen getrennt und in verschiedenen Ebenen (engl.: layer, daher auch Layerprinzip) vorgehalten. Das Objektklassenprinzip geht von einer hierarchischen Anordnung verschiedener Thematiken mit Teilmengenbeziehungen der Themen aus. 5.1.5
Dynamik von Geoobjekten
Geoobjekte können sich hinsichtlich ihrer Thematik im Zeitablauf verändern. So werden Messstationen, die Parameter zur Wetterbeobachtung erfassen, im Jahresverlauf unterschiedliche Werte von z.B. Lufttemperatur, Luftdruck oder Niederschlag messen. Der Ertrag von Weinanbauflächen im Rheingau wird sich im Verlauf mehrerer Ernteperioden ändern. Die beiden angeführten Beispiele besitzen als Gemeinsamkeit, dass sich jeweils ihre Lage und ihr Raumbezug nicht ändern. Die angenommenen Geoobjekte, d.h. die Messstationen und die einzelnen Weinanbauflächen, besitzen im Zeitablauf (in der Regel) konstante Lagekoordinaten bzw.
166
Räumliche Objekte und Bezugssysteme
Grenzlinien. Diese Geoobjekte besitzen eine zeitliche Variabilität nur hinsichtlich ihrer Thematik. Dabei können die Merkmale, d.h. die klimatischen Parameter oder die Ertragsmerkmale, gleich bleiben und sich deren Merkmalsausprägungen ändern. Jedoch können im Zeitablauf neue Messgrößen erhoben werden (z.B. zusätzlich Windrichtung und Windstärke oder hinsichtlich der Anbauflächen neue betriebswirtschaftliche Merkmale). Demgegenüber können Geoobjekte im Zeitablauf auch eine räumliche Variabilität aufweisen und ihre Lage oder Ausdehnung verändern. Ferner sind Variationen von Topologie und Nachbarschaftsbeziehungen möglich. Die raum-zeitliche Variabilität von Geoobjekten ist allerdings schwer zu erfassen oder in einem Geoinformationssystem darzustellen. Zwar bestehen Messgeräte, die eine kontinuierliche Datenaufnahme ermöglichen (z.B. Seismographen oder Sonnenscheinschreiber), zur Darstellung in einem Geoinformationssystem ist aber immer eine Diskretisierung notwendig. Insbesondere werden raum-zeitliche Prozesse nur in diskreter Form quantifiziert. Die Geoobjekte werden nach ihrer Geometrie, Topologie und Thematik in mehrere einzelne Zeitschnitte aufgelöst(zur Darstellung von raum-zeitlichen Prozessen in Geoinformationssystemen vgl. Ott u. Swiaczny 2001). So wird die sich von einem Emittenten ausbreitende Schadstoffwolke (z.B. eine Abgasfahne aus einem Kamin) durch Messwerte zu verschiedenen Zeitpunkten an mehreren einzelnen, räumlich um den Emittenten verteilten Messstationen erfasst. Hierdurch werden also Raum und Zeit diskretisiert. Auf der Basis derartiger empirischer Werte kann dann eine quantitative Modellierung der raum-zeitlichen Variabilität versucht werden. In Klimatologie und Hydrologie oder auch zur Ausbreitung von Lärm oder von Schadstoffen in Umweltmedien sind zur raum-zeitlichen Modellierung recht komplexe dynamische Modelle und Methoden entwickelt worden (vgl. u.a. Trapp u. Matthies 1998). 5.1.6
Dimensionen von Geoobjekten
Die geometrische Dimension eines Geoobjektes ist mit der Zahl der Koordinatenachsen in einem kartesischen Koordinatensystem identisch, die zur vollständigen (geometrischen) Beschreibung notwendig sind. Zur Quantifizierung der Größe eines Geoobjektes können je nach seiner geometrischen Dimension Länge, Flächengröße und Volumen berechnet werden. Punkte besitzen weder Länge noch Fläche. Linien haben nur eine (endliche) Länge. Flächen besitzen keine Länge, aber einen Umfang und eine Flächengröße. Ein Körper gestattet die Berechnung eines Volumens. In diesem Fall wird er als Volumenkörper betrachtet. Darüber hinaus ist die Quantifizierung der Körperoberfläche möglich. Entsprechend den geometrischen Dimensionen können mehrere topologische Dimensionen unterschieden werden (Knoten, Kante, Masche). Auch nach der Thematik ergeben sich verschiedene thematische Dimensionen, die die Anzahl der beschreibenden Merkmale eines Objektes bezeichnen. Entsprechend zur statistischen Methodenlehre werden n-dimensionale Merkmalsräume unterschieden. So sind z.B. zur Beschreibung von Straßenobjekten im Amtlichen Topographisch Kartographischen Informationssystem 12 Attribute notwendig (vgl. Abb. 6.19).
Koordinatensysteme
5.2 5.2.1
167
Koordinatensysteme Metrische Räume und kartesische Koordinaten
Rechtwinklige Koordinatensysteme besitzen eine zentrale Bedeutung in der Geoinformatik. So bilden kartesische Koordinatensysteme die Grundlage der Darstellung von Geoobjekten im Vektor- bzw. auch im Rastermodell und somit der Verarbeitung in Geoinformationssystemen. Die geometrischen Berechnungen der Koordinatengeometrie oder die Verfahren der graphischen Datenverarbeitung setzen (normalerweise) kartesische Koordinatensysteme voraus. Allgemein werden als Bezugssysteme sog. metrische Räume definiert, die aus einer (nicht leeren) Menge M und einer Metrik bestehen. Dabei ist eine Metrik eine reellwertige Funktion, Abstandsfunktion oder Distanz d(a,b) zwischen zwei Elementen a und b der Menge M, die drei Bedingungen erfüllt: 1)
d(a,b) t 0 für alle a,b aus M,
d(a,b) = 0 genau dann, wenn a = b
2)
d(a,b) = d(b,a)
(Symmetrie)
3)
d(a,b) d d(a,c) + d(c,b)
(Dreiecksungleichung)
In der Geoinformatik hat die sog. Euklidische Metrik die größte Bedeutung (zu weiteren Distanzmaßen insbesondere in schiefwinkligen Koordinatensystemen vgl. Lehrbücher zur Clusteranalyse wie z.B. Bock 1974, Späth 1977): dn (X i , X j )
n
¦ x 1
ik
x jk 2 mit X i
xi1 , xi 2 ,...xin und
Xj
x j1, x j 2 ,...x jn
Im üblichen Anschauungsraum entspricht die Euklidische Metrik der Luftlinienentfernung. So zeigt die Abbildung 5.5 metrische Räume mit rechtwinkligen Achsen. Um die Doppelindizierung in der obigen Formel zu vermeiden, werden hierbei die Koordinatenachsen mit x, y und z gekennzeichnet. Derartige n-dimensionale kartesische Koordinatensysteme bestehen aus n paarweise aufeinander senkrecht stehenden (d.h. orthogonalen) Koordinatenachsen mit identischem Ursprung und gleicher Achseneinteilung. Dann ist die Lage eines Objektes durch Angabe der Achsenabschnitte (d.h. durch die Koordinaten) eindeutig darstellbar. y
z (x2,y2)
y1 y2
(x1,y1,z1)
(x1,y1) x1 d(p1,p2)=
x2
(x2,y2,z2)
x
((x1-x2)2+(y1-y2)2)
y
d(p1,p2) =
Abb. 5.5: Kartesische Räume mit der Euklidischen Metrik
x
((x1-x2)2+(y1-y2)2+(z1-z2)2)
168
Räumliche Objekte und Bezugssysteme
Eine Verallgemeinerung der Euklidischen Metrik stellen die Lr-Metriken dar (Minkowski-r-Metriken). Für r=2 ergibt sich die Euklidische Metrik und für r=1 die sog. City-Block-Metrik, der anschaulich ein rechtwinkliges Straßennetz zugrunde liegt und die Entfernung zwischen zwei Punkten entlang der rechtwinkligen Straßen und nicht als Diagonalverbindung bestimmt wird: Lr ( X i , X j )
§ ¨¨ ©
1/ r
r· xit x jt ¸¸ 1 ¹
¦
k
mit r natürliche Zahl.
Distanzen operationalisieren Ähnlichkeiten in Klassifikationsverfahren (vgl. Kap. 3.5.3). Dabei dürfen streng genommen Lr-Distanzen nur angewandt werden, wenn die Klassifikationsmerkmale unabhängig (d.h. unkorreliert) sind. Erst dann liegt ein rechtwinkliges Koordinatensystem vor, da der Kosinus des Winkels zwischen zwei Koordinatenachsen, die zwei Variablen darstellen, dem Korrelationskoeffizienten dieser Variablen entspricht (rxy= 0 = cos D Æ D=90°). Allerdings ist diese Voraussetzung in der Realität (fast) nie gegeben. Aus diesem Grund wird zuweilen einer Clusteranalyse (Distanzgruppierung, vgl. Kap. 3.5.3) eine Hauptkomponentenanalyse vorgeschaltet, die unkorrelierte Hauptkomponenten liefert, nach denen klassifiziert wird (zum Ansatz der Hauptkomponentenanalyse vgl. z.B. Bahrenberg u.a. 1992 S. 198ff. u. Bortz 1999 S. 495ff.). Wenn dennoch mit korrelierten Merkmalen klassifiziert wird, erhalten die stärker korrelierten Merkmale indirekt ein stärkeres Gewicht als schwach oder nicht korrelierte Merkmale. Hierbei kann ein Zusammenhang zwischen Cluster- und Hauptkomponentenanalyse nachgewiesen werden (vgl. de Lange 1981): Wenn die Euklidische Distanz auf korrelierte und standardisierte Variablen angewandt wird, so sind die dann errechneten Ähnlichkeiten zwischen Objekten identisch mit den Euklidischen Distanzen zwischen unkorrelierten, aber mit den Wurzeln aus den entsprechenden Eigenwerten gewichteten Hauptkomponenten. Vor diesem Hintergrund ist eine Klassifizierung nach korrelierten Merkmalen durchaus möglich, wenn die interne Gewichtung der Merkmale erhalten bleiben soll und diese Gewichtung durch eine Hauptkomponentenanalyse erkannt und als sinnvoll verifiziert werden kann. Zur Verarbeitung von korrelierten Merkmalen kann auch die Mahalanobis-Distanz herangezogen werden, die Korrelationen der Merkmale eliminiert (vgl. Steinhausen u. Langer 1977 S. 59ff.): dM (Xi , X j )
k
k
m 1
l 1
¦ ¦ x ml
im
x jm xil x jl s ml -1
mit s Element aus S , S = Varianz-Kovarianzmatrix.
5.2.2
Polarkoordinaten und geographische Koordinaten
Neben den kartesischen Koordinaten spielen in der Geoinformatik Polarkoordinaten eine besondere Rolle. Die Abbildung 5.6 verdeutlicht die Darstellung in einem zwei- und in einem dreidimensionalen Fall. Dabei wird ein Punkt durch die Koordinaten Pa(r,D) bzw. Pb(r,D,E), also durch den Abstand zum Koordinatenursprung und durch Winkel, dargestellt.
Koordinatensysteme
169 Z z E
Y Pa
y
x
D
Pb
y Y
D x
X
X
Abb. 5.6: Polarkoordinaten und kartesische Koordinaten
Zur Umrechnung zwischen kartesischen Koordinaten und Polarkoordinaten bestehen recht einfache Formeln, die hier nur für den dreidimensionalen Fall angegeben werden. Der zweidimensionale Fall ergibt sich hieraus durch z = 0, E = 90° und dann cos E = 0 bzw. sin E = 1 (zur Orientierung vgl. Abb. 5.6): P (r,D,E)
dann:
x = r sin E cos D
P (x,y,z) dann:
r=
x
2
y2 z2
y = r sin E sin D
D = arctan y/x (für xz0)
z = r cos E
E = arctan
x
2
y2
z
für x=0 und y=r ist D= S/2 für x=0 und y=-r ist D= -S/2
Durch derartige Polarkoordinaten ist analog zum kartesischen Koordinatensystem jeder Punkt eindeutig zu identifizieren und zu quantifizieren. Falls r konstant ist, werden durch Polarkoordinaten recht einfach sämtliche Punkte auf einer Kugeloberfläche beschrieben. Zentrale Bedeutung besitzen Polarkoordinaten zur Lagebestimmung eines Punktes auf der Erde, die vereinfacht durch eine Kugel dargestellt wird. Der Abstand zum Kugelmittelpunkt wird mit dem mittleren Erdradius (R = 6.371 km) gleichgesetzt, die Lage eines Punktes ergibt sich dann lediglich durch zwei Winkel, die im Falle der Erdkugel als Geographische Breite (M) und Geographische Länge (O) bezeichnet werden (vgl. Abb. 5.7). Die Geographische Breite (M) und Geographische Länge (O) bauen das (bekannte) Geographische Koordinatensystem auf: - Der Äquator ist der Kreis, dessen Ebene durch den Erdmittelpunkt senkrecht zur Rotationsachse der Erde steht. - Die parallel zum Äquator verlaufenden Kreise werden Breitenkreise oder Parallelkreise genannt. Als Geographische Breite wird der Winkel zwischen einem Punkt auf der Kugeloberfläche und der Äquatorebene entlang des zugehörigen Meridians bezeichnet (0° = Äquator, 90° = Nordpol, -90° = Südpol). Zur Vermeidung negativer Werte wird von nördlicher oder südlicher Breite gesprochen. Die Geographische Breite definiert eindeutig einen Breitenkreis. - Die vertikal zum Äquator (und zu den Parallelkreisen) und durch die beiden Pole verlaufenden Kreise werden Längenkreise oder Meridiane genannt. Als
170
Räumliche Objekte und Bezugssysteme
Nullmeridian wurde der Längenkreis durch die Sternwarte von Greenwich bei London vereinbart. Als Geographische Länge wird der Winkel zwischen der Meridianebene eines Punktes auf der Kugeloberfläche und der Nullmeridianebene entlang der Äquatorebene bezeichnet. Vom Nullmeridian wird jeweils in östliche und westliche Richtung bis 180° gezählt. - Aus Breiten- und Längenkreisen wird das Geographische Gradnetz aufgebaut. - Kreise mit demselben Radius wie die Erdkugel werden Großkreise genannt. Sämtliche Meridiane und der Äquator sind Großkreise. Nördlich und südlich des Äquators verringert sich der Umfang der Parallelkreise (Konvergenz der Meridiane zu den Polen). Eine Distanz von einem Grad Geographischer Länge entspricht am Äquator einem Abstand von ca. 111 km und bei 60° Breite nur noch ca. 56 km (bei Kugelgestalt der Erde mit 6371 km Radius). Die Winkel werden zumeist im 60er System angegeben: Ein Kreis hat 360 Grad, wobei ein Grad aus 60 Minuten und eine Minute aus 60 Sekunden bestehen. Für die Osnabrücker Innenstadt gilt z.B. 52° 16‘ 35‘‘ nördliche Breite und 8° 02‘ 39‘‘ östliche Länge. Zur Umrechnung ins Dezimalsystem werden die Minutenangabe durch 60 und die Sekundenangabe durch 3600 geteilt und beide Ergebnisse zur Gradzahl addiert: 52,276388 nördliche Breite und 8,044167 östliche Länge. Auf der Kugeloberfläche berechnen sich Entfernungen nicht mit Hilfe der Euklidischen Metrik, durch die in einem orthogonalen (rechtwinkligen) Raum der kürzeste Weg zwischen zwei Punkten bestimmt ist. Auf einer Kugel ist die geringste Distanz zwischen zwei Punkten A und B ein Teil des Großkreises, der bereits durch diese Punkte eindeutig definiert ist. Diese kürzeste Verbindung wird Orthodrome genannt, deren Länge bestimmt wird durch: Distanz (A,B) =
R*G
mit R = Kugelradius, G Winkel im Bogenmaß zwischen A und B
Werden Geographische Breiten- und Längenangabe zur Bestimmung von A (OA,MA) und B (OB, MB) benutzt, so berechnet sich die Entfernung zwischen A und B durch den Kosinussatz der sphärischen Trigonometrie. Hierbei wird vereinfacht von einer Kugelgestalt der Erde ausgegangen: Distanz (A,B) =
R * cos-1 (sin MA * sin MB + cos MA * cos MB * cos (OA - OB) )
55°N 60°E A Winkel M Breite Latitude
M=55° O=60° 0
20
40
60
80
G
MA 'O
B MB
Winkel O Länge Longitude
Abb. 5.7:
Geographisches Koordinatensystem und kürzeste Entfernung zwischen zwei Punkten A und B auf der Kugeloberfläche als Entfernung auf einem Großkreis
Koordinatensysteme
5.2.3
171
Homogene Koordinaten
In der Koordinatengeometrie, insbesondere bei Berechnungen und bei Transformationen zwischen (kartesischen) Koordinatensystemen bieten homogene Koordinaten gegenüber kartesischen Koordinaten erhebliche Vorteile. Jeder Punkt (x,y,z) kann dabei durch seine homogenen Koordinaten (m,n,o,p) dargestellt werden, wobei gilt: m = p*x, n = p*y, o = p*z mit einem beliebigen Wert für p (p0). Von kartesischen Koordinaten (x,y,z) kann sehr leicht durch (x,y,z,1) zu homogenen Koordinaten übergegangen werden (umgekehrt: von (m,n,o,p) zu (m/p,n/p,o/p)). Mit Hilfe homogener Koordinaten kann schnell die relative Lage von Punkten und (gerichteten) Geraden bestimmt werden. Verläuft z.B. die Gerade durch die Punkte von P1 = (a1,b1) nach P2 = (a2,b2) (mit Richtung von P1 nach P2), liegt dann ein dritter Punkt P3 = (a3,b3) links oder rechts oder sogar auf der Geraden? Zur Lösung dieser Aufgabe wird die Matrix der homogenen Koordinaten aus P3 P1 und P2 gebildet (Reihenfolge beachten!) und ihre Determinante ausgerechnet. Bei det M (P3,P1,P2) < 0 liegt der Punkt rechts der Geraden, bei det M (P3,P1,P2) > 0 links der Geraden und bei det M (P3,P1,P2) = 0 auf der Geraden. Weitere Anwendungsmöglichkeiten finden sich in der Koordinatengeometrie sowie gerade bei Transformationen (vgl. Pavlidis 1982 und Preparata u. Shamos 1985, Bartelme 2000 S. 87ff. und Kap. 5.2.4). 5.2.4 5.2.4.1
Koordinatentransformationen Georeferenzierung und Koordinatentransformationen
In der Geoinformatik werden Geoobjekte in vielen Koordinatensystemen erhoben. Häufig liegt der Datenerfassung kein wohldefiniertes Bezugssystem mit z.B. Koordinaten der Landesvermessung, sondern Gerätekoordinaten zugrunde. Dies ist der Regelfall, wenn z.B. über ein Digitalisiertablett aus einer Vorlage Geometrien ermittelt werden, die dann zunächst in irgendeinem rechtwinkligen Koordinatensystem vorliegen (vgl. Kap. 6.2.1). Da aber nicht diese, sondern die Koordinaten in einem bestimmten Koordinatensystem interessieren, werden Umrechnungen notwendig (z.B. Maßstabsänderungen, Drehungen des Koordinatensystems, da fast immer die Vorlage auf dem Digitalisiertablett nicht exakt eingenordet ist). Besondere Transformationen müssen gerechnet werden, wenn die Vorlage z.B. aufgrund von Alterungsprozessen oder bei einem Schrägluftbild verzerrt ist. Transformationsaufgaben liegen auch vor, wenn eine Datenerhebung im Gelände z.B. aufgrund von Messfehlern in einem schiefwinklig verzerrten Koordinatensystem durchgeführt wurde. Auch bei der Datenerfassung durch Scannersysteme, die Geoobjekte mit Pixelkoordinaten liefern, ergeben sich ähnliche Aufgaben. Somit stellt sich jeweils die zentrale Aufgabe, die Ausgangsdaten in ein Standardkoordinatensystem wie z.B. in das übliche Koordinatensystem der Landesvermessung zu transformieren. Dieser Prozess wird mit Georeferenzierung oder Geocodierung
172
Räumliche Objekte und Bezugssysteme
bezeichnet, bei dem die Gerätekoordinaten auf ein reales geographisches Bezugssystem referenziert werden. Dann sind je nach Fragestellung auch ein Wechsel der Kartenprojektion und die Darstellung in einem anderen Kartennetzentwurf möglich. Geoinformationssysteme bieten hierzu vielfältige Möglichkeiten, die Kenntnisse von Kartenprojektionen und Transformationen voraussetzen. Die Ähnlichkeitstransformationen, die ein rechtwinkliges Koordinatensystem wieder in ein rechtwinkliges Koordinatensystem überführen, sind eine Sonderform der affinen Koordinatentransformationen, die wiederum zur Gruppe der linearen Abbildungen gehören, die sich durch (einfache) Matrixmultiplikationen darstellen lassen (zur Matrixmultiplikation vgl. Kap. 3.4.2). Hierzu zählen auch die projektiven Koordinatentransformationen, die bei perspektivischen Abbildungen auftreten (zu mathematischen Grundlagen vgl. Bär 1996 Kap. 6 u. 7 und Aumann u. Spitzmüller 1993 Kap. 7 u. 8). Daneben lassen sich nicht-lineare Koordinatentransformationen nur durch Polynomgleichungen höherer Ordnung darstellen.
Affintransformation
Ähnlichkeitstransformation
Projektive Transformation
Polynomtransformation
Abb. 5.8: Koordinatentransformationen (nach Bill u. Resnik 2000 S. 120)
5.2.4.2
Affine Koordinatentransformationen
Hier werden nur umkehrbar eindeutige affine Abbildungen A betrachtet, die zwischen zwei kartesischen Koordinatensystemen definiert sind (A: Rn Æ Rn), die Geradlinigkeit, Parallelität und Teilverhältnisse auf jeder Geraden erhalten, aber Längen, Winkel, Flächeninhalt und Orientierungen (Umlaufsinn) ändern können. Zu den affinen Transformationen gehören vor allem die Ähnlichkeitstransformationen, die sich aus einer Drehung, Verschiebung oder aus einer Skalierung (Multiplikation mit einem einzigen Faktor, Maßstabsveränderung) zusammensetzen. Für zweidimensionale kartesische Koordinatensysteme kann jede affine Abbildung durch zwei Gleichungen oder in Matrizenschreibweise beschrieben werden: x' S x ( A x B y ) Tx y ' S y (C x D y ) T y § x' · ¨¨ ¸¸ © y'¹
§Sx ¨ ¨ 0 ©
0 · § A B · § x · § Tx · ¸ ¨ ¸ ¨ ¸ ¨ ¸ S y ¸¹ ¨© C D ¸¹ ¨© y ¸¹ ¨© T y ¸¹
Koordinatensysteme
173
Hierbei sind x und y die Koordinaten im Ursprungssystem und x´ und y´ die Koordinaten im Zielsystem. Weiter gelten für diese Abbildung: - Die einfache Drehung um den Ursprung des Koordinatensystems, die die Rechtwinkligkeit und die Größenverhältnisse erhält (keine zusätzliche Dehnung oder Stauchung und Verschiebung), wird durch eine Matrix beschrieben, wobei D der Drehwinkel (gegen den Uhrzeigersinn) ist: § cos D ¨¨ © sin D
§ A B· ¨¨ ¸¸ ©C D¹
sin D · ¸ cos D ¸¹
Falls eine Drehung mit vorgegebenem Winkel um einen beliebigen Fixpunkt ausgeführt werden soll, müssen zunächst der Fixpunkt in den Ursprung verschoben, die Drehung ausgeführt und schließlich die Verschiebung rückgängig gemacht werden. - Die Translation (Verschiebung) des Koordinatenursprungs in X-Richtung um den Wert Tx und in Y-Richtung um den Wert Ty wird durch den Verschiebungs- oder Translationsvektor ausgedrückt: § Tx · ¨ ¸ ¨T y ¸ © ¹
- Die Maßstabsveränderung wird durch zwei unterschiedliche Maßstabsfaktoren (Sx,Sy) dargestellt, die die affine Verzerrung bewirken. Aus einem Quadrat wird ein Parallelogramm, aus einem Kreis wird eine Ellipse. Eine Ähnlichkeitstransformation ergibt sich, falls Sx und Sy identisch sind. Der dreidimensionale Fall kann durch eine entsprechende Gleichung beschrieben werden, wobei Si Maßstabsveränderungen und Ti Translationen bedeuten: § x' · ¨ ¸ ¨ y'¸ ¨ z' ¸ © ¹
§Sx ¨ ¨ 0 ¨ 0 ©
0 Sy 0
· §A B ¸ ¨ ¸ ¨D E S z ¸¹ ¨© G H 0 0
C · § x · § Tx · ¸ ¨ ¸ ¨ ¸ F ¸ ¨ y ¸ ¨Ty ¸ I ¸¹ ¨© z ¸¹ ¨© Tz ¸¹
Die Drehung um den Ursprung kann in drei Drehungen, d.h. drei Drehwinkel, um die drei Koordinatenachsen zerlegt werden, die hintereinander auszuführen sind. Für die Drehung um die z-Achse ergibt sich als Drehmatrix: § cos D ¨ ¨ sin D ¨ 0 ©
sin D cos D 0
0· ¸ 0¸ I ¸¹
Die gesamte Transformation kann mit Hilfe homogener Koordinaten als einzige Matrixmultiplikation dargestellt werden, wodurch sich die Rechnungen vereinfachen lassen. Dies begründet letztlich (auch) den Einsatz von homogenen Koordinaten. Der dreidimensionale Fall (Multiplikation von 4 x 4 Matrizen) kann natürlich auch entsprechend auf den zweidimensionalen Fall eingeschränkt werden (Multiplikation von 3 x 3 Matrizen, Fortfall der dritten Zeile bzw. Spalte):
174
Räumliche Objekte und Bezugssysteme § x' · ¨ ¸ ¨ y '¸ ¨ z' ¸ ¨ ¸ ¨1¸ © ¹
5.2.4.3
§Sx ¨ ¨ 0 ¨ 0 ¨ ¨ 0 ©
0
0
Sy 0
0 Sz
0
0
0· § 1 ¸ ¨ 0¸ ¨ 0
0 ¸¸ ¨¨ 0 1 ¸¹ ¨© 0
0 0 Tx · § A B ¸ ¨ 1 0 Ty ¸ ¨ D E
0 1 Tz ¸¸ ¨¨ G H 0 0 1 ¸¹ ¨© 0 0
C F I 0
0· § x · ¸ ¨ ¸ 0¸ ¨ y ¸
0 ¸¸ ¨¨ z ¸¸ 1 ¸¹ ¨© 1 ¸¹
Projektive Transformationen
Projektive Koordinatentransformationen erweitern die Definition affiner Abbildungen, wobei zu den projektiven Koordinatentransformationen zusätzlich auch nicht umkehrbar eindeutige Abbildungen gehören. Besondere Bedeutung vor allem in der Photogrammetrie besitzen die sog. Zentralprojektionen (perspektivische Projektionen wie z.B. Photographien). Hierbei werden jeder Punkt einer Ebene eindeutig als Punkt einer anderen und jede Gerade wieder als Gerade abgebildet. Allerdings entspringen hierbei im Gegensatz zu einer affinen Abbildung die Projektionsstrahlen einem festen Zentrum, so dass ehemals parallele Geraden in der Ursprungsebene sich jetzt in der Projektionsebene im unendlichen Punkt schneiden. Zur Darstellung von Projektionen sind vor allem homogene Koordinaten geeignet. Insbesondere kann eine allgemeine Transformationsgleichung aufgestellt werden, die sämtliche Aspekte wie Perspektive, Translation, Skalierung und Drehung berücksichtigt (vgl. Bartelme 2000 S. 102). 5.2.4.4
Polynomische Transformation
Affine Transformationsgleichungen können anstelle in Matrixschreibweise auch durch Polynome erster Ordnung beschrieben werden (vgl. Kap. 5.2.4.2): x' a 0 a1 x a 2 y y´ b0 b1 x b2 y
mit z.B. a 0
T x und a1
S x A sowie a 2
S x B (vgl. Kap. 5.2.4.2)
Derartige einfache Gleichungen liefern in der Fernerkundung im Zusammenhang mit der Entzerrung häufig keine zufrieden stellenden Ergebnisse. Zur Transformation der Pixelkoordinaten im Ausgangsbild auf reale Bezugskoordinaten werden in der digitalen Bildverarbeitung zumeist Polynome bis maximal dritter Ordnung herangezogen (vgl. Kap. 10.6.1): Polynome zweiter Ordnung: x' a0 a1 x a 2 y a3 x y a4 x 2 a5 y 2 y´ b0 b1 x b2 y b3 x y b4 x 2 b5 y 2
Polynome dritter Ordnung: x ' a 0 a1 x a 2 y a 3 x y a 4 x 2 a5 y 2 a 6 x 2 y a 7 x y 2 a8 x 3 a 9 y 3 y ' b0 b1 x b2 y b3 x y b4 x 2 b5 y 2 b6 x 2 y b7 x y 2 b8 x 3 b9 y 3
Koordinatensysteme
5.2.4.5
175
Passpunktbestimmung und Ausgleichsrechnung
Zur Durchführung einer Transformation (u.a. Georeferenzierung) müssen zunächst die zugehörige Transformationsgleichung aufgestellt und deren Koeffizienten ai und bi bestimmt werden. Dazu werden ausgewählte Passpunkte mit Koordinatenangaben in beiden Systemen (sog. Referenzpunkte) benötigt. Da die Koordinaten (xi,yi) im Ursprungskoordinatensystem den Koordinaten (x´i,y´i) im Zielkoordinatensystem entsprechen, kann ausgehend von den Koordinaten dieser Passpunkte das Gleichungssystem gelöst werden, das die Koeffizienten ai und bi liefert. Anschließend wird diese Transformationsgleichung dazu benutzt, sämtliche Ausgangskoordinaten bzw. sämtliche Pixelkoordinaten des Ausgangsbildes in das neue Koordinatensystem zu überführen. Für den wichtigen Fall Polynome zweiter Ordnung ergibt sich für m Referenzpunkte (xi,yi) bzw. (x´i,y´i) in Matrixschreibweise: § x' · ¨ 1¸ ¨ x2' ¸ ¨ ¸ ¨ ... ¸ ¨ x' ¸ © m¹
§ 1 x1 ¨ ¨ 1 x2 ¨ ¨ ¨ 1 xm ©
y1 y2 ym
§ a0 · ¨ ¸ x1 y1 x12 y12 · ¨ a1 ¸ ¸ x2 y 2 x22 y 22 ¸ ¨¨ a 2 ¸¸ oder X´= W * A. ¸ ¸ ¨ a3 ¸ 2 2 ¸ ¨a ¸ xm y m xm ym ¹ ¨ 4 ¸ ¨a ¸ © 5¹
Entsprechend gilt für die y-Koordinaten Y´ = W * B. Falls nun m gleich der Anzahl der Koeffizienten k des Polynoms ist (mit k = [(n+1)*(n+2)]/2, n Ordnung des Polynoms), kann die Matrix W invertiert werden (bei Polynomen zweiter Ordnung n=2 und k=6). Die Invertierung der m x m-Matrix W führt dann zu exakten Lösungen für die Koeffizienten ai und bi bzw. zu den Matrizen A und B: W 1 X ´ A
und
W 1 Y ´ B
Allerdings werden in den meisten Fällen über die mindestens benötigten Passpunkte (wesentlich) mehr Referenzpunkte herangezogen. Dann gilt für m t k : X'
W A Ex
oder
X ' W A
Ex
J
Ex
X ' U
Y'
W B Ey
oder
Y ' W B
Ey
J
Ey
Y ' V
Hierbei sind Ex = {(x´i - ui)} und Ey = {(y´i - vi)} die Abweichungen zwischen den vorgegebenen Koordinaten der Referenzpunkte im Zielsystem (x´i,y´i) und den Koordinaten (ui,vi) die aufgrund der Transformation aus den Koordinaten (xi,yi) bestimmt werden. Aufgrund von Ungenauigkeiten der Passpunktbestimmung, die bei verschiedenen Passern zudem unterschiedlich ausfallen, ist es in der Praxis nicht möglich, eine Abbildung zu finden, die sämtliche Referenzpunkte des Ausgangssystems exakt auf die zugehörigen Punkte im Zielsystem transformiert, so dass gilt: (x´i - ui) = 0 und (y´i - vi) = 0. Mathematisch ausgedrückt bedeutet dies, dass mit m > k die m u k -Matrix W nicht invertiert werden kann, was zur Formulierung eines sog. linearen Ausgleichsproblems führt, das die Abweichungen minimiert:
176
Räumliche Objekte und Bezugssysteme
X ' W A
2
Y ' W B
2
= =
X W A X W A Y W B Y W B T
'
T
'
'
=
'
=
¦ x u ¦ y v
2
' i
i
' i
i
2
Å minimal Å minimal
für die Norm einer Matrix, die mit dem Betrag einer Zahl verDabei steht gleichbar ist. Man kann zeigen (vgl. Stoer 1976 S. 184ff., Schowengerdt 1997 S. 336ff.), dass für Ao
W
T
mit W T W
1
W
1
W T X und B o
W
T
W
1
W T Y
W T der sog. Pseudoinversen von W
die Minimalitätsforderungen erfüllt sind. Die Koeffizienten von A0 und B0 liefern die Koeffizienten ai und bi der Transformationspolynome. RMS-Fehler =
1 §
¨ n ©
¦ x' u ¦ y' v ·¸¹ 2
i
i
2
i
i
Bei dieser Ausgleichsrechnung wird der sog. RMS-Fehler (RMS = Root Mean Square) minimiert. Hierdurch wird die (mittlere quadratische) Abweichung gemessen, die zwischen den in das Zielkoordinatensystem transformierten Passerkoordinaten des Ausgangskoordinatensystems (ui,vi) und den vorgegebenen Passerkoordinaten in dem Zielkoordinatensystem (x´i,y´i) besteht. Verglichen wird die Lage der Referenzpunkte nach der Transformation mit den Zielvorgaben im neuen Koordinatensystem. In der Regel werden die vier Koordinaten, die eigentlich ein Rechteck bilden müssten, nach der Transformation keine rechten Winkel bilden.
2
1 Genaue Lage der Passer im ZielKoordinatensystem
2 1
Lage der vom Anwender erfassten und dann in das Ziel-Koordinatensystem transformierten Passer
3
4
3
4
Abb. 5.9: Anschauliche Darstellung des RMS-Fehler
In der Regel ist die Passpunktbestimmung ein iterativer Prozess. Durch Herausnahme von kritischen Referenzpunkten mit großen Abweichungen und Hinzunahme neuer Passpunkte kann versucht werden, den Transformationsfehler zu verkleinern. Allerdings sollte nicht ausschließlich das Ziel angestrebt werden, den RMS-Fehler zu verringern. Dieser Fehler sagt nur etwas über die Referenzpunkte aus! Vielmehr ist auch auf eine möglichst optimale Verteilung der Passpunkte (z.B. breite räumliche Streuung) und auf eine exakte Bestimmung der Lage im Ausgangssystem zu achten.
Kartennetzentwürfe
5.3 5.3.1
177
Kartennetzentwürfe Raumkoordinaten und lokale Bezugssysteme auf der Erde
Für kartographische Darstellungen von Geoobjekten oder für Lagezuordnungen von Geoobjekten in einem Geoinformationssystem, denen ein zweidimensionales kartesisches Bezugssystem zugrunde liegt, ist die dreidimensionale, gekrümmte Erdoberfläche in eine flache Ebene abzubilden. Allerdings können größere Ausschnitte der gekrümmten Erdoberfläche bzw. das zugehörige Gradnetz nicht auf ein ebenes, rechtwinkliges Gittersystem abgebildet werden. Ebenso ist eine Transformation, die sämtliche Eigenschaften von Geometrien auf der Kugeloberfläche auch in der Ebene erhält (Längentreue, Winkeltreue, Flächentreue, vgl. Kap. 5.3.2), prinzipiell nicht möglich. Allerdings sind viele Abbildungen entwickelt worden, die jeweils Teile dieser Eigenschaften erhalten. Diese sog. (Karten-)Netzentwürfe bilden das aus Längen- und Breitenkreisen bestehende Koordinatensystem, das als Netz die Erdoberfläche umspannt, in die Ebene ab. Kartographische Abbildungen im engeren Sinne oder Gradnetzentwürfe liegen in der Regel Karten im Maßstab 1:500.000 und kleiner zugrunde, wobei neben der Topographie zumeist auch das schiefwinklige oder krummlinienförmige Gradnetz für ausgewählte Breiten- und Längenkreise wiedergegeben ist (vgl. z.B. kleinmaßstäbige Atlaskarten für Kontinente). Jeweils kleine Ausschnitte der Erde können aber lokal in ein kartesisches Koordinatensystem abgebildet werden, wobei Abbildungsfehler und Verzerrungen in Kauf zu nehmen sind. So werden gegenüber den kartographischen Abbildungen geodätische Abbildungen unterschieden, auf denen großmaßstäbige Karten (zumeist im Maßstab ab 1:500.000 und größer) sowie Geodäsie und Landesvermessung basieren und die stets Geoobjekte in ein rechtwinkliges Gitternetz transformieren (zu Grundlagen geodätischer Bezugssysteme und Abbildungen vgl. Kap. 5.4 u. 5.5). Für die kartographischen Abbildungen ist auch die Bezeichnung Kartenprojektion (engl. map projection) gebräuchlich. Diese mathematischen Funktionen stellen einen Punkt der Erdoberfläche in einem kartesischen Koordinatensystem dar. Geoobjekte können in unterschiedlichen (kartographischen) Bezugssystemen erfasst sein. So werden z.B. von den Landesvermessungen kleinräumige Geodaten derzeit noch als Gauß-Krüger-Koordinaten abgegeben. Demnächst wird die Abgabe in UTM-Koordinaten erfolgen. Das Bundesamt für Kartographie und Geodäsie vertreibt u.a. die Verwaltungsgrenzen für die Bundesrepublik Deutschland als Vektordaten im Maßstab 1:1 Mio. auf der Basis einer Lambertprojektion. Die gemeinsame Darstellung in einem Geoinformationssystem erfordert dann Umrechnungen in ein einziges Bezugssystem. Bei diesen Umrechnungen, die durch die Funktionalität eines Geoinformationssystems in der Regel standardmäßig erfolgen, müssen die Parameter des Netzentwurfes des Quellkoordinaten- wie auch des Zielkoordinatensystems bekannt sein (zu Kartennetzentwürfen und insbesondere zur mathematischen Formulierung der Abbildungen vgl. eingehender Lehrbücher u.a. aus der Kartographie wie z.B. Bugayevski u. Snyder 1995, Hake, Grünreich u. Meng 2002 S. 53ff., Hoschek 1969 u. Snyder 1987).
178
5.3.2
Räumliche Objekte und Bezugssysteme
Abbildungseigenschaften von Kartennetzentwürfen
Bei jeder Abbildung von der Kugeloberfläche in die Ebene können grundsätzlich Strecken-, Winkel- und Flächenverzerrungen auftreten. Eine derartige Abbildung kann niemals gleichzeitig längentreu, winkeltreu und flächentreu sein. In Abhängigkeit des Einsatzes einer Karte können nur derartige Abbildungen benutzt werden, die die eine oder die andere Verzerrung vermeiden oder verringern: Eine winkeltreue Projektion (konforme Abbildung) erhält Winkel des geometrischen Objektes. Allerdings kann Winkeltreue nur im Kleinen bestehen. Winkeltreue Abbildungen erhalten nur lokal die Form der Objekte. Keine Kartenprojektion kann Winkeltreue und somit die exakte Form für ein größeres Gebiet erhalten. Winkeltreue Abbildungen können nicht flächentreu sein, so dass einzelne Gebiete vergrößert dargestellt werden. Allgemein sind dabei die Verzerrungen am Rande am größten (vgl. die Polgebiete in einer Mercatorkarte, vgl. Abb. 5.13). Eine Projektion ist flächentreu, falls sämtliche Gebiete durch die Abbildung in der korrekten relativen Größe wiedergegeben werden (flächentreue oder äquivalente Abbildung). Flächentreue Karten können nicht winkeltreu sein, so dass die meisten Winkel und die Form verzerrt sind. Die Erdoberfläche kann nur begrenzt längentreu (äquidistant) in die Ebene abgebildet werden (partielle Längentreue in bestimmten Richtungen, z.B. längentreuer Äquator bei einer normalen Mercatorprojektion). 5.3.3 5.3.3.1
Abbildungsflächen von Kartennetzentwürfen Bedeutung und Lage der Abbildungsfläche
Kartennetzentwürfe beruhen auf wenig anschaulichen, mathematischen Gleichungen, die Punkte auf der gekrümmten Erdoberfläche in die Ebene transformieren. Die Eigenschaften dieser Abbildungen sind aber leicht zu verdeutlichen, indem die Lage einer gedachten Abbildungsfläche zur Erdachse bzw. zur Erde und die Lage des Projektionszentrums betrachtet werden. Dabei werden als (gedachte) Abbildungsflächen eine Ebene, ein Zylinder- oder ein Kegelmantel verwandt, so dass Azimutal-, Zylinder- und Kegelprojektionen unterschieden werden:
Azimutalprojektion
Zylinderprojektion
Kegelprojektion
Abb. 5.10: Klassifikation der Kartennetzentwürfe nach der Art der Abbildungsflächen
Kartennetzentwürfe
179
Bei normalen Abbildungen (d.h. normalachsigen oder erdachsigen Abbildungen) fallen Erdachse und Rotationsachse des Zylinders oder des Kegels zusammen. Transversale Abbildungen (d.h. querachsige oder äquatorständige Abbildungen) liegen vor, wenn Erdachse und Rotationsachse des Zylinders oder des Kegels zueinander senkrecht stehen. Falls Erdachse und Rotationsachse des Zylinders oder des Kegels einen beliebigen Winkel einschließen, spricht man von schiefachsigen oder zwischenständigen Abbildungen. Ähnliche Bezeichnungen gelten auch bei azimutalen Projektionen, bei denen polständige Abbildungen als normal, äquatorständige als transversal und sonstige als schiefe oder schiefständige Abbildungen bezeichnet werden.
normale Position
transversale Position schräge Position
Abb. 5.11: Lage von Projektionsflächen
5.3.3.2
Azimutale Abbildungen
Dieser Abbildungstyp resultiert aus einer Tangentialebene, die in einem Punkt die Erdkugel berührt, oder auch in einem Spezialfall aus einer Schnittebene. Der Berührpunkt (z.B. der Nordpol) bestimmt die Lage, wobei die polare Lage (d.h. normale Lage), die äquatoriale Lage (d.h. transversale Lage) und die schiefe Lage unterschieden werden. Azimutale Abbildungen zeichnen sich dadurch aus, dass die Richtung - oder der Azimuth - vom Berührpunkt zu jedem anderen Punkt korrekt wiedergegeben wird. Sämtliche Großkreise durch den Berührpunkt werden als Geraden wiedergegeben (vgl. Snyder 1987 S. 141). Die polare Lage stellt die einfachste Form dieser Abbildung dar, bei der die Breitenkreise als konzentrische Kreise um den Berührpunkt (hier ein Pol) und die Meridiane als Geraden abgebildet werden, die sich im Berührpunkt (hier ein Pol) mit ihren wirklichen Winkeln schneiden. In allen anderen Lagen besitzt bei azimutalen Abbildungen das Gradnetz im Berührpunkt genau rechte Winkel. Azimutale Projektionen können weiter nach der Lage ihres Projektionszentrums differenziert werden. Bei der Gnomonischen Abbildung liegt dieses Zentrum im Erdmittelpunkt, bei der Stereographischen Abbildung allgemein im Gegenpol des Berührpunkts sowie bei der Orthographischen Abbildung im Unendlichen. Azimutale Abbildungen werden zumeist zur kartographischen Darstellung von Polarregionen benutzt. Von größerer Bedeutung vor allem zur Darstellung der westlichen und östlichen Hemisphäre oder von Kontinenten in Atlanten ist der von Lambert stammende flächentreue Entwurf einer azimutalen Abbildung.
180
5.3.3.3
Räumliche Objekte und Bezugssysteme
Konische Abbildungen
Dieser Abbildungstyp kann durch Abwicklung eines Kegels in die Ebene verdeutlicht werden, der derart an die Kugel angelegt wird, dass er sie in einem Kreis (z.B. ein Breitenkreis) berührt oder in zwei Kreisen schneidet. Diese Berühr- oder Schnittkreise (sog. Standardparallelkreise) werden bei der (gedachten) Abwicklung, bei der der Kegel entlang eines Meridians aufgeschnitten wird, längentreu abgebildet. Der Meridian gegenüber der Schnittlinie wird als Zentralmeridian bezeichnet. Allgemein nimmt die Verzerrung zu beiden Seiten des Berührkreises zu. Bei einem Schnittkegelentwurf ist die Verzerrung zwischen den Schnittkreisen geringer als außerhalb. Einzelne Kegelentwürfe können winkeltreu (z.B. Entwurf nach Lambert), mittabstandstreu, d.h. längentreu oder äquidistant entlang der Meridiane und/oder der Parallelkreise (z.B. Entwurf nach de l'Isle), oder flächentreu (z.B. Entwurf nach Albers) sein. Erdachsige, konische Netzentwürfe mit zwei Schnittkreisen unterscheiden sich vor allem darin, wie die Breitenkreise zwischen den Schnittkreisen abgebildet werden. Beim flächentreuen Kegelentwurf mit zwei längentreuen Parallelkreisen nach Albers besitzen die Breitenkreise zwischen den Schnittkreisen einen größeren Abstand. Dieser Entwurf wird bei zahlreichen Einzel- und Atlaskarten insbesondere in den USA u.a. vom US Geological Survey angewandt. Beim winkeltreuen Kegelentwurf mit zwei längentreuen Parallelkreisen nach Lambert hingegen liegen die zentralen Parallelkreise näher zusammen als jene am Rande. Die winkeltreue (d.h. konforme) Kegelprojektion mit zwei längentreuen Parallelkreisen nach Lambert wird in der Praxis häufig benutzt. Dieser Entwurf wird z.B. auf der Basis eines Bezugsellipsoiden bei Übersichtskarten 1:500.000 (z.B. in der Bundesrepublik Deutschland oder in Österreich) oder auch bei Neuausgaben der Internationalen Weltkarte 1:1 Mio. angewandt. Hierbei sind die wichtigen Parameter, die z.B. zur Darstellung und weiteren Umrechnung in andere Koordinatensysteme von Geoinformationssystemen benötigt werden: 1. Bezugsbreitenkreis: 48° 40´, 2. Bezugsbreitenkreis: 52° 40´, Zentral Meridian: 10° 30´, Spheroid: Bessel (zu Bezugsellipsoiden vgl. Kap. 5.4.1). 5.3.3.4
Zylinderabbildungen
Zylinderabbildungen können durch Übertragen der Geometrien von der Erdoberfläche auf einen Zylinder, der die Erdkugel umhüllt und sie in einem Kreis berührt oder in zwei Kreisen schneidet, und anschließende Abwicklung des Zylinders in die Ebene veranschaulicht werden (vgl. Abb. 5.10). Winkeltreue Zylinderprojektionen werden allgemein als Mercatorprojektionen bezeichnet, die sich nach Lage des Berühr- oder Schnittzylinders weiter differenzieren lassen. In der normalen Darstellung, bei der Erdachse und Zylinderachse zusammenfallen (vgl. Abb. 5.11), wird der Äquator als Berührkreis benutzt, der dann längentreu abgebildet wird. Die Meridiane besitzen gleichen Abstand, während der Abstand der Breitenkreise sowie die Längen- und Flächenverzerrungen zu den Polen (erheblich) zu-
Grundlagen geodätischer Bezugssysteme
181
nehmen (vgl. Abb. 5.12). So erscheint z.B. Grönland gegenüber Südamerika entgegen den tatsächlichen Flächenverhältnissen wesentlich größer. Somit ist die Verwendung dieser Projektion für Atlaskarten oder kleinmaßstäbige Karten stark eingeschränkt. Allerdings besitzen Mercatorkarten große Bedeutung in der Seeund Luftfahrt (daher auch Seekarten genannt): Der Kurs eines Schiffes wird zumeist (mit einem Kompass) als gegenüber der Nordrichtung fester Kurswinkel festgelegt. Somit schneidet die Kurslinie (die sog. Loxodrome) jeden Meridian unter einem konstanten Winkel. Diese Kurslinie wird in der Mercatorkarte als Gerade abgebildet. Die weltweit eingeführte Universal Transversal Mercator Projektion (UTM) und die ältere, auf Deutschland beschränkte Gauß-Krüger-Projektion stellen transversale, winkeltreue Zylinderprojektionen dar (vgl. Kap. 5.5).
Abb. 5.12: Konformer Zylinderentwurf mit längentreuem Äquator (Mercatorkarte)
5.4 5.4.1
Grundlagen geodätischer Bezugssysteme Annäherung der Erde durch Ellipsoide
Häufig wird vereinfacht die Erde als eine Kugel betrachtet. Für exakte Lagebestimmungen und Kartennetzentwürfe ist jedoch die tatsächliche Form der Erde durch einen Ellipsoiden anzunähern. Dabei werden u.a. die Abflachung der Erde an den Polen und die Ausbuchtung am Äquator berücksichtigt. Eine Ellipse wird allgemein durch zwei Radien bestimmt: Die längere Achse wird als Hauptachse, die kürzere Achse als Nebenachse bezeichnet. Ein (Rotations-)Ellipsoid entsteht dann durch Rotation einer Ellipse um eine ihrer Achsen. Ein Ellipsoid, der die
182
Räumliche Objekte und Bezugssysteme
Form der Erde annähert, wird durch Drehung um die kleinere Achse, d.h. um die sog. Polarachse, gebildet. Allerdings ist die Erde tatsächlich auch kein Ellipsoid. Sie besitzt (neben der Ausbuchtung am Äquator und den Abplattungen an den Polen) weitere kleinere Dellen und Ausbuchtungen. Somit werden in unterschiedlichen Regionen der Erde auch unterschiedliche Ellipsoide verwandt, um lokal die beste Annäherung zu erreichen. Die Landesvermessungen verschiedener Länder legen dem Aufbau ihres Vermessungsnetzes und dann der Bestimmung der geographischen Koordinaten von Geoobjekten also unterschiedliche Referenzellipsoide zugrunde (vgl. Abb. 5.13 u. Tab. 5.3). Dann können im Grenzbereich von Landesvermessungen Koordinatensprünge und Konvergenzprobleme auftreten.
Abb. 5.13: Regionale Bezugssysteme mit verschiedenen Geodätischen Daten (Quelle: Bill u. Resnik 2000 S. 18)
Bei vielfältigen Datenquellen mit verschiedenen Bezugssystemen sind Koordinatenumrechnungen unumgänglich. In der Regel verfügen Geoinformationssysteme über entsprechende Funktionen. Dazu müssen aber u.a. die Parameter der Referenzellipsoide bzw. die verschiedenen Datumsangaben bekannt sein. Tabelle 5.3: Parameter wichtiger Referenzellipsoide (Quellen: Dana Geodetic Datum - Weblink u. Dana Map Projection - Weblink, Landesvermessungsamt NRW 1999a Anlage 1) Name Airy, 1830 Bessel, 1841 Clarke, 1866 Clarke, 1880 GRS80, 1980 Hayford, 1909 Internat., 1924 Krassowski, 1940 WGS72, 1972 WGS84, 1984
a (in m)
1/f
6.377.563,396 6.377.397,155 6.378.206,4 6.378.249,145 6.378.137 6.378.388,0
299,3249646 299,1528128 294,9786982 293,4650 298,257222101 297,0
6.378.245,0 6.378.135,0 6.378.137,0
Verbreitung Großbritannien, Irland Europa, Asien Nord Amerika und Zentralamerika u.a. Afrika, Israel, Jordanien, Iran Satelliten bestimmt, intern. angen. Europa, Asien, Südamerika, Antarktis
298,3 UdSSR u. weitere osteurop. Staaten 298,26 weltweit 298,257223563 weltweit
a = große Halbachse, b = kleine Halbachse, f=(a-b)/a geometrische Abplattung
Grundlagen geodätischer Bezugssysteme
183
Weltweit sind in den Landesvermessungen und Kartenprojektionen verschiedene Ellipsoide in Gebrauch. Inzwischen besitzt das 1984 festgelegte, weltweit gültigen World Geodetic System 84 (WGS 84) zentrale Bedeutung, das die satellitengestützte Positionsbestimmung (GPS, vgl. Kap. 6.5.2) nutzt. Sie basiert auf einem geozentrischen Koordinatensystem mit einem (einzigen) Referenzellipsoid. Das GRS 80 (Geodetic Reference System 1980, fast identisch mit WGS84), ist Grundlage des ETRS89-Bezugssystems, das 1991 von der Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland für alle Aufgabenbereiche des Vermessungs- und Katasterwesens beschlossen wurde (vgl. Kap. 5.4.3). 5.4.2
Geodätisches Datum und traditionelle Bezugssysteme
Von den Landesvermessungen wurde in den letzten Jahrhunderten ein Lagefestpunktfeld aufgebaut, das zusammen mit einem Höhenfestpunktfeld Grundlage für die topographische Landesaufnahme und für weitere Vermessungen wie z.B. Grundstücks- oder Katastervermessungen ist. Dazu wurde ein System von Festpunkten entwickelt, die durch Angabe ihrer Lage, Höhe und Schwere im jeweiligen Bezugssystem gekennzeichnet sind. Diese Lagefestpunktfelder wurden durch Triangulation (klassische trigonometrische Punktbestimmung auf der Basis der Messung von Richtungen, Distanzen und Höhenwinkeln zwischen benachbarten Punkten) erarbeitet und beruhen auf einem nicht geozentrischen Koordinatensystem. Sie sind zumeist in vier Stufen aufgebaut, wobei das Hauptdreiecksnetz oder das Netz der Dreiecke 1. Ordnung eine Seitenlänge von 30 bis 50 km mit den Trigonometrischen Punkten 1. Ordnung als Eckpunkte aufweist. Durch Netzverdichtung erreichen die Trigonometrischen Punkte 4. Ordnung Abstände von 1 bis 3 km. Als letzte Verdichtungsstufe werden in die Trigonometrischen Punkte 3. und 4. Ordnung Polygonzüge eingehängt (vgl. Kahmen 1997 S. 292). Das deutsche Hauptdreiecksnetz entstand seit etwa 1870 aus dem Zusammenschluss einzelner Netzteile. Der auf die alte Bundesrepublik entfallende Anteil des Reichsdreiecksnetzes (RDN) wurde das Deutsche Hauptdreiecksnetz (DHDN) und nach der deutschen Wiedervereinigung gemeinsam mit dem Staatlichen Trigonometrischen Netz (STN) der ehemaligen DDR jetzt DHDN 1990 genannt. Zur Definition des Festpunktfeldes und zur eindeutigen Festlegung des zugehörigen zweidimensionalen, nicht geozentrischen Lagesystems ist die exakte Lagebestimmung für einen sog. Fundamental- oder Zentralpunkt in einem globalen, absoluten Koordinatensystem sowie die Bestimmung des Azimuts zu einem weiteren Punkt notwendig (vgl. Abb. 5.14). Ferner sind Angaben zum gewählten Ellipsoid sowie zur Lage seines Mittelpunkts zum Schwerpunkt der Erde zu machen. Diese Faktoren machen das sog. Geodätische Datum (eines Festpunktfeldes) aus, das einen Satz von Parametern umfasst, die Ursprung, Orientierung und Maßstab eines Bezugssystems im Verhältnis zu einem grundlegenden absoluten System angeben und den Ellipsoid spezifizieren (vgl. Tab. 5.4). Das Geodätische Datum kennzeichnet also die Beziehung zwischen einem lokalen Ellipsoiden und einem globalen Bezugssystem (z.B. WGS84). Verschiedene Lagesysteme werden durch diese grundlegenden Angaben untereinander vergleichbar gemacht (zum Übergang zwischen zwei Bezugssystemen vgl. Kap. 5.4.4).
184
Räumliche Objekte und Bezugssysteme
Zentralpunkt
Breitenkreis
Längenkreis Zentralpunkt mit geographischer Breite und Länge
Abb. 5.14: Lokales Bezugssystem und Lagefestpunktfeld (nach Bill u. Resnik 2000 S. 17)
Für das Deutsche Hauptdreiecksnetz, das im Wesentlichen auf die Preußische Landesaufnahme im 19. Jahrhundert zurückgeht, gilt das Potsdam-Datum mit dem Bessel-Ellipsoiden. Fundamentalpunkt ist der seit 1910 nicht mehr existierende Punkt Rauenberg (in Berlin), an dessen Stelle formal der Trigonometrische Punkt Potsdam getreten ist, der aber die Koordinaten im System Rauenberg erhielt, so dass eine Neuberechnung sämtlicher Trigonometrischer Punkte auf das neue Datum vermieden wurde. Dies hat nach dem zweiten Weltkrieg zunächst im militärischen Bereich zu der nicht ganz richtigen, aber inzwischen auch allgemein üblichen Bezeichnung Potsdam Datum geführt. Die aus astronomischen Beobachtungen gewonnenen Koordinaten von Rauenberg wurden als ellipsoidische Koordinaten eingeführt. Die Orientierung im Netz erfolgte durch den Azimut Rauenberg Berlin/Marienkirche. Dieses Datum ist für die Landesvermessung in den alten und für neue Vermessungen auch in den neuen Bundesländern verbindlich. Die geodätischen Netze der ehemaligen DDR und sämtlicher ehemaliger Ostblockländer basierten auf dem Krassowski-Ellipsoid (1940) und den geographischen Koordinaten des Observatoriums Pulkowo bei St. Petersburg (PulkowoSt.Petersburg-Datum), das 1942 berechnet wurde (System 1942). Im Jahre 1957 wurde das Einheitliche Astronomisch-Geodätische Netz (EAGN) der osteuropäischen Staaten bestimmt, das als Grundlage für das Staatliche Trigonometrische Netz (STN) der ehemaligen DDR diente (System 42/57 bzw. nach Neuausgleich System 42/83). Bis zur Einführung des neuen, europaweit einheitlichen Bezugssystems ETRS 89 sollte in den neuen Bundesländern das System 42/83 weitergeführt werden. Tabelle 5.4: Ausgewählte Datumsangaben: Lage der Ellipsoide in Bezug zum WGS84 (z.B. G x = [(X in WGS84) - (X des angegebenen Datums)[ in m, nach Dana Geodetic Datum - Weblink) Datum
Ellipsoid
Gx
Gy
Gz
European 1950 North America‘83 Ordinance Survey GB36 Pulkovo - St. Petersburg1942 WGS72
International GRS80 Airy Krassowski WGS72
-87 0 +375 +27 0
-98 0 -111 -135 0
-121 0 +431 -89 +5
Grundlagen geodätischer Bezugssysteme
5.4.3
185
Neue terrestrische Referenzrahmen
Von der Internationalen Astronomischen Union (IAU) und der Internationalen Union für Geodäsie und Geophysik (IUGG) wird die Entwicklung terrestrischer Referenzrahmen hoher Genauigkeit vorangetrieben (vgl. Kahmen 1997 S. 599). Jährlich wird ein Internationaler Terrestrischer Referenzrahmen ITRF (International Terrestrial Reference Frame) auf der Basis hochgenauer Positionsbestimmungen für ca. 180 weltweit verteilte Stationen gerechnet. Die Datumsangaben beziehen sich auf das GRS80-Ellipsoid (bzw. WGS84). Die Konfiguration der terrestrischen Netzpunkte ist u.a. aufgrund des tektonischen Verhaltens der Erdkrustenplatten nicht starr und zeitlich konstant. Die Koordinatensätze erhalten daher eine Jahresangabe (z.B. ITRF89). Im Jahre 1990 wurde beschlossen, dass die für 35 europäische Stationen im Jahre 1989 errechneten ITRF Koordinaten den Europäischen Terrestrischen Referenzrahmen (ETRF-89, European Terrestrial Reference Frame) definieren. Hierbei wird davon ausgegangen, dass die relative Lage der europäischen ITRF-Stationen auf der starren Kontinentalplatte unverändert bleibt. Diese Koordinaten bilden das European Terrestrial Reference System (ETRS89). Das ETRS89 und das WGS84 stimmen auf 1 bis 2 cm überein. Der für Europa geschaffene weitmaschige Rahmen wurde auf europäischer Ebene (EUREF89, European Reference Frame, ca. 200 km Punktabstand), auf nationaler Ebene (z.B. Deutscher Referenzrahmen DREF) und auf der Ebene der Bundesländer weiter verdichtet, um ihn für praktische Arbeiten nutzen zu können. In Deutschland besteht das Netz aus 109 Punkten, die überwiegend mit Punkten 1. Ordnung in den alten und neuen Bundesländern zusammenfallen (vgl. Kahmen 1997 S. 599, Landesvermessungsamt NRW 1999a S. 28ff u. Anlage 9, ADV Weblink1). Die Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) hat 1991 beschlossen, das WGS84 in der EUREFVersion (=ETRS89) als künftiges Bezugssystems für die Bereiche Landesvermessung und Liegenschaftskataster einzuführen. Dieser Beschluss wurde 1995 bekräftigt, wobei zudem als Abbildungssystem die Universal Transversal Mercatorprojektion festgelegt wurde (vgl. Landesvermessungsamt NRW 1999a S. 28ff. u. ADV - Weblink2). Somit gilt in Deutschland als Grundlage der Landesvermessung ein neuer Bezugsrahmen für das Festpunktnetz, das jetzt an internationale Netze angeschlossen ist. Grundlage ist nicht mehr das Potsdam-Datum mit dem Bessel-Ellipsoid, sondern das globale geozentrische Bezugssystem WGS84. Hiermit sind erhebliche Umstellungen und Neubestimmungen der Koordinaten der Geoobjekte verbunden. Bis dieser Prozess abgeschlossen ist, haben in der Bundesrepublik Deutschland neben dem WGS84, das insbesondere für die Satellitengeodäsie und Satellitennavigation grundlegend ist, noch drei weitere Bezugssysteme ihre Gültigkeit (vgl. ADV - Weblink1): - In den alten Bundesländern und im wiedervereinigten Deutschland gilt das Gauß-Krüger-System mit drei Grad breiten Meridianstreifen (Potsdam Datum, Bessel-Ellipsoid).
186
Räumliche Objekte und Bezugssysteme
- In der ehemaligen DDR bestand das System 42/83 (auch Gauß-Boaga-System genannt), das eine Gauß-Krüger-Abbildung mit sechs Grad breiten Meridianstreifen darstellt (Pulkovo/St. Petersburg Datum, Krassowski-Ellipsoid). - Das Militärische Geowesen benutzt das UTM-System (Europäisches Datum ED50, Internationaler Ellipsoid nach Hayford). 5.4.4
Datumstransformationen
Die satellitengestützten Positionsbestimmungen und Messverfahren sowie das ETRS89 beziehen sich auf weltweite Referenzellipsoide (WGS 84). Hieraus ergibt sich die Notwendigkeit, eine Beziehung zwischen den Systemen und eine Koordinatentransformation herzustellen. Die Transformation erfolgt in mehreren Schritten, die am Beispiel der Transformation von DHDN zu WGS84 aufgezeigt werden (Hofmann-Wellenhof u.a. 2001 S. 279ff.). Hierdurch wird letztlich die Notwendigkeit deutlich, zu Koordinatenangaben stets das zugehörige geodätische Datum zu nennen: Im ersten Schritt werden die geographischen Koordinaten im DHDN-Datum in kartesische Koordinaten umgerechnet (Rechnungen auf der Basis der Parameter des Bessel-Ellipsoiden). Das Ergebnis sind XYZ-Koordinaten in einem erdzentrierten Koordinatensystem. Der zweite Schritt transformiert diese Koordinaten in XYZ-Koordinaten hinsichtlich des WGS84-Bezugssystems. Dieser eigentliche Datumsübergang erfolgt mit Hilfe der sog. 7-Parameter - Helmert-Transformation, die aus drei Translations-, drei Rotationsfaktoren und einem Maßstabsfaktor bestehen. Die Translationsfaktoren geben an, um wie viele Meter der Ursprung des neuen XYZ-Systems vom Zentrum des Bessel-Ellipsoiden entfernt liegt. Die Rotationsfaktoren beschreiben, um wie viele Winkelsekunden die Achsen bei der Transformation gedreht werden. Der Maßstabsfaktor drückt Größenveränderungen aus. Die errechneten XYZ-Koordinaten sind direkt für die Satellitennavigation zu verwenden. Im dritten Schritt werden die XYZ-Koordinaten im WGS84-Bezugssystem in geographische Koordinaten umgerechnet. Anschließend können aus den geographischen Koordinaten geodätische Koordinaten bestimmt werden (Gauß-KrügerKoordinaten oder UTM-Koordinaten im WGS84). Tabelle 5.5: Transformationsparameter in Bezug zum WGS84 (Quelle: Ihde u. Lindstrot 1995) Parameter
Übergang DHDN zu WGS84
Übergang S42/83 zu WGS84
delta x delta y delta z rot x rot y rot z m
+582 m +105 m +414 m 3,08´´ -0,35´´ -1,04´´ +8,3 * 10-6
+24 m -123 m -94 m +0,13´´ +0,25´´ -0,02´´ +1,1 * 10-6
Grundlagen geodätischer Bezugssysteme
187
1. Umrechnung von geographischen Koordinaten (M, O, h) in ein kartesisches System. Hier wird noch bezüglich des Bessel-Ellipsoiden gerechnet:
N h cos M cos O
Xa
Ya
N h cos M sin O
Za
>N 1 e h@ sin M 2
Mit: M, O geodätische Breite und Länge und h Höhe über dem Bessel-Ellipsoiden, a bzw. b große bzw. kleine Halbachse des Bessel-Ellipsoiden und N
a/w
w
1 e 2 sin 2 M
e2
a
2
b2 / a2
2. Für den Datumsübergang wird die sog. Helmert-Transformation benutzt: § 1 ¨ 1 m ¨ rot z ¨¨ © rot y
§ Xb · ¨ ¸ ¨ Yb ¸ ¨Z ¸ © b¹
rot z 1 rot x
rot y · § X a · § Gx · ¸ ¨ ¸ ¨ ¸ rot x ¸ ¨ Ya ¸ ¨ Gy ¸ ¸¸ ¨ 1 ¹ © Z a ¸¹ ¨© Gz ¸¹
Die Transformationsparameter werden über identische Punkte des Deutschen Referenzsystems bestimmt. Für diese Punkte liegen die Koordinaten im WGS84 und im Potsdam-Datum bzw. im Pulkovo/St. Petersburg-Datum für die Gebiete der ehemaligen DDR vor. 3. Umrechnung der kartesischen Koordinaten (Xb,Yb,Zb) in geographische Koordinaten (M, O, h). Jetzt wird im WGS84 (Ellipsoid) gerechnet. Während die Gleichungen für die Berechnung der kartesischen Koordinaten aus den ellipsoidischen geschlossen und streng sind, besteht für die Umkehrung dagegen nur eine iterative Lösung (vgl. Landesvermessungsamt NRW 1999a S. 33, vgl. Seeber 1993 S. 20). Zur Vermeidung iterativer Prozesse werden nachstehende Formeln angegeben, die ellipsoidische aus kartesischen Koordinaten mit ausreichender Annäherung berechnen (vgl. Hofmann-Wellenhof u.a. 2001 S. 282):
O
arctan Yb / X b
M
arctan Z b e' 2 sin 3 T / p e 2 a cos 3 T
h
p / cos M N
Mit: M, O, h geodätische Breite, Länge und Höhe über dem WGS84 Ellipsoiden, Xb,Yb,Zb geozentrische kartesische Koordinaten, a bzw. b große bzw. kleine Halbachse (hier jetzt) des WGS84 Ellipsoiden und p
X b 2 Yb 2
e' 2
a
N
a/w
2
b2 / b2
T
arctan>Z b a / p b @
e2
a
w
1 e 2 sin 2 M
2
b2 / a2
Die Landesvermessungsbehörden bieten geeignete Transformations- und Umrechnungsprogramme wie z.B. das Programm TRABBI-3D des Landesvermessungsamtes Nordrhein-Westfalen.
188
Räumliche Objekte und Bezugssysteme
Mit Wechsel des geodätischen Bezugssystems ist im Bereich der Bundesrepublik Deutschland und des benachbarten Auslands bei Koordinatentransformationen mit Abweichungen von maximal drei Metern zu rechnen. Die Ungenauigkeit folgt aus den (großflächigen) 7-Parameter-Transformationssätzen. Durch die Verwendung örtlicher 7-Parameter-Transformationssätze können höhere Genauigkeiten erreicht werden (vgl. Ihde u. Lindstrot 1995). Die lokalen Transformationssätze können von den Landesvermessungsämtern bezogen werden. Zur Durchführung von Koordinatentransformationen finden sich im Internet vielfältige Anwendungen (vgl. GPS-Informations- und Beobachtungssystem (GIBS) des Bundesamtes für Kartographie und Geodäsie - Weblink). Die angeführte dreidimensionale Datumstransformation führt in der Praxis manchmal zu Problemen, da hierfür ellipsoidische Höhen benötigt werden. Die ellipsoidische Höhe eines Punktes bestimmt sich dabei aus der Normalhöhe und der Geoidundulation (vgl. Kap. 5.4.5). Zuweilen ist allerdings die Geoidundulation nicht verfügbar. Dann bzw. bei geringeren Genauigkeitsansprüchen wird eine zweidimensionale Transformation durchgeführt (zu umfangreichen Beispielrechnungen vgl. z.B. Landesvermessungsamt NRW 1999b). 5.4.5
Geoid
Für genaue Positionsbestimmungen können die Erde bzw. Regionen der Erde durch ein Ellipsoid bzw. durch verschiedene Ellipsoide nur angenähert werden (vgl. Kap. 5.4.1). Insbesondere für Höhenbestimmungen ist eine spezielle Ausgangs- oder Bezugsfläche notwendig. Da in der Regel die Vertikalachsen der Vermessungsinstrumente in Richtung der Schwerkraft (d.h. lotrecht) ausgerichtet werden, eignet sich hierfür eine Niveaufläche, die in allen ihren Punkten senkrecht von der jeweiligen Richtung der Schwerkraft geschnitten wird. Diese Fläche wird als Geoid bezeichnet. Da sich die Meeresoberfläche nach Maßgabe der Schwerkraft einstellt, kann man sich diese Fläche durch die abstrahierte Meeresoberfläche vorstellen, die unabhängig z.B. von Gezeiten und Meeresströmungen in einer mittleren Lage ruht und sich analog zum System kommunizierender Röhren unter den Kontinenten fortsetzt. Infolge von Masseunterschieden im Erdinnern und des Oberflächenmaterials bestehen lokale Unterschiede der Schwerkraft, so dass das Geoid keine regelmäßige, sondern eine flach gewellte Fläche ist.
Erdoberfläche Ellipsoid
Geoid
Erdoberfläche
H h
Geoid N Ellipsoid
Abb. 5.15: Geoid, Ellipsoid und physische Erdoberfläche
Geodätische Abbildungen
189
Die Abweichungen des Geoids vom Ellipsoiden mit einer großen Halbachse von 6.378.137 m (vgl. GRS 80 u. WGS84) liegen zumeist unter 50 m und überschreiten kaum 80 m (vgl. Kahmen 1997 S. 35). Während bei Lagemessungen ein Umdrehungsellipsoid als Bezugsfläche genommen werden kann mit dem Vorteil, auf einer mathematisch beherrschbaren Fläche rechnen zu können, sind derartige Vereinfachungen bei Höhenmessungen nicht erlaubt. Bereits kleinräumig können erhebliche Unterschiede zwischen Ellipsoid und Geoid bestehen. Daher werden Höhenmessungen in der Regel auf das Geoid bezogen, d.h. auf den „mittleren Meereshorizont“ oder „NormalNull“. Die Höhen, die durch die Standortbestimmung mit Hilfe von Satelliten (vgl. Kap. 6.5) erfasst werden, beziehen sich auf ein anderes Höhensystem als die durch traditionelle geodätische Verfahren (u.a. Nivellement) bestimmten Höhen. Das GPS liefert (im zugehörigen Bezugssystem WGS84) die Höhe über oder unter dem einfachen Ellipsoidalmodell der Erde (sog. ellipsoidale Höhe h). Geodätische Verfahren liefern hingegen sog. orthometrische Höhen („übliche“ Höhen über NormalNull H, d.h. Höhen über dem Geoid, vgl. Abb. 5.14, vgl. auch Tab. 5.6). Um zwischen diesen verschiedenen Höhensystemen Umrechnungen durchzuführen, werden sog. Geoidhöhen benötigt, d.h. Abweichungen des Geoids vom Ellipsoid. Hierbei gilt die Beziehung: h = H + N (vgl. Abb. 5.15). Die Größe N wird auch als Geoidundulation bezeichnet (vgl. Kahmen 1997 S. 357 u. 463ff.). Die Topographischen Karten enthalten wie bisher die Höhen über NN (Pegel Amsterdam). Ein Hinweis besagt, dass die mit GPS-Empfängern ermittelten Höhen für das entsprechende Kartenblatt um den Betrag der Geoidundulation zu modifizieren sind, um NN-Höhen zu erhalten. So sind z.B. für das Blatt 3513 (TK25 Bramsche) die GPS- Höhen um 41.8m (auf NN-Höhen) zu reduzieren. Die Geoidhöhen bzw. die Undulationen sind in den Industrieländern mit cmGenauigkeit (prinzipiell) vorhanden, wobei verschiedene Undulationen vorliegen. So variieren in Nordrhein-Westfalen die auf das Bessel-Ellipsoid (Bezugssystem DHDN) bezogenen Undulationen zwischen - 0,8 m und + 1,7 m. Demgegenüber liegen die auf das GRS80-Ellipsoid des ETRS89 bezogenen Undulationen zwischen + 43 m und + 48 m. Dies zeigt, dass die regionale Lagerung des BesselEllipsoiden als deutsches Referenzellipsoid deutlich besser der NN-Fläche angepasst ist als die globale Lagerung des GRS80-Ellipsoiden. Vor dem Hintergrund der letztlich nur geringen unterschiedlichen Ellipsoiddimensionen erklären sich die Differenzen zwischen den Undulationen hauptsächlich durch die jeweils andere Lagerung der Koordinatenursprünge im Raum (vgl. Spata u.a. 2001 S. 59ff., vgl. Kap. 5.4.1 u. Abb. 5.13).
5.5 5.5.1
Geodätische Abbildungen Anwendung Geodätischer Abbildungen
Als geodätische Abbildungen werden Transformationen in rechtwinklige, ebene Koordinaten (geodätische Koordinaten) bezeichnet, die somit Breiten- und Län-
190
Räumliche Objekte und Bezugssysteme
genkreise in ein quadratisches Gitter abbilden. Dabei wird ein ebenes, geodätisches Koordinatensystem durch ein kartesisches Koordinatensystem gebildet, bei dem die positive X-Achse nach Norden (im Gauß-Krüger-System: Hochwert) und die positive Y-Achse (im Gauß-Krüger-System: Rechtswert) nach Osten gerichtet sind. Derartige Abbildungen, die insbesondere der Landesvermessung zugrunde liegen, müssen hohen Genauigkeitsansprüchen genügen. Sie sind daher in der Regel nur lokal definiert, d.h. in einem regional eng begrenzten Bereich um einen Bezugspunkt. Ferner nähern sie die Erde durch einen Rotationsellipsoiden an und beruhen auf ellipsoidischen Berechnungen (vgl. Bugayevskiy u. Snyder 1995 S. 159ff., Hoschek 1969 S. 120ff., Kuntz 1990 S. 62ff.). In Deutschland bestehen derzeit mehrere Bezugssysteme in der Landesvermessung. In der alten Bundesrepublik Deutschland existiert das Gauß-Krüger-Koordinatensystem mit dem Bessel-Ellipsoid und Meridianstreifen mit einer Breite von 3° Längengraden (vgl. Kap. 5.5.2). Im Gebiet der ehemaligen DDR bestand ein ähnliches Gauß-Krüger-Koordinatensystem, aber mit dem Krassowski-Ellipsoid und 6° breiten Meridianstreifen. Die Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) hat 1991 bzw. 1995 die Einführung eines neuen Bezugssystems für die Landesvermessung und die Einführung der Universal Transversal Mercatorprojektion beschlossen (vgl. Kap. 5.3.4 u. 5.5.3, vgl. auch Kap. 6.6.3.5). Diese Umstellungen machen erhebliche Umrechungen der bisherigen Koordinaten in das neue Bezugssystem notwendig. Für einen einzelnen Lagepunkt bestehen mehrere Koordinatenangaben nebeneinander, so dass mit den Koordinaten stets die Bezugssysteme anzugeben sind. Tabelle 5.6: Lagekoordinaten für Punkte in Osnabrück und Clausthal in verschiedenen Bezugssystemen (Quelle: Datenabfrage bei Landesvermessung + Geobasisinformation Niedersachsen, Stand 31.10.2001) Osnabrück Clausthal
Gauß-Krüger-Koordinaten 3 435 038,438 5 791 675,323 3 592 935,565 5 741 403,348
LS 100 LS 100
Höhe 105,754 605,262
HS 160 HS 160
Osnabrück Clausthal
Geographische Koordinaten 52°15‘17,08907‘‘ 8°2’51,46011‘‘ 51° 47‘56,58302‘‘ 10°20‘46,14807‘‘
LS 889 LS 889
Höhe 149,6612 650,5282
HS 308 HS 308
Osnabrück Clausthal
UTM-Koordinaten 2 434 991,653 2 592 825,303
LS 489 LS 489
Höhe 149,661 650,528
HS 308 HS 308
Osnabrück Clausthal
X, Y, Z 3D-Koordinaten 3 874 144,799 547 759,967 3 888 685,133 709 930,154
Lagestatus 100: Lagestatus 389: Lagestatus 489: Lagestatus 889: Höhenstatus 160: Höhenstatus 308:
5 789 799,754 5 739 545,460
5 020 323,291 4 989 518,304
LS 389 LS 389
Gauß-Krüger-Koordinaten, Potsdam Datum (Bessel-Ellipsoid) 3D-Koordinaten, ETRS 89 (GRS 80 - Ellipsoid) verebnete UTM-Koordinaten, ETRS 89 (GRS 80 - Ellipsoid) Geograph. Koordinaten im ETRS 89 Normalhöhe (Höhe NN, Höhe über dem Geoid) ellipsoidische Höhe (Höhe über dem Ellipsoid)
Geodätische Abbildungen
5.5.2
191
Das Gauß-Krüger-Koordinatensystem in Deutschland
Das in Deutschland für die Landesvermessung und für Katasterkarten sowie für Topographische Karten grundlegende Gauß-Krüger-System entspricht einer transversalen, konformen Zylinderprojektion mit einem längentreu abgebildeten Meridian (Mercatorprojektion). Das Konstruktionsprinzip kann durch einen querliegenden (d.h. transversalen) Abbildungszylinder verdeutlicht werden, der horizontal um die Erdkugel gedreht wird und der sie in mehreren Längenkreisen im Abstand von 3° Längengraden berührt:
2
3
4
5
6
Abb. 5.16: Anschauliche Darstellung der Gauß-Krüger-Abbildung
Somit wird das Gebiet durch mehrere Meridianstreifen mit den längentreu abgebildeten Haupt- oder Mittelmeridianen 6°, 9°, 12° und 15° östlicher Länge überdeckt. Auf jedem dieser Meridianstreifen - also lokal - entsteht ein rechtwinkliges Koordinatensystem mit dem Mittelmeridian als vertikaler Achse. Gegenüber dieser anschaulichen Darstellung liegt der Gauß-Krüger-Abbildung eine komplexe Berechnungsvorschrift von Rechts- und Hochwerten zugrunde (zu Formeln vgl. Bugayevskiy u. Snyder 1995 S. 159ff. und Snyder 1987 S. 60ff.). Diese Formulierung ist in der praktischen Anwendung durchaus, aber mathematisch streng genommen nicht winkeltreu (konform), da die Berechnung nur eine endliche Reihenentwicklung benutzen kann. Die mathematische Formulierung der konformen Abbildung geht auf C. F. Gauß zurück, der sie für die von ihm geleitete hannoversche Landesvermessung (1822-1847) entwickelt hat. Sie wurde von Schreiber (1866) und vor allem von Krüger (1912/1919) weiterentwickelt. Mit größer werdendem Abstand zum Mittelmeridian treten (erwartungsgemäß) Verzerrungen zwischen der Lage auf der Kugeloberfläche und dem Bild auf dem Abbildungszylinder auf. Um diese Verzerrungen zu verringern, wird ein Meridianstreifen nach Beschluss der Arbeitsgemeinschaft der Vermessungsverwaltungen vom Jahre 1966 nach beiden Seiten des Mittelmeridians auf eine Ausdehnung von 1°40´ in Längengraden (d.h. rund 100 km) beschränkt (vgl. Kahmen 1997 S. 283). So überlappen sich benachbarte Systeme in einem 20 Längenminuten breiten
192
Räumliche Objekte und Bezugssysteme
Streifen (im Mittel rund 23 km breit), in dem Punkte nach Bedarf in beiden Systemen berechnet werden. Hierdurch wird die Längenverzerrung so gering gehalten, dass sie in vielen praktischen Fällen vernachlässigt werden kann (maximal 12,3 cm auf 1 km in 50° Breite und auf Meeresspiegelhöhe, zu weiteren Werten vgl. Kahmen 1997 S. 282). Die Verwendung von Gauß-Krüger-Koordinaten soll am Beispiel der Lage des Rathausturms Berlin-Mitte aufgezeigt werden, der die geographischen Koordinaten 13°24´36,01´´ östlicher Länge und 52°31´11,65´´ nördlicher Breite besitzt. Somit befindet sich der Turm im Überlappungsbereich des vierten und fünften Meridianstreifens. Seine Gauß-Krüger-Koordinaten sind (nach Hake u. Heissler 1970 S. 136): Rechtswert: Hochwert:
im System des 12. Längengrades 4 595 696,00 m 5 821 529,20 m
im System des 15. Längengrades 5 392 088,39 m 5 821 783,04 m
Das rechtwinklige Koordinatensystem mit dem Mittelmeridian als vertikaler Achse definiert das Gitter aus Rechts- und Hochwerten. Um negative Rechtswerte zu umgehen, wird jedem Hauptmeridian der Wert 500000 zugewiesen. Ferner wird jedem Rechtswert noch die Kennziffer des Meridianstreifens vorangestellt, d.h. die durch 3 geteilte Längengradzahl des Hauptmeridians. Im vorliegenden Beispiel kennzeichnet die erste Zahl des Rechtswerts den zugehörigen Hauptmeridian (hier 4. Hauptmeridian, 12°). Unter Berücksichtigung des Zuschlags von 500.000 m für den Hauptmeridian liegt der Ordinatenfußpunkt genau 95.696,00 m östlich des Hauptmeridians von 12°. Er ist in diesem System 5.821.529,20 m (Hochwert) vom Äquator entfernt. Im 5. Meridianstreifen befindet sich der Turm 107.911,61 m westlich des Hauptmeridians von 15°. In diesem System ist der Ordinatenfußpunkt 5.821.783,04 m vom Äquator entfernt. An diesem Beispiel werden die Probleme der nicht eindeutig lösbaren Aufgabe deutlich, eine Kugeloberfläche in eine Ebene abzubilden. Da kartesische Koordinatensysteme, die vielen Anwendungen in der Geoinformatik und in Geoinformationssystemen zugrunde liegen, nur lokal aufgebaut werden können, sind Koordinatensprünge bei der Ausweisung einer Lage eines Geoobjektes in zwei benachbarten Meridianstreifen unvermeidbar. Obschon die Abweichung der Hochwerte auf den ersten Blick hoch erscheint, liegt sie deutlich unter dem vorgegebenen Maximalwert von 12,3 cm auf 1 km. In Geoinformationssystemen, die in den USA entwickelt wurden, ist zuweilen die Gauß-Krüger-Abbildung nicht direkt implementiert oder namentlich vorhanden. Jedoch kann die in der Regel stets verfügbare und abbildungstechnisch identische Transversale Mercatorprojektion benutzt werden, die in den USA beim sog. State Plane Coordinate System (SPCS), mit allerdings unterschiedlichem Ellipsoiden, zum Einsatz kommt. So sind dann bei einer Anwendung die geodätischen Angaben eigens zu ergänzen bzw. zu ändern.
Geodätische Abbildungen
5.5.3
193
Das Österreichische Bundesmeldenetz
Das Bundesmeldenetz (BMN) des Österreichischen Bundesamtes für Eich- und Vermessungswesen (BEV) ist ein geodätisches Koordinatensystem mit dem Bessel-Ellipsoiden und drei Meridianstreifen mit jeweils einer Breite von 3° Längengraden sowie dem Zentralpunkt Wien-Hermannskogel und der Orientierungsrichtung zum Hundsheimer Berg (vgl. Döller u.a. 1996, sog. Hermannskogel-Datum bzw. Austrian-Datum). Das Gebiet von Österreich wird von drei Meridianstreifen abgedeckt, die die jeweils längentreuen Mittelmeridiane 28°, 31° und 34° besitzen und die daher als M28, M31 und M34 bezeichnet werden (vgl. Abb. 5.17). Die Gradzählung bezieht sich aber nicht auf den Nullmeridian von Greenwich, sondern auf den von Ferro (westlichste Kanarische Insel, 17°40´ westl. Greenwich). Dieser ungewöhnliche Bezug erklärt sich aus der Lage der Landeshauptstadt Wien. Würde ein Bezug zu Greenwich gewählt worden sein, würde Wien in zwei Meridianstreifen liegen, und statt der heutigen drei Systeme wären vier notwendig. Die Bezugsmeridiane haben bezogen auf Greenwich die (üblichen) Koordinaten 10° 20’ E (M28), 13° 20’ E (M31) und 16° 20’ E (M34). Zur Vermeidung von negativen y-Koordinaten und um sich die Angabe des Bezugsmeridians zu ersparen, werden in Abhängigkeit vom Bezugsmeridian runde Werte zu den y-Koordinaten des Gauß-Krüger-Systems addiert (Rechtswert in Zone M28: y + 150.000 m, in Zone M31: y + 450.000 m, in Zone M34: y + 750.000 m, Hochwert x - 5.000.000 m, vgl. Bundesamt für Eich- und Vermessungswesen (Österreich) - Weblink). Die Koordinate (Rechtswert 428.000, Hochwert 170.000) kennzeichnet einen Ort im Gailtal in den Kärtner Alpen (etwa 46° 40’ nördl. Breite, 13° 3’ östl. Länge von Greenwich). Er liegt somit in Zone M31 und 22 km westlich des Bezugsmeridians 31° östlich von Ferro sowie 5.170 km nördlich des Äquators. Eine Kennzeichnung der Meridianstreifen (wie in Deutschland) entfällt. Derzeit werden im Rahmen der internationalen Harmonisierung die Österreichischen Kartenwerke und die Landesvermessung auf das UTM-System mit 6° breiten Meridianstreifen (basierend auf dem WGS84 und dem internationalen Nullmeridian von Greenwich) umgestellt (vgl. Kap. 5.5.5). 10°20'E
13°20'E
16°20'E
500
48°N 400 47°N
300
M31 200
46°N
50
150 250 350 450 550 650 750
Abb. 5.17: Das Österreichische Bundesmeldenetz
100 850
194
5.5.4
Räumliche Objekte und Bezugssysteme
Das Schweizer Koordinatensystem
Der Landesvermessung der Schweiz liegt eine winkeltreue, schiefachsige Zylinderabbildung mit dem Bessel-Ellipsoid und dem Fundamentalpunkt der Alten Sternwarte in Bern zugrunde, das im Jahre 1903 definiert wurde (sog. Schweizer Datum 1903, CH 1903, zugehöriger Bezugsrahmen LV03 für die Lage und Landesniveelement LN02 für die Höhe, angeschlossen am Repère du Niton in Genf). Der Winkel des schräg liegenden Abbildungszylinders entspricht der geographischen Breite von Bern (46° 57’ 08,66’’ N). Bezugsmeridian ist die Länge der Sternwarte von Bern (7° 26’ 22,50’’ E). Dieser Meridian stellt die X-Achse des Systems dar. Der Berührkreis der Abbildung ist der Großkreis, der den Bezugsmeridian in der Sternwarte Bern rechtwinklig schneidet. Er wird als Y-Achse des Systems in die Ebene abgewickelt (vgl. Schweizer Landestopographie - Weblink). 7° 26' 22,50'' E 300
46° 57' 08,66'' N
200
100
0 500
600
700
800
Abb. 5.18: Das Schweizer Koordinatensystem
Die Berner Sternwarte ist somit der Nullpunkt des Systems. Um negative Koordinaten zu vermeiden, erhält der Nullpunkt Zuschläge von y = 600 km und x = 200 km (vgl. Schweizer Landestopographie - Weblink). Der erste Wert einer Koordinate ist der sog. Rechtswert, der den Ost-West-Abstand der Position vom Bezugsmeridian angibt. Der zweite Wert einer Koordinate ist der sog. Hochwert, den Abstand der Position vom Berührgroßkreis beschreibt. Die Koordinate (Rechtswert 690.00, Hochwert 250.000) kennzeichnet einen Ort in der Stadt Dübendorf östlich von Zürich (etwa 47° 24’ nördl. Breite, 8° 38’ östl. Länge von Greenwich). Er liegt somit 90 km östlich und 50 km nördlich des Bezugspunktes in Bern (Schweizer Datum 1903, CH 1903). Das Bezugssystem CH1903+ wird zum neuen Bezugssystem für die amtliche Vermessung werden. Seine Bezugsrahmen LV95 (3D) und LHN95 (nur Höhe) werden mittelfristig die alten Bezugsrahmen LV03 und LH02 ersetzen. Dabei wird das Bezugssystem CH1903+ direkt aus dem Bezugssystem CHTRS95 abgeleitet, das global gelagert und das mit dem internationalen bzw. europäischen Bezugssystem verbunden ist. Die Lage im Raum des Referenzsystems wird durch die geozentrischen Transformationsparameter ins übergeordnete System ETRS89 (ungefähr identisch mit WGS84) festgelegt. Ein Maßstabsunterschied und eine Rotation werden nicht festgelegt:
Geodätische Abbildungen X(ETRS89) Y(ETRS89) Z(ETRS89)
= = =
X(CH1903) + Y(CH1903) + Z(CH1903) +
195 674,374 m 15,056 m 405,346 m
Für die neue Landesvermessung LV95 werden die Werte (2.600.000, 1.200.000) für die Koordinaten des Projektionszentrums verwendet. 5.5.5
Das UTM-Koordinatensystem
Das UTM-Koordinaten-System (Universales Transversales Mercator Koordinatensystem) ist eine konforme transversale zylindrische Abbildung, die 1947 von der US-Army (und dann später u.a. auch von der NATO) zur Kennzeichnung rechtwinkliger Koordinaten in Militärkarten der (gesamten) Welt eingeführt wurde. Sie wird inzwischen weltweit von verschiedenen Landesvermessungen und Kartenagenturen eingesetzt, wobei die zugrunde liegenden Ellipsoide zu beachten sind (zumeist der Internationale Ellipsoid von Hayford, jüngst GRS 80). Das UTM-System kann analog zum Gauß-Krüger-System durch einen transversalen Abbildungszylinder veranschaulicht werden, der je nach Zone systematisch um die Erde gedreht wird. Dabei wird die Erde in 60 Zonen (Meridianstreifen) mit einer Ausdehnung von je sechs Längengraden eingeteilt, wobei das UTMSystem die Erde zwischen 84° nördl. und 80° südl. Breite überdeckt. Somit ist ein Meridianstreifen beim UTM-System gegenüber dem Gauß-Krüger-System doppelt so groß. Jede Zone besitzt dann einen Mittelmeridian z.B. bei 3°, 9° oder 15° östlicher und westlicher Länge. Allerdings berührt beim UTM-System dieser Zylinder nicht die Erdkugel, sondern schneidet sie in zwei Parallelkreisen, so dass der Mittelmeridian nicht längentreu, sondern mit dem Faktor 0,9996 abgebildet wird. Hierdurch ist die Abbildung erst bei etwa 180 km beiderseits des Mittelmeridians längentreu. Am Grenzmeridian ist bei 50° Breite von einer Längenverzerrung von etwa 15 cm auf 1 km auszugehen (vgl. Hake, Grünreich u. Meng 2002 S. 77). Insgesamt führen die guten Abbildungseigenschaften zu einer (welt-)weiten Anwendung für Karten in einem mittleren Maßstab. Dem UTM-System liegt ein universelles Meldesystem zugrunde (UTM Reference System UTMREF), das es gerade für militärische Zwecke auszeichnete (d.h. in einer Zeit ohne Standortbestimmungen mit Hilfe von Satelliten, vgl. Kap. 6.5). So werden die Zonen beginnend mit dem 180. Meridian bezüglich Greenwich ostwärts von 1 bis 60 durchnummeriert. Die 1. Zone erstreckt sich somit zwischen 180° und 174° westlicher Länge und besitzt den Mittelmeridian 177° westlicher Länge. Die Zonen erstrecken sich jeweils von 80° südlicher bis 84° nördlicher Breite. Sie werden in Abschnitte von 8° Breite unterteilt, die beginnend mit C (bei 80° südlicher Breite) alphabetisch mit Großbuchstaben gekennzeichnet werden. In der Zone 32U (zwischen 6° und 12° östlicher Länge, Mittelmeridian 9° östlicher Länge) liegt ein großer Teil der Bundesrepublik Deutschland (vgl. Abb. 5.19). Die Zonenfelder werden ausgehend vom Mittelmeridian weiter in ein Quadratraster mit Maschenweite 100 km zerlegt, wobei die Quadrate durch Doppelbuchstaben gekennzeichnet werden. Innerhalb eines Quadrates können dann Punkte durch Koordinaten festgelegt werden. So liegt z.B. die Kirche von List (Nordostzipfel von
196
Räumliche Objekte und Bezugssysteme
Sylt) im UTM-Gitterfeld 32UMF6397, also innerhalb des Zonenfeldes 32U, innerhalb des 100 km Quadrates MF und dann innerhalb des 1 km Quadrates mit der Südwestecke 63 (rechts) und 97 (hoch). Ähnlich zur Gauß-Krüger-Notation beginnt die Zählung der X-Koordinaten am Äquator (angegeben mit N, North bzw. Nord), die der Y-Koordinaten jeweils am Mittelmeridian (angegeben mit E, East bzw. Ost). Die Koordinaten werden in Metern angegeben. Um negative Koordinaten zu vermeiden, werden zu dem jeweiligen Koordinatenursprung Zuschläge addiert. Die Mittelmeridiane erhalten jeweils den Wert 500000 (in Metern). In der amerikanischen Notation vieler Geoinformationssysteme wird dieser Wert „false easting“ genannt. Für die Südhalbkugel wird zu den negativen X-Werten die Zahl 10.000.000 addiert (in Metern). In der amerikanischen Notation vieler Geoinformationssysteme wird dieser Wert „false northing“ genannt. Den Nordwerten wird zu Beginn manchmal die zweistellige Bezeichnung des Meridianstreifens vorangestellt (für die westliche Hälfte Deutschlands 32, für die östliche Hälfte 33). Die Koordinate (Rechtswert 434.777, Hochwert 5.791.572) kennzeichnet einen Punkt im Schlossgarten der Stadt Osnabrück. Er liegt somit im WGS84 ca. 65 km westlich des Hauptmeridians von 9° und ca. 5.792 km nördlich des Äquators (im Bezugssystem WGS84 bzw. GRS80). Der identische Punkt hat im Bezugssystem ED 50 (Europäisches Datum 1950, Internationaler Ellipsoid nach Hayford) die UTM-Koordinaten (Rechtswert 434.859, Hochwert 5.791.776). Dies zeigt, dass sich UTM-Koordinaten auf verschiedene Geodätische Datumsangaben beziehen können und dass somit generell zu einer Koordinate das zugehörige Geodätische Datum angegeben werden muss. 9° 56°
48°
6°
32V
12°
LG
MG
NG
PG
LF
MF
NF
PF
LE
ME
NE
PE
LD
MD
ND
PD
32U
LC
MC
NC
PC
LB
MB
NB
PB
LA
MA
NA
PA
LV
MV
NV
PV
GP KU LU
MU
NU
QP TP PU
GN KT LT
MT
NT
QT TN PT
32T Abb. 5.19: Deutschland im UTM-System
6 Digitale räumliche Daten: Datengewinnung und Geobasisdaten
6.1 6.1.1
Grundbegriffe Primär- und Sekundärdaten
Kennzeichnend für Geoobjekte sind geometrische, topologische, thematische und zeitliche Informationen. Diese Daten bilden zusammen die Geodaten eines Geoobjekts. Zu unterscheiden sind einerseits Primärdaten, die auf Erhebungen oder Messungen beruhen und durch Nutzer noch nicht (wesentlich) aufbereitet wurden, und andererseits Sekundärdaten, die aus den Primärdaten abgeleitete und aufbereitete Daten darstellen. Daneben bestehen Metadaten, die beschreibende Informationen u.a. zur Mess- oder Erhebungsmethode, zum Erfassungsanlass oder zur Datenqualität enthalten können (vgl. Kap. 6.3). Die Erfassung von Geometrie, Topologie und Thematik eines Geoobjekts erfolgt nach jeweils unterschiedlichen Konzepten. Von besonderer Bedeutung für die Geoinformatik ist die Erhebung der geometrischen Information, also die Erhebung der Lage von Geoobjekten in einem räumlichen Bezugssystem, die in der Geoinformatik auf mehrere Arten möglich ist: - Erfassen von zweidimensionalen Lagekoordinaten mit Hilfe eines Digitalisiertabletts (sog. Digitalisierung i.e.S., vgl. Kap. 6.2.1), - Erfassen von zweidimensionalen Lagekoordinaten in einem Graphiksystem am Monitor anhand einer digitalen Karte im Bildschirmhintergrund als Referenzgrundlage (sog. On-Screen-Digitalisierung, vgl. Kap. 6.2.4), - Erfassen von dreidimensionalen Lagekoordinaten mit Hilfe des satellitengestützten Positionierungssystems GPS (vgl. Kap. 6.2.5 bzw. zu GPS Kap. 6.5), - Erstellen einer Rastergraphik aus rechtwinkligen Pixelkoordinaten durch Scannen einer Vorlage mit Hilfe eines Scanners und anschließender Transformation in ein räumliches Koordinatensystem (vgl. Kap. 6.2.2). Diese Erfassungstechniken liefern geometrische Primärdaten für individuelle Fragestellungen. Daneben können von den amtlichen Vermessungsverwaltungen und Katasterbehörden geometrische Informationen bezogen werden, die mit Methoden der Vermessung, des satellitengestützten Positionierungssystems GPS oder mit Hilfe der Photogrammetrie (vgl. Kap. 10.2.3) bestimmt wurden. Diese Daten haben den Stellenwert von Primärdaten, für sie ist inzwischen die Bezeichnung Geobasisdaten üblich (vgl. Kap. 6.6). Insbesondere beschäftigt sich die Vermessungskunde (d.h. die Geodäsie) mit der Vermessung und Berechnung größerer
198
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
oder kleinerer Teile der Erdoberfläche und ihrer Darstellung in Verzeichnissen, Karten und Plänen oder digitalen Geländemodellen (vgl. Kahmen 1997 S. 1 u. Bill u. Resnik 2000 S. 2). Topologische Informationen sind bei Rasterdaten implizit vorhanden(vgl. Kap. 9.2.3). Sie werden bei Vektordaten im Rahmen der Dateneingabe bzw. Datenmodellierung in einem Geoinformationssystem errechnet (vgl. Kap. 9.2.2). Die thematischen Informationen, d.h. die Sachdaten, werden in Abhängigkeit von der Fragestellung z.B. in der Klimatologie, der Ökologie, der Kommunalplanung oder im Verkehrswesen durch sehr unterschiedliche Methoden erhoben. Mess- und Analyseverfahren auf Grundlage numerischer bzw. mathematischer Rechentechniken stehen einfachen Zählungen oder qualitativen Beschreibungen gegenüber. Insgesamt hat die Messtechnik in der empirischen Wirtschafts- und Sozialforschung einen geringen Stellenwert. Für viele Merkmale existiert kein Sensor oder kein Messgerät: Alter, Besitzverhältnisse oder Planungsbeschränkungen eines Flurstücks lassen sich nicht automatisiert durch Messgeräte erfassen. Lediglich Zählungen (z.B. Passanten- oder Verkehrsströme) können mit Hilfe von Messgeräten oder von Zählsystemen basierend auf Lichtschranken durchgeführt werden. Diese Situation besteht auch bei einigen Merkmalen im Umweltbereich. So bestehen zur Bestimmung von Biotoptypen oder von Bodenprofilen keine Messgeräte. Jedoch können im Umweltbereich generell viel leichter Informationen durch automatisierte Verfahren empirisch gewonnen werden (vgl. Ermittlung von Messdaten wie Windrichtung oder anderer Klimaparameter, von Pegelständen oder Abflussmengen). Hier hat die Messtechnik eine weitaus größere Tradition. Hinzuweisen ist, dass die Techniken der (digitalen) Fernerkundung zu Primärdaten führen. Aufgrund der großen Bedeutung dieser Methoden in der Geoinformatik werden sie in einem eigenen Kapitel behandelt (vgl. Kap. 10). 6.1.2
Analog-Digital-Wandlung
Da ein Computersystem nur digitale Informationen verarbeiten kann, müssen die analog vorliegenden Daten in eine digitale Form transformiert werden. Diese Digitalisierung kann im einfachsten Fall manuell durch Eingabe von Daten über die Tastatur, halbautomatisch oder vollautomatisch mit Hilfe von Analog-DigitalWandlern durchgeführt werden: Zur halbautomatischen Analog-Digital-Wandlung gehört die Erfassung von geometrischen Informationen z.B. aus Zeichnungen oder Karten mit Hilfe eines Digitalisiertabletts (vgl. Kap. 6.2.1). Die Auswahl der zu digitalisierenden Punkte erfolgt manuell, die Lageermittlung der Digitalisierlupe auf dem Tablett sowie die Umrechnung in digitale Koordinatenwerte geschehen automatisch. Bei einer automatischen Analog-Digital-Wandlung werden die von einem Sensor erfassten Informationen automatisch in digitale Werte umgesetzt. Am weitesten verbreitet sind Sensoren zur Erfassung von Wetterdaten (z.B. Temperaturfühler). Ein Scanner, der z.B. die Grauwerte einer Vorlage erfasst und sie in digitale Signale umsetzt, gehört ebenfalls zu dieser Gruppe (vgl. Kap. 6.2.2).
Grundbegriffe
199
Bei jeder Analog-Digital-Wandlung können Genauigkeitsverluste auftreten. Bei der Dateneingabe über die Tastatur können relativ leicht Schreibfehler entstehen (u.a. vertauschte Ziffern, doppelte Zifferneingabe, Verschieben der Dezimalstelle). Während Ausreißer oder Rechtschreibfehler durch Plausibilitätskontrollen relativ leicht zu entdecken sind, können die übrigen Datenfehler nur schwer gefunden werden. Abgesehen von derartigen Fehlern treten bei der Analog-Digital-Wandlung systembedingte Ungenauigkeiten bzw. Vereinfachungen auf. So werden die Daten nur in der durch die Fragestellung oder Messtechnik vorgegebenen Genauigkeit erfasst (z.B. Lufttemperatur mit nur einer Nachkommastelle). 6.1.3
Diskretisierung
Von großer Bedeutung ist die mit der Analog-Digital-Wandlung verbundene Diskretisierung, d.h. eine zeitliche und räumliche Diskretisierung. So werden zeitlich kontinuierlich anfallende (Mess-) Daten wie Lufttemperatur, Niederschlag, Pegelstände oder Verkehrsströme nur in bestimmten Zeitintervallen erhoben oder auf Zeiträume bezogen und als Einzelwerte gespeichert. Insbesondere ist die räumliche Diskretisierung von Geoobjekten eine wesentliche Voraussetzung zur Erfassung und Modellierung in Geoinformationssystemen: - Punkthafte Geoobjekte sind bereits diskrete Daten. - Linienhafte Geoobjekte wie z.B. ein Bach oder ein Weg werden in einzelne Teilstrecken zerlegt, wobei nur deren Anfangs- und Endpunkt digital erhoben und der Verlauf dazwischen als geradlinig angenommen werden. Dieses Prinzip entspricht der Festlegung von Flurstücksgrenzen, bei der an jeder Ecke oder bei jeder Richtungsänderung der Grenze ein Grenzstein gesetzt ist. Zuweilen werden Anfangs- und Endpunkte erfasst und das Zwischenstück durch Angabe einer Funktion modelliert und diskretisiert (z.B. als Bogenstück durch Festlegen eines Radius). - Flächen werden durch Grenzlinien erfasst, die nach dem gerade beschriebenen Prinzip modelliert werden. - Bei Rasterdaten wird eine Linie (bzw. Fläche) durch einzelne bzw. benachbarte Pixel diskretisiert.
Abb. 6.1: Modellierung von Oberflächen durch Diskretisierungen
200
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Besonderen Aufwand zur (digitalen) Erfassung und Diskretisierung erfordern kontinuierliche Oberflächen oder dreidimensionale Körper. Hierzu können mehrere Ansätze benannt werden, für deren Umsetzung in Geoinformationssystemen spezifische Methoden bereitgestellt werden (vgl. Kap. 9.6): - Zerlegen in regelmäßig verteilte Rasterpunkte oder Rasterzellen und Visualisierung der Höheninformation durch unterschiedliche Säulenhöhen, - Berechnung und Visualisieren von Isolinien (vgl. Abb. 6.1), - Berechnung einer Dreiecksvermaschung und Visualisierung als dreidimensionale Oberfläche (vgl. Abb. 6.1).
6.2 6.2.1
Digitale Erfassung von Geometriedaten Digitale Erfassung von Geometriedaten im Vektorformat
Mit Hilfe eines Digitalisiertabletts und einer Digitalisierlupe werden Punkte erfasst, die als Vektoren in einem Koordinatensystem zu verstehen sind. Mit der Lupe werden ausgewählte Punkte einer Graphik, die auf dem Tablett aufliegt, nachgezeichnet. Nach Betätigen einer Eingabetaste auf der Digitalisierlupe werden zwei Leiterbahnen im Tablett aktiviert, die der X- bzw. Y-Koordinate entsprechen. Ausgewählt wird jeweils die Leiterbahn, die der Lage des ausgewählten Punktes am nächsten liegt. Die Auflösung und die Erfassungsgenauigkeit werden durch die Abstände der Leiterbahnen bestimmt. Die Bauart des Tabletts ermöglicht dabei die genaue Lagebestimmung der Lupe auf dem Tablett (vgl. Kap. 4.7.2, Abb. 4.7 und Abb. 6.2). Beim Arbeiten mit einem Digitalisiertablett werden sämtliche Geometrien durch einzelne Punkte erfasst, d.h. diskretisiert. Eine Linie wird durch eine Folge von Koordinaten angenähert. Dabei wird zunächst davon ausgegangen, dass zwischen den Koordinaten eine geradlinige Verbindung besteht. Eine gekrümmte Linie wird also in eine Folge von geradlinigen Stücken zerlegt, wobei nur jeweils deren End- bzw. Anfangspunkte erfasst werden (vgl. Abb. 6.2, zur geometrischtopologischen Modellierung von Geoobjekten im Vektormodell vgl. Kap. 9.2).
8 L4 7 6 L3 5 4 3 L2 2 1 L1 0 0 1 2 3 4 5 6 7 8
L1: (0,0), (1,1), (2,2) L2: (2,2), (3,1), (4,1), (5,1), (6,1), (7,2), (8,3), (8,4), (8,5), (7,6) L3: (7,6), (4,6), (3,6), (2,6), (1,6), (1,4), (2,2) L4: (7,6), (7,7), (7,8), (8,8)
Abb. 6.2: Koordinatenerfassung mit einem Digitalisiertablett
Digitale Erfassung von Geometriedaten
201
Abb. 6.3: Glättungseffekte bei unterschiedlichen Grainwerten
Ein Geoinformationssystem verfügt über verschiedene Funktionen, den Linienverlauf zwischen zwei digitalisierten Koordinaten, d.h. zwischen zwei sog. Stützstellen einer Linie, zu modellieren. Da der Abbildung 6.2 ein sehr grobes Raster und breite Abstände der Leiterbahnen zugrundegelegt sind, ergibt sich eine grobe und eckige Datenerfassung. Ein Glättungseffekt ist über die Vorgabe eines sog. Grainwertes (d.h. Körnung) möglich. Wenn die Stützstellen weiter auseinander liegen als der eingestellte Grainwert, werden algorithmisch weitere Stützstellen hinzugefügt. Ist der Abstand kleiner, werden Stützstellen gelöscht und somit der Verlauf einer Linie vereinfacht (vgl. Abb. 6.3, vgl. Douglas-Peucker Algorithmus in Kap. 3.5.1). Allerdings bestimmt die Fragestellung, ob eine derartige Generalisierung zulässig ist. Sie verbietet sich z.B. bei der Erfassung von rechtsverbindlichen Flurstücksgrenzen für ein Liegenschaftskataster. Die Vorgabe von Kurvenradien ist hingegen bei der Aufnahme von Straßenverläufen gängige Praxis. Ein Digitalisiertablett kann als Eingabegerät immer dann direkt genutzt werden, wenn geometrische Objekte (Punkte, Linien, Flächen) passgenau von einer Kartenvorlage ermittelt werden müssen und wenn die Geoobjekte in einem rechtwinkligen Bezugssystem vorliegen. Bei der Analog-Digital-Wandlung wird stets das rechtwinklige, d.h. orthogonale Koordinatensystem des Digitalisiertabletts und nicht der Netzentwurf der Kartengrundlage zugrundegelegt. Falls in der Vorlage kein orthogonales Kartennetz vorliegt, müssen die orthogonalen Gerätekoordinaten in den zugehörigen Kartenentwurf projiziert werden. Erst dann können Flächenberechnungen oder Abstandsmessungen vorgenommen werden. Ein Geoinformationssystem bietet für derartige Umrechnungen viele Werkzeuge. Die Gerätekoordinaten des Digitalisiertabletts haben neben der Orthogonalität eine weitere Eigenschaft: Der Ursprung des Koordinatensystems ist in der linken unteren Ecke (0,0). Die Koordinaten sind zumeist Abstände in mm von diesem Ursprung. Durch das Digitalisiersystem besteht jedoch die Möglichkeit, diesen Gerätekoordinaten sog. Real-World-Koordinaten (z.B. Gauß-Krüger-Koordinaten) zuzuordnen. Während der Kalibrierung der Digitalisiervorlage werden ausgewählte Punkte auf dieser Vorlage festgelegt und gleichzeitig mit der Auswahl dieser Punkte auch die korrespondierenden Koordinaten innerhalb des gewünschten Bezugssystems bestimmt. Als Passpunkte sollten solche Punkte genommen werden, deren genaue Koordinaten bekannt sind und die jederzeit wiedergefunden werden können. Die Passpunkte sollten in ausreichender Anzahl über das gesamte Digitalisiergebiet verteilt sein. Die Erfassungssoftware bzw. die Funktionalität des Geoinformationssystems errechnet aus der Lage der Passpunkte im Gerätekoordinatensystem und aus den zugehörigen Real-World-Koordinaten eine Koordinatentransformation und benennt den RMS-Fehler (vgl. Kap. 5.2.4.5). Das Digitalisiersystem rechnet anschließend direkt bei der Erfassung die Geometrien in RealWorld-Koordinaten um.
202
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Über die Kalibrierung und Transformation in Kartennetzentwürfe auf RealWorld-Koordinaten hinaus unterstützt das Digitalisiersystem auf vielfältige Weise die Erfassung von Geometriedaten und hilft, Fehler zu beseitigen oder sie gar nicht erst entstehen zu lassen. Sehr häufige Probleme sind lückenhafte Erfassungen von linienhaften Datenstrukturen, die dann auftreten, wenn z.B. der Endpunkt einer Linie nicht genau mit dem Anfangspunkt einer anderen Linie übereinstimmt. Bei der Erfassung sollte ein sog. Koordinatenfang gesetzt werden, so dass diejenige Koordinate nur angenähert zu wählen ist, an die z.B. eine Linie angeschlossen werden soll. Der Anfang der neuen Linie springt oder „schnappt“ auf eine vorhandene Koordinate. Von Vorteil ist eine strenge Knoten-Kanten-Knoten Erfassung, bei der Linienstücke bzw. Kanten digitalisiert werden, die immer an einem Knoten beginnen und die genau bis zum nächsten Knoten gehen. Hierbei wird niemals über eine Kreuzung mit anderen Linien bzw. Kanten hinaus digitalisiert. Eine Linie endet immer an einem Knoten, wobei ein Knoten als Treffpunkt mindestens dreier Linien definiert ist. Die Knoten-Kanten-Knoten-Digitalisierung entspricht der geometrisch-topologischen Modellierung von Geoobjekten nach dem Vektormodell in Geoinformationssystemen (vgl. Kap. 9.2.2). Diese Digitalisiervariante ist sehr stringent, aber auch aufwändig. Demgegenüber stellt die sog. Spaghettidigitalisierung keine spezifischen Anforderungen. Die Linien werden beliebig erfasst, sie müssen nicht an Kreuzungen mit anderen Linien enden und können sich überlagern. Hierdurch ergeben sich Vereinfachungen. Eine derartige, unsystematische Analog-Digital-Wandlung sollte aber immer vermieden werden. Ein Geoinformationssystem stellt zwar Funktionen bereit, um eine Spaghettidigitalisierung in eine Knoten-Kanten-Knoten-Digitalisierung zu überführen. Jedoch können bei der Spaghettidigitalisierung eher Inkonsistenzen und Fehler wie vor allem fehlende Punkte oder Linien auftreten. Dann entsteht ein vergrößerter Aufwand, um diese Probleme zu beseitigen. 6.2.2
Digitale Erfassung von Geometriedaten im Rasterformat
Zu den automatischen Analog-Digital-Wandlern gehören Scanner, die Vorlagen wie z.B. Bilder, aber auch Grundrisszeichnungen und Karten in digitale Daten transformieren und dabei die Vorlage in ein feines Raster von Pixeln zerlegen (vgl. Kap. 2.5.6 u. Abb. 2.7 sowie Kap. 4.7.2). Herauszustellen ist, dass die Pixel Träger von geometrischen und topologischen Informationen sowie von Sachinformationen sind, die als Grau- oder Farbwerte erfasst werden! Hier stehen zunächst nur die Geometriedaten im Vordergrund. Zur Auswertung der Sachinformationen wurden in der digitalen Bildverarbeitung spezifische Methoden entwickelt, mit denen eine Mustererkennung oder eine Klassifikation der Pixel z.B. nach ähnlichem Grauwert möglich sind (vgl. Kap. 10.7). Anzumerken ist, dass die Daten nach einer Erfassung mit einem Scanner in einem kartesischen Koordinatensystem mit Pixelkoordinaten vorliegen. Somit wird eine Transformation auf ein Bezugssystem z.B. der Landesvermessung notwendig (sog. Georeferenzierung, zur Transformation vgl. Kap. 5.2.4 und Kap. 10.6.1.2).
Digitale Erfassung von Geometriedaten
6.2.3
203
Konvertierung zwischen Vektor- und Rasterdaten
In komplexen Umweltinformationssystemen liegen Daten sowohl im Vektor- wie auch im Rasterformat vor. So kann ein Emissionskataster die verschiedenen Emittenten zunächst im originären Raumbezug nachweisen (z.B. Kraftwerke oder Industrieanlagen als Punktobjekte, den Verkehr auf Straßenabschnitten als Linienobjekte oder die Emittentengruppe Hausbrand auf Baublockbasis als Flächenobjekte). Ebenso erfolgen sämtliche Berechnungen der Emissionen z.B. aufgrund von Emissionsfaktoren aus Wärmeäquivalenten auf dieser originären Raumbezugsebene. Sollen hingegen sämtliche Emissionen eines einzelnen Luftschadstoffes für alle Emittentengruppen dargestellt werden, muss eine einheitliche Raumbezugsbasis gewählt werden, wozu sich dann ein Quadratraster anbietet. Hierbei ergibt sich die Notwendigkeit, die Vektordaten in Rasterdaten zu konvertieren (sog. Rasterisierung). Die umgekehrte Richtung, die Umwandlung von Rasterdaten in Vektordaten (sog. Vektorisierung), wird dann notwendig, wenn nach einer Datenerfassung in Rasterform (z.B. Analog-Digital-Wandlung mit einem Scanner) eine Weiterverarbeitung als Vektordaten erfolgen soll. Für beide Konvertierungsrichtungen bestehen zumeist auch in Geoinformationssystemen geeignete Algorithmen und Funktionen. Während die Vektor-Raster Konvertierung auf eine Vergröberung der Ausgangsinformationen hinausläuft und relativ unproblematisch ist, kann eine Vektorisierung zuweilen nicht zu eindeutigen Ergebnissen führen und wird kaum ohne manuelle Nachbearbeitung auskommen. So kann ein Pixel sowohl ein Punktobjekt wie auch ein kleines Liniensegment oder eine kleine Fläche darstellen. Die Entscheidung muss letztlich in der manuellen Nachbearbeitung kontextabhängig erfolgen. Y ia
Nullpunkt der Rastermatrix xa ya
i
xe ye
ie
I
ja
js
jt
je
J
Nullpunkt der Vektorkoordinaten X
Abb. 6.4: Prinzip der Vektor-Raster-Datenkonvertierung
Hinsichtlich der Darstellung von Linien und Flächen durch Raster soll hier lediglich die wichtige, geometrische Konvertierung von Linien behandelt werden (zur Konvertierung von Sachdaten vgl. Kap. 9.4.2). Hierbei werden die Zeilenund Spaltenindizes der Pixel bestimmt, die von einem Liniensegment geschnitten werden. Da Anfangs- (xa,ya) und Endkoordinaten (xe,ye) des Segmentes sowie die
204
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Pixelgröße bekannt sind, können die Zeilen- und Spaltenindizes des Anfangs(ia,ja) und Endpixels (ie,je) berechnet werden (vgl. Abb. 6.4). Für alle Zeilen i zwischen ia und ie sind anschließend die Spaltenindizes js und jt zu bestimmen (Aufstellen der Geradengleichung, Schnitt mit dem Raster), so dass die Pixel zwischen js und jt den Wert 1 erhalten und „geschwärzt“ erscheinen. Gegenüber dieser vereinfachten Darstellung ist zu beachten, dass die beiden Koordinatensysteme unterschiedlich orientiert sind und Integeroperationen (Rechnungen mit ganzen Zahlen) vorliegen (vgl. Hake u. Grünreich 1994 S. 212 u. Worboys 1995 S. 230ff.). Zur Vektorisierung haben zwei Methoden bzw. Strategien eine praktische Bedeutung erlangt. Bei der Randlinienextraktion werden zunächst für ein Objekt (definiert durch P(i,j) = 1 für das Objekt und P(i,j) = 0 sonst) die sog. N.4Randpixel bestimmt (vgl. Kap. 9.2.3). Dabei ist ein N.4-Randpixel dadurch definiert, dass für mindestens eines der vier zu diesem Pixel benachbarten Pixel, die eine Kante gemeinsam haben, gilt: P(i,j) = 0. Anschließend werden über alle Randpixel die Linien verfolgt, in ein kartesisches Koordinatensystem transformiert und geglättet, so dass Treppeneffekte beseitigt werden (vgl. Abb. 6.5).
Abb. 6.5: Prinzip der Randlinienextraktion bei der Raster-Vektor-Konvertierung
Während die Randlinienextraktion bei der Vektorisierung von Flächen Vorteile besitzt, bietet sich die Methode der Mittellinienextraktion bei Strichdarstellungen an (vgl. Abb. 6.6). Grundlage hierfür ist die sog. topologische Skelettierung, bei der u.a. Linienanfänge, Linienelemente und Knoten zu bestimmen sind (zum Verfahrensablauf vgl. Hake u. Grünreich 1994 S. 214 u. Worboys 1995 S. 230ff.). Nach der Knotenpunktextraktion setzt schließlich die Linienverfolgung ein. Allerdings kann das Ergebnis der Vektorisierung noch Mängel aufweisen, die sich teilweise automatisiert beheben lassen (vgl. Linienglättung), die zumeist aber eine manuelle Korrektur erfordern (vgl. Abb. 6.6 u. 6.7).
Abb. 6.6: Prinzip der Mittellinienextraktion bei der Raster-Vektor-Konvertierung
Digitale Erfassung von Geometriedaten
205
Ausrundung von Ecken Knotenbrücke Stoppel
Insel
Abb. 6.7: Probleme bei der Raster-Vektor-Konvertierung von Linienstrukturen (nach Hake u. Grünreich 1994 S. 217)
6.2.4
On-Screen-Digitalisierung
Unter der On-Screen-Digitalisierung versteht man die digitale Datenaufnahme von Geometrien direkt am Bildschirm (also „On Screen“). Bei dieser Technik dienen im Bildschirmhintergrund liegende Graphiken (z.B. Grundrisspläne, Bilder) als Vorlage, aus der Geometrien am Bildschirm nachgezeichnet werden.
Abb. 6.8: Erfassung von Geometrien am Bildschirm
Die Abbildung 6.8 zeigt die On-Screen-Datenerfassung für das Grünflächenkataster der Stadt Osnabrück. Der Untersuchungsansatz beruht darauf, die in Osnabrück flächendeckend vorhandenen digitalen Geobasisdaten (vor allem Informationen der Automatisierten Liegenschaftskarte vgl. Kap. 6.6.2) mit den in Form analoger Luftbilder und Karten vorliegenden Fachdaten in ein digitales Grünflächeninformationssystem zusammenzuführen (vgl. de Lange u. Wessels 2000 u.
206
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Nicolaus 2000). Auf der Basis mehrerer digitaler Informationsschichten werden am Bildschirm Grünflächen und zugehörige Flächeninhalte wie z.B. bestimmte Strauchpflanzungen oder Rasenflächen identifiziert (vgl. in Abb. 6.8 die nur schwach wiedergegebenen Linien im Luftbild, rechts daneben das Ergebnis der Datenerfassung ohne Luftbild). Hauptquelle für die eigentliche Inventarisierung sind Echtfarb-Luftbilder im mittleren Maßstab 1:3.000. Die analogen Senkrechtluftbilder werden gescannt und müssen, da sie einen durch die Aufnahmeoptik bedingten Fehler aufweisen, danach entzerrt und auf das Gauß-Krüger-Koordinatensystem georeferenziert werden (vgl. Kap. 10.6.1.2, Erzeugen digitaler Orthophotos). Digitalisierung und Entzerrung der Luftbilder sind Voraussetzung, um sie am Bildschirm mit den anderen digitalen Informationsquellen zu kombinieren. 6.2.5
Erfassung von Lagekoordinaten mit GPS
Das Erfassen von dreidimensionalen Lagekoordinaten mit Hilfe des satellitengestützten Positionierungssystems GPS (Global Positioning System) hat das traditionelle Vermessungswesen revolutioniert und wird geodätische Vermessungen mit Maßband, Messlatte und Theodolit in naher Zukunft weitgehend ersetzen (zum Grundprinzip von GPS vgl. Kap. 6.5). Das satellitengestützte Navigationssystem GPS wurde ursprünglich für militärische Ortungszwecke entwickelt. Inzwischen wird es äußerst vielfältig für verschiedene Fragestellungen der Vermessung und der Erfassung von Geoobjekten im Gelände eingesetzt. Eine große wirtschaftliche Bedeutung hat das GPS durch die Verbreitung von Navigationssystemen erlangt. Für vermessungstechnische GPS-Anwendungen werden spezielle Empfänger angeboten, die u.a. spezielle vermessungstechnische Funktionen, menügeführte Bedienung und Eingabemöglichkeiten mit hoher Funktionalität besitzen. Ein Anwendungsbeispiel ist der Aufbau eines Haltestellenkatasters für Busse. Durch einen GPS-Empfänger werden die Positionen der einzelnen Haltestellen ermittelt und gemeinsam mit Ausstattungsmerkmalen direkt im Gelände mit einem Notebook erhoben. Dazu wird mit einer geeigneten Software ein Formular entwickelt, in das über die Tastatur des Notebooks Sachdaten eingegeben und der Koordinatenabruf gesteuert werden. Das Notebook ist mit einem GPS-Empfänger gekoppelt. Für die softwaretechnische Datenübernahme muss ferner die Datenschnittstelle definiert werden. Für den Datentransfer zwischen GPS-Gerät und Desktop-PC oder Notebook hat sich der sog. NMEA0183-Standard etabliert, der von der National Marine Electronics Association entwickelt wurde und der Kodierungen umfasst, die allgemein als Sprache für die Kommunikation zwischen elektronischen Marine-Geräten akzeptiert werden. Zudem muss der Software im Desktop-PC oder Notebook und dem GPS-Gerät das jeweilige Geodätische Datum vorgegeben werden, um eine Positionsbestimmung in Landeskoordinaten (z.B. UTM- oder noch Gauß-Krüger-Koordinaten) zu erhalten. Einzelne Anwenderprogramme, die mit einem GPS-Gerät kommunizieren, erwarten aber über die Datenschnittstelle WGS84-Koordinaten und rechnen diese dann anschließend in das gewünschte Koordinatensystem des Anwenders um. Standardmäßig werden durch das GPS-Gerät Koordinaten im System WGS84 geliefert (vgl. Kap. 5.4 u. 6.5).
Metadaten und Qualität von Daten
6.3 6.3.1
207
Metadaten und Qualität von Daten Metadaten
Geodaten dienen der Lösung einer raumbezogenen Fragestellung. Dabei können diese Daten nicht nur die verschiedensten fachlichen Bedeutungen tragen und für unterschiedliche Raumausschnitte vorliegen, sondern auch in einer Vielzahl von Formaten gespeichert sein und stark differierende Qualitäten aufweisen. Umfang und Heterogenität der vorgehaltenen Daten erreichen sehr schnell eine Größenordnung, die eine effektive Datenhandhabung ohne zusätzliche Informationen unmöglich macht. Erst zusätzliche datenbeschreibende Informationen, Daten über Daten oder sog. Metadaten, können dann den Informationsgehalt von Geodaten erschließen. Die Verfügbarkeit von Daten allein ist völlig unzureichend, wenn nicht ausführliche Beschreibungen vorliegen, nach welchen Verfahren oder Genauigkeitsvorgaben, aus welchem Anlass, zu welchem Zeitpunkt und von welchem Bearbeiter diese erstellt wurden. Unter dem Begriff Metadaten werden solche Angaben verstanden, die zum Nachweis und Zugriff auf Datenbestände erforderlich sind bzw. in formalisierter Form die Beschreibung komplexer Informationen erlauben. Beschreibende Metadaten sollen: -
über Daten und Datenquellen informieren, Datenalternativen aufzeigen, Datenredundanzen aufzeigen bzw. vermeiden, Datenlücken aufzeigen bzw. vermeiden, einen Datenaustausch ermöglichen bzw. erleichtern.
Insgesamt helfen somit Metadaten, die Daten bzw. den Datengehalt und die Datenqualität transparent zu machen. Derartige Metadaten werden auch beim Aufbau komplexer Umweltinformationssysteme notwendig, bei dem häufig weniger neue Daten erhoben, als vielmehr Datensammlungen aus den vergangenen Jahren aufbereitet und in eine gemeinsame Struktur überführt werden. Dabei liegen mehrere typische Organisationsmerkmale vor: - Die Erhebungen der Originaldaten wurden von unterschiedlichen Stellen durchgeführt, d.h. von anderen Ämtern oder Abteilungen in einer Kommune, von Einrichtungen einer Landesbehörde oder von privaten Einrichtungen. - Die Datenerhebungen erfolgten jeweils unabhängig voneinander mit unterschiedlicher Zielsetzung und differierender Informationstiefe. - Die Daten wurden erhoben, ohne eine spätere Integration der Daten in ein Umweltinformationssystem zu beabsichtigen. Eine Nutzung und Weiterverarbeitung dieser Informationen kann recht kritisch sein, wenn unzureichende Kenntnisse über die Methodik und die Anlässe der Erhebungen vorliegen oder die Daten unvollständig sind. Ohne Metadaten können derartige Fachdaten rasch wertlos werden. Nach Bill (1996) können mehrere Begriffsebenen von Metadaten unterschieden werden:
208
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Semantische Metadaten beschreiben die Daten nach fachlichen Bedeutungsinhalten. Sie geben u.a. Maßeinheit, verwendete Messgeräte, die Messfehler, Ortsbezug und numerische Erfassungsgenauigkeit wieder. Ferner gehören hierzu auch Informationen zum Erhebungszweck oder zu Urhebern der Daten. Diese Informationen werden vor allem von den Anwendern benötigt, um Verwendungsmöglichkeiten der Daten beurteilen zu können. Diese Merkmale enthalten insbesondere wesentliche Aussagen zur Datenqualität. Syntaktische Metadaten beschreiben die Daten nach strukturell-formalen Gesichtspunkten wie z.B. Datentyp, Wertebereich oder Datenstruktur. Diese Informationen werden vor allem bei einem konkreten Datenaustausch benötigt. Pragmatische Metadaten beschreiben die Daten nach ihrer Nutzbarkeit und nach (rechtlichen) Voraussetzungen der Datenverfügbarkeit sowie Kosten der Datenbeschaffung. Hierzu gehören auch sog. navigatorische Metadaten, die Zugriffsmöglichkeiten benennen (z.B. Zugriffspfade, Hypertextinformationen). Beim Aufbau von Metainformationssystemen können zwei Richtungen verfolgt werden (vgl. Krasemann 1996 S. 10). Der erste Anwendungsbereich umfasst Konzepte und Anwendungen, die Informationen über andere Informationsquellen bereitstellen. Der zweite Anwendungsbereich zielt weniger darauf ab, die Daten zu finden, als vielmehr sie einer breiten Gruppe von Anwendern und auch NichtFachleuten zu erläutern, so dass sie mit anderen Daten oder Anwendungen verknüpft werden können. Häufig sind aber beide Bereiche nicht exakt zu trennen. Dies gilt vor allem für Metainformationssysteme im Internet. Beispiele sind der Umweltdatenkatalog UDK (vgl. Kap. 6.3.2), verschiedene Datenbanken des Umweltbundesamtes wie z.B. die Umweltforschungsdatenbank UFORDAT oder die Umweltliteraturdatenbank ULIDAT (vgl. Datenbanken Umweltbundesamt - Weblink), das Umweltinformationsnetz Deutschland (vgl. vgl. Kap. 6.3.2), das Zentrale Umwelt- und Klimadaten-Metainformationssystem ZUDIS des Forschungszentrums Karlsruhe (vgl. Zentrale Umwelt- und Klimadaten-Metainformationssystem (ZUDIS) - Weblink), das Register of Ecological Modelling REM (Metadatenbank für mathematische Modelle in der Ökologie, vgl. REM-Weblink), das Fachinformationssystem Boden des Niedersächsischen Bodeninformationssystems NIBIS (NIBIS FIS-Boden, u.a. auch Nachweis geeigneter Auswertemethoden, vgl. Niedersächsisches Bodeninformationssystem - Weblink), oder das Bodeninformationssystem BIS in Nordrhein-Westfalen (vgl. Bodeninformationssystem NRW Weblink) sowie das sehr umfassende Metainformationssystem geoMDK der niedersächsischen Landesverwaltung zur Erfassung, Pflege und Recherche von Metainformationen über Geodaten (vgl. geoMDK - Weblink). 6.3.2
Der Umweltdatenkatalog UDK und das Umweltinformationsnetz Deutschland
Der Umweltdatenkatalog (UDK) ist ein Metadaten-Informationssystem zum Auffinden von umweltrelevanten Datenquellen, die in den öffentlichen Verwaltungen vorhanden sind. Der UDK wird in Deutschland vom Bund und 15 Ländern eingesetzt und wird Teil des Umweltinformationsnetzes Deutschland gein (German En-
Metadaten und Qualität von Daten
209
vironmental Information Network, vgl. UDK-GEIN - Weblink) sein. Der Umweltdatenkatalog leistet die inhaltliche Beschreibung der Datenbestände und der Wege zu den Daten. Als wesentliche Aufgaben und Vorteile des Umweltdatenkatalogs sind zu nennen: - Schaffen eines möglichst kompletten Überblicks über die großen Mengen umweltrelevanter Datenbestände, die von Behörden und Institutionen erhoben und gespeichert werden, - präzise Beschreibung der Datenqualität dieser Datenbestände, - überregionale Standardisierung der Beschreibung von Datenquellen. Der UDK wurde 1991-1995 im Niedersächsischen Umweltministerium im Rahmen eines von Umweltbundesamt geförderten Forschungsvorhabens entwickelt. Zwischen 1996 und 2003 war eine Bund-Länder-Verwaltungsvereinbarung in Kraft, die die Weiterentwicklung, Pflege und Einführung des UDK zum Ziel hatte. Seit dem 1.1.2003 wurde sie durch die Verwaltungsvereinbarung UDK/GEIN ersetzt. Im UDK werden technisch unabhängig von den originären Datenbeständen Metadaten verwaltet. Somit stellt der UDK ein selbständiges Informationssystem dar. Die zentralen Bestandteile des UDK sind die sog. UDK-Objekte, die Metadaten zu den umweltrelevanten Datenbeständen enthalten. Dabei werden nicht nur die Datenbestände im engeren Sinne dokumentiert, sondern auch die datenproduzierenden Projekte oder Systeme. Unterschieden werden sechs Objektklassen: -
Organisationseinheit/Fachaufgabe, Datensammlung/Datenbank, Dokument/Bericht/Literatur, Geoinformation/Karte, Dienst/Anwendung/Informationssystem, Vorhaben/Projekt/Programm.
Zu jedem der UDK-Objekte wird u.a. die Auskunft gebende Stelle mit Adresse vorgehalten. In der Internet-Version trägt der UDK dazu bei, das Umweltinformationsgesetz praktisch umzusetzen und der Öffentlichkeit den freien Zugang zu Umweltinformationen zu erleichtern. Der sog. Virtuelle WWW-UDK ermöglicht die gleichzeitige Recherche in den Umweltdatenkatalogen der Kooperationspartner (vgl. Umweltdatenkatalog - Weblink). Das Umweltinformationsnetz Deutschland gein erschließt die über die Webseiten zahlreicher öffentlicher Einrichtungen - wie Umweltbehörden, Bundes- und Landesämter, Ministerien - verteilt gelegenen Informationen und dient so als Informationsbroker für Umweltinformationen in Deutschland. Über dieses Portal für Umweltfragen werden im Sommer 2005 über 700.000 einzelne Webseiten und sieben Datenbanken von Bund und Ländern erschlossen. Es bietet jedem Internetbenutzer zu diesen Informationen einen unkomplizierten Zugang über eine einzige Adresse. Darüber hinaus erhält der Benutzer vielfältige Unterstützung bei der Wahl geeigneter Suchbedingungen durch Fach-Vokabular oder einen interaktiven Umweltkalender, der die Suche nach vielfältigen Ereignissen im Zusammenhang mit Umweltfragen ermöglicht (z.B. Umweltkatastrophen, Störfälle, Gesetze).
210
6.3.3
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Der Content Standard for Digital Geospatial Metadata
Ein Vorbild für den Aufbau von Metainformationen bildet der Content Standard for Digital Geospatial Metadata (CSDGM), der vom US-Federal Geographic Data Committee entwickelt wurde. Anhand von zehn Kategorien und insgesamt durch mehr als 200 Attribute werden Inhalt und Entstehungskontext raumbezogener Daten beschrieben sowie Regeln zur Dokumentation aufgestellt. Seit 1995 muss jede US-Behörde sämtliche neuen raumbezogenen Daten, die von ihr erhoben oder direkt bzw. indirekt produziert werden, nach diesem Standard dokumentieren. Der CSDGM wurde 2002 bzw. 2003 fortgeschrieben und umfasst nun Vorgaben für Fernerkundungsdaten bzw. räumlich referenzierte demographische Daten (vgl. Content Standard for Digital Geospatial Metadata - Weblinks). Tabelle 6.1: Content Standard for Digital Geospatial Metadata der FGDC (Quelle: pdf-Dokument in Content Standard for Digital Geospatial Metadata - Weblink) Gruppen
ausgewählte Attribute
identification information data quality information spatial data organization inform. spatial reference information entity and attribute information distribution information metadata reference information citation information time period information contact information
u.a. citation, description, time period of content, status, access constraints, keywords u.a. attribute accuracy, positional accuracy, logical consistency report, completeness report u.a. point and vector object information (u.a. types and numbers of vector objects), raster object information (u.a. row count) horizontal_and_vertical_coordinate_system definition (u.a. map projection) detailed_decription u.a. entity_type, attribute_definition, attribute_domain values u.a. distributor, digital_transfer_option, available_time_period
6.3.4
metadata_date, metadata_use_constraints, metadata_security_information publication_date, title, series_information, publications_information single_date/time, range_of_dates/times contact_person_primaty, contact_position, contact_electronic_mailaddress
Metadaten-Informationssystem über Geodaten des Bundes
Der Interministerielle Ausschuss für Geoinformationswesen (IMAGI) hatte als erste Aufgabe, eine Konzeption eines effizienten Datenmanagements für Geodaten zu erstellen (vgl. Kap. 6.7). Die Konzeption wurde 2000 fertiggestellt und enthielt u.a. Empfehlungen zum Mindestumfang eines Metainformationssystems (vgl. Fortschreibung in Tabelle 6.2, Juli 2005). Das Summary Profile der Metadatenelemente für ein Metainformationssystem für Geodaten des Bundes enthält insgesamt 58 Felder, die aber nicht sämtlich in der Tabelle 6.2 wiedergegeben sind.
Metadaten und Qualität von Daten
211
Davon sind 6 Felder nicht im der Kernmenge des ISO-Standards 19115 (Geographic Information - Metadata) enthalten, sie sind aber für den IMAGI zum Aufbau eines GeoMIS.Bund wichtig. Die Tabelle 6.2 kennzeichnet Pflichtfelder nach ISO 19115 vom Typ M/M und weitere fünf konditionale Pflichtfelder vom Typ C/M (d.h. entweder Angabe der sog. GeographicBox oder des GeographicIdentifiers). Die weiteren Felder sind nach dem ISO-Standard nicht zwingend. Ein an das GeoMis.Bund anzuschließendes Fachinformationssystem sollte aber nach Empfehlung des IMAGI alle angegebenen Felder enthalten. Tabelle 6.2: Auszug aus dem Summary Profile der Metadatenelemente für ein Metainformationssystem für Geodaten des Bundes, GeoMIS.Bund (Quelle: mdl. Auskunft IMAGI 2005) Typ Kurzname Beispiel Definition m/m resTitle Dig Top. Karte 1:50000 name by which the cited resource is known x resAltTitle DTK 50 short name for cited information o/c rpIndName* Frau/Herr XYZ name of the responsible person-name o/c rpOrgName* Bund.amt f. Naturschutz name of the responsible organization o/m role* owner function performed by the respon.party o/c delPoint Konstantinstraße 110 address line for the location o/o city Bonn city of the location o/o postCode 53179 ZIP or other postal code o/o country Deutschland country of the physical address o/o voiceNum* 0228/8491-0 tel numb.of the respon.org. or indiv. c/m westBL minimum bounding c/m eastBL rectangle within c/m northBL which data c/m southBL is available c/m code Bundesrep. Deutschland o/o identCode Gauss-Krüger name of reference system m/m refDate 2002-02-28 reference date for the cited resource m/m dateType creation event used for reference date o/m begin 2000-01-31 date and time for the content of the dataset o/m end 2000-01-21 m/m dataLang de language(s) used within the dataset m/m idAbs Rekonstr. Moorverbr brief narrative summary of the content (s) m/m tpCat Biota main theme(s) of the datset x keyword Wasser Comm..used word(s) or phrase(s) f. subject x useConsts copyright constr applied to assure protection m/m mdDataSt 2000-01-31 date that the metadata was created x mdParenttID identifyer of MD to which this MD is a subset x mdHrLv scope to which the MD applies x mdHRlvName name of the hierarchy levels the MD is prov. m/c rpIndName** Frau/Herr XYZ s.o., metadata point of contact m/c rpOrgname** Bund.amt f. Naturschutz s.o., metadata point of contact m/m role** s.o., metadata point of contact o/o voiceNum** s.o., metadata point of contact m = mandatory, o = optional, c = conditional, diese Einteilung muss für die Core Metadata und die zugehörigen Felder getrennt betrachtet werden x = Feld nicht im ISO-Core * = Felder beziehen sich auf die Geodatenhalter, ** = Felder beziehen sich auf die Metadatenhalter
212
6.3.5
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Qualität von Daten und Geodaten
Metadaten dienen vor allem der inhaltlichen Beschreibung von Daten. Dadurch werden insbesondere Qualitätsmerkmale erfasst und beschrieben, aber weniger die Qualität von Daten. Diese kann nur auf der Basis dieser Qualitätsmerkmale im Hinblick auf eine konkrete Fragestellung oder Eignung für einen klar definierten Zweck beurteilt werden. Zwar ist die geometrische Auflösung von Rasterdaten (weitaus) geringer als die von Vektordaten, Rasterdaten sind deswegen aber nicht "schlechter" als Vektordaten. Rasterdaten eignen sich zwar nicht zum Aufbau von z.B. Liegenschafts- oder Leitungskatastern, sie sind aber das gängige Datenmodell z.B. bei einem Emissionskataster oder bei Luftreinhalteplänen. Als Datenqualität kann die Menge von Datenmerkmalen bezeichnet werden, die den Einsatz der Daten für eine konkrete Aufgabe ermöglichen ("quality = fitness for use", Bartelme 2000 S. 228). Die Qualität von Daten kann nur im jeweiligen Kontext beurteilt werden. Metadaten liefern hierzu Bewertungsmerkmale und ermöglichen somit letztlich die Mehrfachnutzung von Daten. Qualitätsangaben können quantitativ durch geeignete Maßzahlen oder Parameter wie Standardabweichung, RMS-Fehler (vgl. Kap. 5.2.4.5), Konfidenzintervalle oder Wahrscheinlichkeiten angegeben oder durch qualitative, rein textliche Beschreibungen benannt werden. Die einzelnen Qualitätsparameter nach der im Jahre 2002 verabschiedeten ISONorm ISO 19113 der International Standards Organisation sind (ISO 19113 data quality elements and subelements, vgl. Joos 2003): - completeness - comission - omission - logical consistency - conceptual consistency - domain consistency - format consistency - topological consistency - positional accuracy - absolute or external accuracy - relative or internal accuracy - gridded data position accuracy - temporal accuracy - accuracy of a time measurement - temporal consistency - temporal validity - thematic accuracy - classification correctness - non-quantitative attribute correctness - quantitative attribute accuracy
Metadaten und Qualität von Daten
6.3.6
213
Räumliche Auflösung, Generalisierung und Lagegenauigkeit
Von besonderer Bedeutung zur Qualitätsbeurteilung von Geodaten sind räumliche Auflösung und Lagegenauigkeit. Die räumliche Auflösung kann die Differenzierung von Vektor- und Rasterdaten und bei letzteren vor allem die Auflösung des Rasterbildes in Pixel, also die Größe eines Pixels in einer realen Größenangabe wie z.B. 30 m x 30 m, beinhalten. Sie kann aber auch das Ausmaß einer geometrischen Datengeneralisierung benennen, wobei die Übergänge zur Lagegenauigkeit fließend sind. Die digitale Darstellung eines Verkehrsnetzes durch manuelle Erfassung von Straßenmittellinien mit Hilfe eines Digitalisiertabletts auf der Basis einer Deutschen Grundkarte im Maßstab 1:5.000 wie bei ATKIS (vgl. Kap. 6.6.3) führt zwangsläufig zu einer anderen Auflösung als die entsprechende Datenerfassung auf der Basis einer analogen Topographischen Karte 1:50.000. Ursächlich hierfür ist die mit kleiner werdendem Maßstab größer werdende geometrische wie auch thematische Generalisierung der Erfassungsgrundlage (Generalisierung durch Vergrößern, Verdrängen, Zusammenfassen, Vereinfachen, Auswählen oder Weglassen, Typisieren einschließlich Umwandeln in Symbole, vgl. Hake u. Grünreich 1994 S. 112).
Abb. 6.9: Offene Bauweise in unterschiedlichen Maßstäben reduziert auf einen einheitlichen Maßstab 1:10.000 (Quelle: Hake u. Grünreich 1994 S. 373)
Die Abbildung 6.9 zeigt die Auswirkungen der Generalisierung. Das gleiche Siedlungsbild (offene Bauweise) wird in drei Kartenausschnitten in unterschiedlichen Maßstäben wiedergegeben. Zu Vergleichszwecken wurden die Karten auf einen einheitlichen Maßstab 1:10.000 gebracht. In den Originalmaßstäben besitzen die Kartenausschnitte aber eine Breite von 4,5 cm bzw. 0,9 cm bzw. 0,45 cm, wodurch sich die Notwendigkeit zur Generalisierung erklärt. Gerade diese Größenangaben zeigen auch, dass bei kleiner werdendem Maßstab geometrische Objekte weniger detailreich zu erfassen sind. Die Lagegenauigkeit quantifiziert die Genauigkeit von Koordinatenangaben der Lage von Geoobjekten, die wesentlich von der Erfassungsmethode abhängt. So werden Ingenieurvermessungen von Flurstücken mit Theodolit und Bandmaß bzw. hochpräzisem DGPS (vgl. Kap. 6.5) zwangsläufig zu genaueren Ergebnissen
214
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
führen als eine Lageerfassung aus einer Karte. Generalisierung und geometrische Auflösung einer Karte sowie Verzerrungen aufgrund des Alterns einer Karte können zu Lageabweichungen führen. Die Fragestellung bzw. die Verwendung der Daten bestimmen, bis zu welcher Größe ein Lagefehler zu tolerieren ist. Während z.B. bei der Erfassung von Biotopen oder Grünflächen beim Aufbau eines Biotop- oder Grünflächenkatasters ein Lagefehler von 15 cm hinzunehmen ist, verlangt ein Liegenschaftskataster höhere Genauigkeiten. Nicht zuletzt spielen die Kosten der Datenerfassung, die in der Regel mit höheren Genauigkeitsanforderungen steigen, gerade bei Wirtschaftlichkeitsüberlegungen eine wesentliche Rolle. Zu fragen ist häufig, ob der MehrNutzen den Mehr-Aufwand rechtfertigt. Neben den reinen Erfassungskosten sind dabei auch die Kosten zu berücksichtigen, die aufgrund einer umfangreicheren und somit zeitaufwändigeren Datennachbearbeitung, Datenhaltung und Datenfortführung entstehen. Mehrkosten aufgrund eines größer werdenden Speicheraufwands sind gegenüber den Personalkosten zu vernachlässigen. Insgesamt können keine allgemeinen Hinweise zur Lagegenauigkeit gegeben werden. Mit Hilfe von Metadaten kann über Einsatzmöglichkeiten entschieden werden. Allerdings ist ein sorgfältiger Umgang mit Lagegenauigkeiten ratsam. So pflanzen sich Fehler durch ungenaue Punktbestimmungen bei der Distanzberechnung sowie bei der Flächenberechnung fort (vgl. Bartelme 2000 S. 214ff.).
6.4
Standards von Daten und Geodaten
Der Bedarf an Geodaten hat in jüngerer Zeit enorm zugenommen. Die Hauptnachfrager sind zwar weiterhin die verschiedenen Umwelt- und Planungsämter zum Aufbau ihrer (Umwelt-)Informationssysteme. Darüber hinaus fragen inzwischen auch Privatunternehmen Geodaten in großer Breite nach (u.a. Versorgungsunternehmen zur Verwaltung ihrer Leitungssysteme, im Geomarketing zur Organisation von Vertriebsgebieten oder zur Verkehrsnavigation). Auch auf der Angebotsseite besteht inzwischen eine große Fülle an digitalen Geodaten, die z.B. von Landesvermessungsbehörden und von kommunalen Einrichtungen (kostenpflichtig) zu beziehen und die auch von kommerziellen Anbietern zumeist mit Attributdaten zu erwerben sind. Den Daten liegen dabei unterschiedliche Erfassungsziele, Erfassungsmethoden, Datengenauigkeiten und Datenformate zugrunde, so dass für eine Mehrfachnutzung zugehörige Metadaten eine unabdingbare Voraussetzung sind. Häufig scheitert aber die Nutzung von Geodaten bei unterschiedlichen Fragestellungen, wenn nicht gewisse Mindeststandards eingehalten werden. Hierzu gehört z.B. die Erfassung von Lagekoordinaten im Bezugssystem der Landesvermessung (z.B. Gauß-Krüger-Koordinaten in Meterangaben mit zwei Nachkommastellen). Diese fast selbstverständliche Forderung wird häufig von Planungsbüros nicht erfüllt, die z.B. einen digitalen Bebauungsplan entwerfen und auch die digitalen Daten der Kommune abliefern, aber die Erfassung der Geometrien mit einem CAD-System und Digitalisiertablett in Gerätekoordinaten vornehmen (z.B. Angaben in cm). Zwar sind CAD-Systeme meistens in der Lage, häufig sogar mit sehr
Standards von Daten und Geodaten
215
komfortablen Mitteln und umfangreicher Funktionalität, eine Kalibrierung des Digitalisiertabletts vorzunehmen. Zuweilen denken aber Ingenieurbüros nicht in Landeskoordinaten. Manchmal wird eine entsprechende Abgabe vom Auftraggeber auch nicht ausdrücklich gefordert. Somit ist die spätere Integration der neuen Daten in ein bestehendes Umweltinformationssystem mit erheblichem Aufwand verbunden. Den eigentlichen Datenaustausch zwischen unterschiedlichen Softwaresystemen durchzuführen, ist dabei noch das kleinere Problem. Zwar bestehen auch hier viele, zum Teil herstellerspezifische Austauschformate. Jedoch haben sich wenige Industriestandards durchgesetzt, für die von den Softwareherstellern auch Datenschnittstellen angeboten werden. Insgesamt ist eine gewisse Standardisierung von Geodaten notwendig. Derzeit ist gerade die Erarbeitung von Standards für Geodaten sehr aktuell. Allerdings besteht jetzt schon eine fast unübersehbare Fülle von Normungsgremien und (vorläufigen) Normen und Standards für Geodaten. Mit Normungsarbeiten befassen sich mehrere internationale und nationale Organisationen, die im Wesentlichen in der Tabelle 6.3 wiedergegeben sind (vgl. World Standards Services Network (WSSN) - Weblink). Die Internetadressen bieten eine Fülle von Hinweisen und Normungskriterien. Stellenweise ist aber eine Autorisierung notwendig, um die Normen einzusehen. Dies muss allerdings als kontraproduktiv zu dem Ziel angesehen werden, eine möglichst rasche Verbreitung von Normen und Standards zu erreichen. Auf mehrere internationale Aktivitäten im Bereich der Standardisierung von Geoinformationen soll genauer hingewiesen werden (vgl. auch Tab. 6.3): Tabelle 6.3: Internationale Normierungsorganisationen Name
Einstiegs-URL
ISO International Standard Organisation, hierbei insb. ISO/TC 211 Geographic Information/Geomatics IEC International Engineering Consortium International Electrotechnical Commission CEN Commitee Europeen de Normalisation CENELEC Europ. Kommittee für elektrotechnische Normung OGC Open GIS Consortium DIN Deutsches Institut für Normung, hierbei insb. der DIN Normungsausschuss für Bauwesen (NaBau, und dann weiter zu Vermessungswesen, Geoinformation) ANSI American National Standards Institute FGDC Federal Geographic Data Committee AFNOR association francaise de normalisation BSI British Standards Institution SNV Schweizerische Normen-Vereinigung ON Österreichisches Normungsinstitut
www.iso.ch www.iec.org www.iec.ch www.cenorm.be www.cenelec.be www.opengis.org www.din.de
www.ansi.org www.fgdc.gov/ www.afnor.fr www.bsi-global.com www.snv.ch www.on-norm.at
Das Technical Committee TC 211 Geographic Information/Geomatics der International Standard Organisation ISO beschäftigt sich in mit der Entwicklung von
216
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Normen zur Geoinformatik (Normfamilie 19101 bis 19141). Die Normen zu „Geographic Information“ sind am weitesten fortgeschritten, einzelne Normen haben 2004 internationalen Standard erreicht, insgesamt weisen sie aber einen unterschiedlichen Erarbeitungsstand auf (vgl. Technical Committee TC 211 - Weblink). Vor dem Hintergrund des Datenaustausches und der Mehrfachnutzung von Daten haben diese Normen erhebliche Auswirkungen auf den Aufbau von Geodatenbeständen (vgl. ISO 19113 Geographic Information - Quality principles oder 19115 Geographic Information - Metadata). Demgegenüber bleibt abzuwarten, welchen Einfluss diese Normen auf Bereiche haben, die Belange von Herstellern von Geoinformationssystemen betreffen (z.B. ISO 19120 Geographic Information - Functional Standards oder 19123 Geographic Information - Schema for coverage geometry and functions). Das Open GIS Consortium (OGC), das eine 1994 gegründete Non-ProfitOrganisation darstellt, hat sich u.a. die Interoperabilität zwischen Systemen zum Ziel gesetzt, die georeferenzierte Daten prozessieren. Das OGC will die Entwicklung von Standards für Geospatial and Location Based Services anführen (vgl. OGC - Weblink). In dieser Organisation arbeiten sämtliche bedeutenden Hersteller von Datenbanken und Geoinformationssystemen aktiv mit. Dies geschieht sicherlich mit dem Ziel, die Interoperabilität zu fördern, die nicht nur in einem einfachen Datenaustausch, sondern auch in einem Austausch von Funktionalität bestehen sollte. Darüber hinaus versuchen die Hersteller, für ihre Produkte und Entwicklungen Vorteile gegenüber Mitbewerbern zu sichern und eigene Investitionen zu schützen. Das OGC organisiert sich dabei in mehreren Special Interest Groups (SIG): u.a. Feature Geometry, Spatial Reference System, Transfer Technology, Metadata (zum organisatorischem Aufbau vgl. OpenGeospatial - Weblink). Das Diffuse Project (Dissemination of InFormal and Formal Useful Specifications and Experiences to research, technology development demonstration communities), finanziert vom Europeen Commission's Information Society Technologies Programme, zielt darauf ab, eine Dokumentation und Referenz für bestehende und kommende Standards und Spezifikationen zu schaffen, die den elektronischen Austausch von Informationen erleichtern. Für den Bereich der Geodaten finden sich Metadaten zu europaweiten Datenschnittstellen (zum Einstieg vgl. Diffuse Project - Weblink).
6.5 6.5.1
GPS - Global Positioning System Aufbau des Satellitensystems
Das Global Positioning System (GPS) ist ein satellitengestütztes Navigationssystem, das vom US-Militär entwickelt, betrieben und kontrolliert wird, um die sofortige Positionsbestimmung eines beliebigen Objektes auf der Erdoberfläche zu ermöglichen. Obschon GPS ein militärisches System ist, bestehen inzwischen vielfältige, ständig zunehmende zivile Anwendungen (vgl. Kap. 6.5.4). Das heutige GPS ging aus dem NAVSTAR (Navigation Satellite Timing and Ranging)
GPS - Global Positioning System
217
Global Positioning System hervor. Sein Aufbau begann 1977 mit dem Start des ersten GPS-Satelliten und war 1990 abgeschlossen, als 24 GPS-Satelliten im Orbit waren. Parallel zu dem US-amerikanischen GPS wurde das (fast identische) russische Globalnaya Navigationnaya Sputnikovaya Sistema (GLONASS, Global Navigation Satellite System) entwickelt, das bisher keine kommerzielle Bedeutung erlangen konnte (zum aktuellen Entwicklungsstand von GPS und GLONASS vgl. GPS-Informations- und Beobachtungssystem der Bundesanstalt für Kartographie und Geodäsie GIBS - Weblink). Das Global Positioning System besteht aus drei Komponenten: Das Raumsegment umfasst mindestens 24 Satelliten, die in einer Höhe von ca. 20.200 km auf 6 Bahnen in einer Umlaufzeit von ca. 12 Stunden die Erde umkreisen. Allerdings sind stets mehr Satelliten im Orbit, da neben Reservesatelliten neue Satelliten gestartet werden, um alte zu ersetzen. Die Bahnen sind mit 55° gegen die Äquatorebene geneigt. Durch diese Konstellation sind für jeden Punkt der Erde zwischen fünf und acht Satelliten hoch genug (mehr als 5°) über dem Horizont sichtbar. Das Kontrollsegment besteht aus fünf Kontrollbodenstationen. Die Leitstation liegt in Colorado, die Monitor- und Antennenstationen befinden sich auf Hawaii und Kwajalein im Pazifik, auf Diego Garcia im Indischen Ozean und Ascencion Islands im Atlantik. Die Monitorstationen beobachten die Satelliten und berechnen deren Bahnen. Die Leitstation stellt aus den Daten der Monitorstationen die sog. Navigationsnachricht mit genauen Flugbahndaten und Daten zu den Satellitenuhren zusammen, die über die Antennenstationen den Satelliten (zur Aussendung an die Empfängerstationen der Benutzer) übermittelt werden. Das Nutzersegment besteht aus den GPS-Empfängern und den Anwendern. Die GPS-Empfänger bestimmen aus den Signalen, die von den Satelliten ausgesandt werden, den genauen Standort auf der Erde. Dabei werden mindestens vier Satelliten gleichzeitig für einen nichtstationären GPS-Benutzer für eine 3-dimensionale Ortung in Echtzeit benötigt. Herauszustellen ist also, dass das GPS ein passives System ist, das nur Daten empfängt, aber nicht mit den Satelliten kommuniziert. Entsprechend dem in der Radiotechnik üblichen Prinzip erfolgt die Übermittlung der Satelliteninformationen an den GPS-Empfänger. Auf eine Trägerwelle wird durch Phasenmodulation ein regelmäßiges Signal (Code) aufgesetzt (vgl. Abb. 6.10 u. 6.11). Für die zivile, freie und kostenlose Nutzung steht bisher nur die sog. L1-Trägerwelle (1575,42 MHz) zur Verfügung. Für militärische Nutzungen ist daneben die L2-Trägerwelle (1227,60 MHz) verfügbar. Ziele der Modulation sind: - Die Signale werden strukturiert, so dass das Problem der Mehrdeutigkeit der Messung gelöst wird. - Die Signale tragen die Navigationsnachricht (Bahndaten der Satelliten und Zusatzinformationen). - Die zur Modulation verwendeten Codes (sog. Pseudo-Random-Noise-Codes, PRN-Codes) werden geheim gehalten, so dass nur erwünschte Anwender Nutzen aus GPS ziehen können.
218
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
f0: GPS-Grundfrequenz
f1: GPS-Sendefrequenz
F(T): PRN-Frequenz
f1*F(T): phasenmodulierte Sendefrequenz
Abb.: 6.10: Modulation von Signalen
Die Modulation mit dem C/A-Code (C/A = Coarse Access, grobe Aufnahme) ist eine allgemein zugängliche Codierung, so dass jedermann die GPS-Signale bei eingeschränkter Genauigkeit - nutzen kann („Grob-Code“). Der C/A-Code wiederholt sich alle 1023 Bit (eine Millisekunde) und moduliert nur die L1Trägerwelle. Der P-Code (P = Precise) moduliert sowohl die L1- wie auch die L2Trägerwelle und ermöglicht eine besonders genaue Ortung. Er ist ein sehr langer PRN-Code (sieben Tage). Seine Entschlüsselung erfordert eine Autorisierung durch die US-Militärbehörden. Der D-Code (D = Data) überträgt die Navigationsnachrichten (die neuesten Satellitenbahndaten, Daten über die atmosphärischen Bedingungen, Informationen über Fehler der Satellitenuhr und den allgemeinen Zustand des Satelliten). L1 Carrier 1575,42Mhz L1 Signal C/A Code 1,023Mhz NAV/SYSTEM Data 50hz P-Code 10,23 Mhz L2 Carrier 1227,6Mhz L2 Signal
Abb. 6.11:GPS-Satellitensignale
Die Genauigkeit des Global Positioning System unterscheidet sich nach zwei Kategorien: - Standard Position Service (SPS): SPS basiert auf dem C/A-Code. Die Genauigkeit wurde mit Absicht vom US-Verteidigungsministerium heruntergesetzt (sog. Selective Availability, SA). So wurde die Navigationsnachricht der Satel-
GPS - Global Positioning System
219
liten durch Schwankungen im Signal verstümmelt. Dabei waren diese Manipulationen unregelmäßig angelegt und konnten daher nicht korrigiert werden. Insbesondere veränderten sich diese Verfälschungen nach wenigen Stunden, so dass Korrekturen auf der Basis des sog. Differential GPS (vgl. Kap. 6.5.3) zeitnah erfolgen mussten. Die Navigationsgenauigkeit lag beim SPS bei etwa 100m. Nach Abschaltung der Selective Availability am 1.5.2000 kann inzwischen eine Genauigkeit von bis zu fünf Meter erreicht werden (u.a. abhängig von der Satellitenkonfiguration). Allerdings kann jederzeit wie z.B. in internationalen Krisen vom US-Militär die Selective Availability wieder eingeschaltet werden. SPS kann jedermann weltweit uneingeschränkt und ohne Entgelt nutzen. - Precise Positioning Service (PPS): PPS basiert auf dem P-Code, der durch Überlagerung mit einem unbekannten zusätzlichen Code verschlüsselt wird (sog. Anti-Spoofing, AS, Generieren des sog. Y-Codes). Die Entschlüsselung ist nur militärischen Behörden und ausgewählten zivilen Nutzern vorbehalten. Militärische Einfrequenz-GPS-Geräte empfangen nur den P-Code auf L1 mit zum C/A-Code vergleichbarer Genauigkeit. Hingegen können ZweifrequenzGPS-Geräte denselben P-Code auf zwei verschiedenen Frequenzen (L1 und L2) empfangen und können somit eine Navigationsgenauigkeit von 0,8 - 1m erreichen. 6.5.2
Prinzip der Distanzbestimmung
Die Entfernungsmessung erfolgt über eine spezielle Zeitbestimmung. Die Trägerfrequenz einschließlich der aufmodulierten P- bzw. C/A-Codes, die im Satelliten erzeugt werden und die für jeden Satelliten verschieden sind, werden synchron in gleicher Weise auch im Empfänger auf der Erde generiert. Die vom Empfänger aufgenommenen (und wegen der Dopplerverschiebung korrigierten) Signale des Satelliten weisen gegenüber den im Empfänger erzeugten Signalen eine Zeitverschiebung auf (vgl. Abb. 6.12). Der GPS-Empfänger vergleicht die Signale und kann durch Laufzeitmessung des Signals die Entfernung zum Satelliten bestimmen.
GPSSender im Empfänger erzeugtes Referenzsignal Empfangenes Laufzeit Satellitensignal t0 t1 DT
R=(t1-t0) c
GPSEmpfänger
Abb. 6.12: Prinzip der Distanzbestimmung über Laufzeiten von Signalen
220
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Die Zeit 'T ist proportional zur Entfernung zwischen Satellit und Empfänger. Allerdings machen die Empfänger mit ihren Quarzuhren gegenüber den Atomuhren der Satelliten Fehler in der Zeitmessung: R = ('T + 't ) * c Dabei sind: 'T c R 't
die Zeitdifferenz Lichtgeschwindigkeit Distanz (Range) Empfänger zu Satellit der Fehler der Empfängeruhr gegenüber der Satellitenuhr
R wird Pseudoentfernung genannt, da die Ausbreitungsgeschwindigkeit des Signals nicht mit der Lichtgeschwindigkeit im Vakuum gleichzusetzen ist. Insgesamt liegen vier Unbekannte vor (Xe, Ye, Ze und 't ), so dass ein Gleichungssystem mit vier Gleichungen aufgestellt werden muss. Somit werden zur Standortbestimmung mindestens 4 Pseudoentfernungen zu verschiedenen Satelliten benötigt: [('T1 + 't) * c]2 = (X1 - Xe)2 + (Y1 - Ye)2 + (Z1 - Ze)2 [('T2 + 't) * c]2 = (X2 - Xe)2 + (Y2 - Ye)2 + (Z2 - Ze)2 [('T3 + 't) * c]2 = (X3 - Xe)2 + (Y3 - Ye)2 + (Z3 - Ze)2 [('T4 + 't) * c]2 = (X4 - Xe)2 + (Y4 - Ye)2 + (Z4 - Ze)2 Dabei sind: 'Ti c Xi,Yi,Zi Xe,Ye,Ze 't
die gemessenen Laufzeiten der Satellitensignale die Ausbreitungsgeschwindigkeit des Signals im Vakuum die bekannten Koordinaten der Satelliten die unbekannten Koordinaten des Empfängers der unbekannte Zeitfehler des Empfängers
Dieses nichtlineare Gleichungssystem liefert die Grundlage zur Berechnung der Empfängerkoordinaten. Da die Bewegung der Satelliten um das Massezentrum der Erde erfolgt, ist die Wahl eines kartesischen Koordinatensystems naheliegend, in dessen Ursprung sich der Mittelpunkt der Erde befindet. Dem GPS liegt das universelle, geozentrische Bezugssystem WGS84 zugrunde (vgl. Kap. 5.4). Nach Auflösung des obigen Gleichungssystems werden die geozentrischen (X,Y,Z)-Koordinaten des Empfängers im Bezugssystem WGS84 dargestellt (Geogr. Koordinaten). Diese Informationen müssen dann in ein BenutzerKoordinatensystem (z.B. Gauß-Krüger-Koordinatensystem) umgerechnet werden. Dies geschieht in der Regel bereits schon automatisch durch handelsübliche GPSEmpfänger, denen allerdings das geodätische Bezugssystem sowie das geodätische Datum der Landesvermessung vorgegeben werden müssen. 6.5.3
Fehlereinflüsse und Genauigkeiten einer GPS-Standortbestimmung
Die möglichen Fehlereinflüsse können nach Bahn-, Ausbreitungs- und Empfängerfehler differenziert werden. Zwar ist die Selective Availability inzwischen ab-
GPS - Global Positioning System
221
geschaltet, die zu einer künstlichen Verschlechterung der Navigationsnachricht und dadurch zwangsläufig zu Ungenauigkeiten führte. Jedoch bestehen neben unspezifischen Fehlerquellen wie z.B. allgemeinen Hard- und Softwarefehlern weiterhin systembedingte Fehlereinflüsse: - Fehler der Satellitenuhren, die nicht von den Kontrollstationen korrigiert werden (Größenordnung des Fehlers 1m). So gehen die Satellitenuhren aufgrund ihrer gegenüber der Erde schnelleren Bewegung langsamer, aber aufgrund der geringeren Schwere schneller als auf der Erde. - Schwankungen der Satellitenbahnen (Größenordnung des Fehlers 1 m). - Troposphärische Laufzeitverlängerungen (Größenordnung des Fehlers 1m) durch Dämpfung der Wellenausbreitung aufgrund von Wettererscheinungen in der Troposphäre. - Ionosphärische Laufzeitverlängerungen (Größenordnung des Fehlers bis zu 10m) durch Dämpfung/Brechung der Wellen in der Ionosphäre. - Laufzeitverlängerungen durch Mehrwegeffekte (Größenordnung des Fehlers 0,5m) durch Reflexion der Satellitensignale an Oberflächen oder Gebäuden in der Nähe des Empfängers. Der Anwender kann davon ausgehen, dass diese Probleme zum Teil durch das Auswerteprogramm des Satellitenempfängers gelöst werden (vgl. Korrekturen der Ausbreitung der Wellen in der Iono- und Troposphäre). Weiterhin kann die Sichtbarkeit bzw. die Stellung der Satelliten zum Empfänger einen Einfluss auf die Genauigkeit der Standortbestimmung haben. Eine optimale Konfiguration liegt dann vor, wenn ein Satellit im Zenit steht und die anderen (drei) Satelliten gleichmäßig am Horizont verteilt sind. 6.5.4
Differentielles GPS (DGPS)
Die Erhöhung der Genauigkeitsbestimmung des Global Positioning System geht von dem Grundsatz aus, dass die GPS-Messgrößen bei benachbarten Empfängerpunkten Fehler gleicher Größenordnungen aufweisen. Somit werden zwei zeitgleiche Messungen mit zwei benachbarten Empfängern durchgeführt. Gegenüber der Messung mit dem Empfänger im Gelände sind die Koordinaten der Referenzstation exakt bekannt. Dadurch ist es möglich, die Differenz zwischen den (aktuell) gemessenen Pseudoentfernungen und den berechneten, geometrischen Entfernungen zu den Satelliten zu bestimmen. Diese Differenzwerte (Korrekturwerte) werden an den Empfänger übertragen, der die Korrekturen der Pseudoentfernungen errechnet. Durch diese Fehlerkorrektur beim Differentiellen GPS (DGPS) ist bei Einzelpunktmessungen eine sehr hohe Genauigkeit zu erzielen. Beim Differentiellen GPS können zwei Messverfahren unterschieden werden: - Differentialausgleich im Postprocessing-Verfahren im Anschluss an die Feldmessungen, - Real-Time-Differentialausgleich durch Übertragung der Korrektursignale über eine Datenfunkstrecke direkt an den Feldempfänger.
222
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Die Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland bieten den Satellitenpositionierungsdienst SAPOS an, der ein Gemeinschaftsprodukt der Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) ist (vgl. SAPOS - Weblink). SAPOS stellt Korrekturdaten bereit, mit denen die Positionsgenauigkeit je nach Aufwand bis in den Millimeterbereich gesteigert werden kann. Dieser Dienst basiert auf einem Netz von permanent messenden Referenzstationen, die von den jeweiligen Landesvermessungen eingerichtet und betrieben werden. Die Daten sind bundesweit einheitlich nutzbar. Die SAPOS-Dienste umfassen vier Bereiche mit jeweils unterschiedlichen Eigenschaften, Genauigkeiten und Kosten. Die Entgelte für die SAPOSDienste sind im Rahmen der AdV einheitlich geregelt (zum Realisierungsstand, zu Kosten und Datenformaten vgl. SAPOS - Weblink): - EPS (Echtzeit-Positionierungs-Service) ermöglicht nach der Abschaltung von SA eine Genauigkeit von 0,5 bis 2 m. Die DGPS-Korrekturdaten werden bundesweit über das Radio-Daten-System (RDS) des UKW-Rundfunks ausgesandt. Das hierbei verwendete Verfahren RASANT (Radio Aided Satellite Navigation Technique) bietet die Möglichkeit, diese Korrekturdaten komprimiert (im sog. RTCM-Format) und störungsfrei zu übertragen. Die Korrekturdaten werden von einem RASANT-Decoder, in dessen Kaufpreis die Einmalgebühr für die Nutzung von RASANT enthalten ist, empfangen und dem DGPS-fähigen GPS-Empfänger übergeben (vgl. Landesvermessungsamt NRW SAPOS-EPS - Weblink). - HEPS (Hochpräziser Echtzeit-Positionierungs-Service) ermöglicht eine Genauigkeit von 1 bis 2 cm. In einigen Bundesländern wie z.B. in Niedersachsen werden die Korrekturdaten im 2 m Band ausgestrahlt und können auch über Mobiltelefon abgerufen werden. - GPPS (Geodätischer Präziser Positionierungs-Service) ermöglicht eine Genauigkeit von 1 cm im Postprocessing-Verfahren. In Niedersachsen werden die von den SAPOS-Referenzstationen ständig empfangenen Signale der GPSSatelliten dem Nutzer per e-Mail (in dem eigenen sog. RINEX-Format), über das Internet oder über Datenträger zur Verfügung gestellt. - GHPS (Geodätischer Hochpräziser Positionierungs-Service) ermöglicht Genauigkeiten im Millimeterbereich. Diese Daten werden (allerdings nicht von allen Landesvermessungsämtern) wie beim GPPS über e-Mail, über das Internet oder über Datenträger zur Verfügung gestellt. Ferner sind seit Januar 1997 bundesweit die auf Langewelle ausgesendeten Korrekturdaten des ALF Datendienstes (Accurate Positioning by Low Frequency) der Deutschen Telekom verfügbar (Sender Mainflingen, RDS-Format). 6.5.5
Einsatzmöglichkeiten des Global Positioning Systems
Die Einsatzmöglichkeiten der (D)GPS-gestützten Navigation und Positionierung sind enorm vielfältig. Ein (klassischer) Anwendungsbereich ist das Vermessungswesen (mit dem Teilgebiet Satellitengeodäsie), dem auch Ingenieurvermessungen
GPS - Global Positioning System
223
wie Trassenführung und Bauwerkskontrollen zuzurechnen sind. Hierzu zählt auch die genaue Passpunktbestimmung, d.h. die Bestimmung von Referenzpunkten zur Entzerrung und Geocodierung für Luftbildauswertungen während des Fluges. Kommerziell die größte Bedeutung besitzt sicherlich der Bereich Navigation und Ortung (u.a. GPS-gestützte Navigationshilfen in der Routenplanung, Positionierung von Standorten für Landfahrzeuge, Schiffe und Flugzeuge). Auch die mobile, standortbezogene Datenerfassung mit Notebook kann angeführt werden (z.B. Biotopkartierung, Wasserprobenentnahmen, vgl. Kap. 6.2.5). In der Landwirtschaft sind neue Anwendungen möglich geworden wie die gezielte, d.h. auf einen konkreten kleinräumigen Standort bezogene Saat- und Düngemittelausbringung, was wiederum die genaue standortbezogene Ermittlung z.B. von Bodeneigenschaften und Ernteerträgen voraussetzt (zum Precision Farming vgl. Jürgens 2000). Nicht zuletzt lassen sich Anwendungsbeispiele im Tourismus und Freizeitbereich nennen (allg. Orientierung und Kompassersatz oder Routenplanung im sog. Outdoor- und Trekking-Bereich). 6.5.6
Zukunft von GPS
Zukünftige Entwicklungen von GPS betreffen die weiter ansteigende zivile Nutzung des Systems, die sämtliche nur denkbaren Bereiche der Navigation zu Land, zu Wasser oder in der Luft erfassen wird. Ferner sind enorme technische Verbesserungen der bisherigen Unzulänglichkeiten absehbar. So besitzt das GPS Schwachstellen, die die Sicherheit und einen problemlosen Einsatz in der zivilen Luftfahrt betreffen. Hierzu zählen vor allem die Ungenauigkeiten der exakten Standortbestimmung und die eingeschränkte Nutzungsmöglichkeit, die u.a. abhängig von den Satellitenkonstellationen ist, so dass insgesamt die genaue Standortbestimmung während eines gesamten Fluges nicht gesichert ist. Daher wurde bereits früh von der US-Luftfahrtbehörde das Wide Area Augmentation System (WAAS) entwickelt, das u.a. die Genauigkeit und die Verfügbarkeit der GPSSignale erhöht und das aufgesetzt auf das grundlegende GPS eine Verstärkung und Verbesserung der GPS-Dienstleistungen für weiträumige Bereiche bedeutet (vgl. WAAS-Weblink). Seit Ende 1999 sind WAAS-Signale nahezu durchgängig verfügbar. In naher Zukunft werden sie eine Ergänzung zum Instrumentenlandeanflugsystem ILS sein und sog. CAT I Anflüge (eingeschränkte Sicht, aber mindestens 550 m) ohne ILS ermöglichen. Das Wide Area Augmentation System (WAAS) basiert auf ca. 25 Referenzstationen am Boden, die das Gebiet der USA abdecken und GPS-Satellitensignale empfangen. Diese Stationen, für die präzise Lagebestimmungen durchgeführt wurden und die untereinander vernetzt sind, errechnen u.a. den bestehenden Lagefehler. WAAS korrigiert die GPS-Signalfehler, die aus troposphärischen und ionosphärischen Störungen, Zeitfehlern und Ungenauigkeiten der Satellitenbahnen resultieren und stellt ebenfalls Informationen zur Integrität der Satelliten zur Verfügung. Zwei Masterstationen an der Ost- und Westküste sammeln die Daten dieser Referenzstationen und berechnen eine GPS-Korrekturnachricht. Die Korrektursignale werden dann zu einem von zwei geostationären Satelliten übermit-
224
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
telt. Von dort wird das Signal auf derselben Frequenz wie das GPS-Signal (L1 Trägerwelle, vgl. Kap. 6.5.1) zu den GPS-Empfängern übermittelt. Diese Information ist kompatibel mit der eigentlichen GPS-Signalstruktur. Mit WAAS soll der Lagefehler kleiner als 3 m sein (vgl. WAAS - Weblink). In Europa wird mit dem European Geostationary Navigation Overlay Service (EGNOS) ein ähnlich konzipiertes System aufgebaut. Hierdurch soll die Leistung der bisherigen Satellitennavigationssysteme verbessert werden, um eine Genauigkeit anzubieten, die die von GPS und GLONASS alleine übersteigt. Ferner sind die Verfügbarkeit und Integrität der Signale zu sichern, die den Einsatz der Satellitennavigation in der Luftfahrt als primäres Navigationsmittel (auch im Landeanflug) ermöglichen. Die Implementierung von EGNOS begann Ende 1998, seit Anfang 2000 war der Prototyp (EGNOS Systems Test Bed, ESTB) verfügbar. Der ESTB Testbetrieb wurde am 27. Mai 2005 eingestellt, es erfolgte der Übergang von ESTB zu EGNOS. Für die Entwicklung und Einführung von EGNOS ist die europäische Raumfahrtbehörde ESA (European Space Agency) verantwortlich (vgl. ESA-EGNOS-Weblink). Das Funktionsprinzip von EGNOS entspricht dem von WAAS, wobei aber hier die Signale von GPS- und GLONASS-Satelliten verarbeitet und drei geostationären Satelliten zur Verfügung gestellt werden sollen (sog. Raumsegment). Eine große Zahl von genau vermessenen Bodenstationen empfangen die (rohen) GPSund GLONASS-Daten, die daraus Standortbestimmungen und Lagefehler berechnen und diese Informationen über ein Netzwerk an vier Kontrollstationen übermitteln, die Berechnung, Validierung und Verteilung der Korrekturdaten durchführen. Zum Bodensegment gehören noch sieben Stationen, die die EGNOS-Navigationsdaten an die geostationären Satelliten übermitteln, von wo über die L1-Trägerwelle die Informationen zum Empfänger geleitet werden. Das langfristige Ziel ist die Entwicklung eines Global Positioning and Navigation Satellite Systems (GNSS). Im ersten Schritt wird GNSS-1 die schon bestehenden Positionierungssysteme integrieren und gegenseitig verstärken. EGNOS ist die europäische Komponente von GNSS-1 (vgl. für die USA das WAAS und für Japan das MTSAT (Multi-Functional Transport Satellite) Satellite-bases Augmentation System MSAS). Im zweiten Schritt soll GNSS-2 mit dem Namen GALILEO auf der Basis einer europäischen Satellitenkonfiguration unter ziviler Kontrolle entstehen (vgl. GIBS-Weblink u. GALILEO-Weblink). Galileo wird Europas strategische Unabhängigkeit gewährleisten und ermöglichen, dass europäische Unternehmen Anteil haben an einem stetig wachsenden Markt von GPS-Produkten. Die GALILEO-Signale werden mit jedem aktuellen GPS Empfänger nutzbar sein, sie werden mit den GPS-Signalen kompatibel sein. Ihre Nutzung wird weiterhin kostenlos sein. Allerdings erhofft man sich von den GPS bezogenen Dienstleistungen ein Milliardengeschäft. Der voraussichtliche Start des ersten Testsatelliten zur Frequenzsicherung und Technologieerprobung soll Ende 2005 erfolgen. Sofern die Finanzierung gesichert ist, soll ein Einsatz ab 2008 möglich sein.
Geobasisdaten
6.6 6.6.1
225
Geobasisdaten Geobasisdaten der Vermessungsverwaltungen
Der Deutsche Dachverband für Geoinformation e.V. (DDGI) bemüht sich um eine Systematisierung des Geodatenangebots. Im DDGI-Qualitätsmodell wird unterschieden (vgl. DDGI Qualitätsmodell - Weblink): - Geobasisdaten: liegenschaftsbeschreibende Daten, geotopographische Daten, - Geodaten mit direktem Raumbezug: naturbeschreibende Geodaten, artefaktbeschreibende Geodaten, - Geodaten mit indirektem Raumbezug (Verknüpfung auf ein raumbezogenes Objekt). Allgemein können solche raumbezogenen Basisdaten als Geobasisdaten bezeichnet werden, die flächendeckend verfügbar sind, kontinuierlich oder periodisch fortgeführt werden, einem allgemeinen Standard entsprechen und nicht für einen speziellen Anwendungszweck, sondern als Basis für vielfältige Anwendungen erarbeitet und vorgehalten werden (vgl. Wessels 2002 S. 32). Hier soll der Begriff Geobasisdaten weiter eingeengt auf die raumbezogenen Basisdaten des amtlichen Vermessungswesens werden. Daneben werden Daten, die die genannten Kriterien erfüllen, auch von z.B. privaten Stellen angeboten. Zu nennen wären z.B. Marktdaten aus dem Bereich des Geomarketing (zur Übersicht verschiedener Datenanbieter vgl. Leiberich 1997). Diese raumbezogenen Daten außerhalb des amtlichen Vermessungswesens werden aber (zumeist) den Fachdaten zugeordnet. Die Vermessungsverwaltungen der Bundesländer haben den gesetzlichen Auftrag, die topographischen Landeskartenwerke und das Liegenschaftskataster zu führen und bereitzustellen. Hierzu ist das Landesgebiet zu vermessen und kartographisch darzustellen. Grundlage sind die jeweiligen Vermessungsgesetze der Bundesländer. Gegenüber der topographischen Landesaufnahme und Landeskartographie haben die Vermessungsverwaltungen u.a. noch die Aufgabe der Führung des Liegenschaftskatasters, das aus der Liegenschaftskarte und dem Liegenschaftsbuch besteht. Die Liegenschaftskarte ist die Grundlage für parzellenscharfe Planungen und Bestandsnachweise in Wirtschaft und Verwaltung. Sie enthält u.a. Angaben zur Geometrie (Flurstücksgrenzen, Grenzmarken), bezeichnende Daten (Flurstücksnummer, Flurnummer, Gemarkung, Lagebezeichnung) sowie beschreibende Daten (tatsächliche Nutzung, Ergebnisse der Bodenschätzung). Das Liegenschaftsbuch enthält eine Beschreibung der Flurstücke nach Lagebezeichnung, Nutzung, Grundbuchnummer, Flurstücksgröße und Eigentümer. Zwischen der Liegenschaftskarte und dem Liegenschaftsbuch kann ein Bezug über Flurstücksnummer, Flurnummer und Gemarkung als eindeutige Kennzeichen eines Flurstücks hergestellt werden. Die genannten Aufgabenbereiche der amtlichen Vermessungsverwaltungen in Deutschland haben zu umfangreichen (analogen) Datenbeständen geführt, die genau die Anforderungen erfüllen, die an Grundlagendaten zu stellen sind. Die Geobasisdaten der Vermessungsverwaltungen:
226
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
- werden von kommunalen Behörden oder Landesbehörden bzw. gleichgestellten Einrichtungen auf der Basis amtlicher Unterlagen erstellt, so dass (für jedes Bundesland einzeln) Genauigkeit und Verbindlichkeit garantiert sind, - besitzen durch Integration sämtlicher katasterrelevanten Messungs- und Berechnungsdaten eine hohe Qualität, - werden regelmäßig aktualisiert und fortgeführt, so dass eine hohe Aktualität gewährleistet ist, - besitzen bundesweit einen (weitgehend) einheitlichen Aufbau, - basieren auf einem einheitlichen Bezugssystem (Gauß-Krüger-Koordinaten bzw. zukünftig UTM-Koordinaten). Um diese Geobasisdaten ebenfalls in digitaler Form vorzuhalten und sie auch (privaten) Anwendern zum Aufbau eigener Geoinformationssysteme anzubieten, haben sich die Vermessungsverwaltungen in der Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) bereits frühzeitig mit dem Aufbau von digitalen raumbezogenen Informationssystemen beschäftigt (vgl. Mittelstrass 1995 S. 20, zu einem Überblick über das derzeitige Angebot mit Testdaten vgl. GeoDatenZentrum BKG - Weblink, vgl. Internetangebote der Vermessungsverwaltungen über AdV- Weblinks). Die Aufbauarbeit begann bereits 1970, als die AdV gemeinsam mit den kommunalen Spitzenverbänden und den Justizverwaltungen die großmaßstäbig-orientierte Grundstücksdatenbank (GDB) entwickelte, die aus den Teilen Automatisierte Liegenschaftskarte (ALK) und Automatisiertes Liegenschaftsbuch (ALB) besteht. Der Aufbau des Amtlichen Topographisch-Kartographischen Informationssystems (ATKIS) wurde nach der Konzeptionsphase (1985-1989) von den Landesvermessungsämtern 1989 beschlossen (vgl. Kap. 6.6.2 - 6.6.4). Aus dem ATKIS-Basis-DLM und der ALK wird die Digitale Straßenkarte 1:10.000 (DSK10) vollständig abgeleitet. Sie ist in Kombination mit georeferenzierten Adresskennzeichen eine gute Basis für Standortanalysen, Zielfindungen und Internetpräsentationen. Die bisher nur analogen topographischen Landeskartenwerke liegen inzwischen als digitale Rasterdaten (gescannte und georeferenzierte Daten) flächendeckend für die Bundesländer vor. Von den Vermessungsverwaltungen werden ferner digitale Reliefdaten vorgehalten. Sie umfassen die nach Höhengenauigkeit und Rasterweite zu unterscheidenden Digitalen Geländemodelle (DGM) in mehreren Genauigkeitsstufen: das DGM5 (Höhengenauigkeit im Mittel r 0,5 m, Rasterweite 10-20 m), das DGM25 (Höhengenauigkeit im Mittel r 5 m, Rasterweite bis 50 m) und das DGM50 (Höhengenauigkeit im Mittel r 5 m, Rasterweite über 50 m). Diese Geländemodelle sind nur teilweise flächendeckend in den Bundesländern verfügbar. Zu den (amtlichen) Geobasisdaten gehören auch Digitale Orthophotos, die die Landschaft durch entzerrte, georeferenzierte, lagerichtige Senkrechtluftbilder wiedergeben (Bildmaßstäbe von 1:12.000 bis 1:18.000, Bodenauflösung von 40 cm). Orthophotos liegen im Rasterformat vor und werden mit beschreibenden Daten zu ihrer Entstehung abgegeben. Die Landesvermessungsverwaltungen liefern darüber hinaus digitale Punktdaten der amtlichen Festpunktfelder (Trigonometrische Punkte, Nivellementpunkte, Schwerepunkte). Einsatzmöglichkeiten bieten sich u.a. in der Grundlagenvermessung, der Kataster- und Ingenieurvermessung.
Geobasisdaten
6.6.2 6.6.2.1
227
Das Automatisierte Liegenschaftskataster Aufbau der Automatisierten Liegenschaftskarte (ALK)
In einer Gemeinschaftsarbeit der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland wurde eine einheitliche Konzeption zu Aufbau und Führung des automatisierten Liegenschaftskatasters entwickelt, nach der die Automatisierte Liegenschaftskarte (ALK) aus den vorhandenen analogen Liegenschaftskarten aufgebaut wird (vgl. Abb. 6.13). Da dies eine Digitalisierung der bestehenden analogen Karten bedeutet, kann diese Art der Datenerfassung durchaus zu Fehlern führen, die in einer kritischen Vorlage (z.B. Ungenauigkeiten oder Verzerrungen der Papierkarten aufgrund von Alterungsprozessen) sowie der halbautomatischen Analog-Digital-Wandlung begründet liegen (vgl. Kap. 6.1.2). Die Aktualisierung erfolgt erst in einer zweiten Phase über die Liegenschaftsvermessung. Insgesamt ersetzt die Automatisierte Liegenschaftskarte die analoge Liegenschaftskarte. Der flächendeckende Aufbau der ALK ist in Deutschland bei weitem noch nicht abgeschlossen. In Niedersachsen begannen nach einem Pilotprojekt zum Aufbau der ALK in den Jahren 1989-1991 erst im Jahre 1992 die stufenweise Ausrüstung der Katasterämter mit Erfassungsmöglichkeiten und die eigentliche Erfassung der Daten, die inzwischen flächendeckend für dieses Bundesland vorhanden ist. Obschon die ALK weitgehend in allen Bundesländern einheitlich ist, bestehen jedoch auch länderspezifische Besonderheiten (z.B. in Bayern als Digitale Flurkarte (DFK) realisiert). Somit sind vor einem Einsatz der Daten u.a. die aktuellen Objektdefinitionen zu beachten (vgl. Tab. 6.5).
Objektabbildungskatalog (OBAK) Liegenschaftskarte
Liegenschaftserfassen karte 1:1.000 strukturieren Liegenschaftsvermessung
aktualisieren
Zeichenvorschrift Liegenschaftskarte
Automatisierte aufbereiten Liegenschafts- ausgeben Karte
Präsentation (Karte)
Nutzer digitaler Daten
Abb. 6.13: Grobstruktur der Automatisierten Liegenschaftskarte (nach: Niedersächsische Vermessungs- und Katasterverwaltung 1992 S. 4)
228
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Zur Erfassung der Inhalte aus der analogen Liegenschaftskarte bzw. zur Definition der Objekte in der Automatisierten Liegenschaftskarte wurde der Objektabbildungskatalog (OBAK) entwickelt. Er legt eindeutig fest, wie die Objekte und deren Objektbestandteile zu erfassen sind. Beschrieben werden die Funktionen des Objektes (Folie, Objektart, Objekttyp) und die zulässigen Objektbestandteile (Objektgeometrie und besondere Informationen zum Objekt). Die Zeichenvorschrift (ZVAUT) enthält Vorschriften zur Präsentation der Objekte (u.a. Strichstärke, Strichmuster oder Symbole). Die ALK-Datenbank enthält die eigentlichen Daten. Sie umfasst drei Primärdateien: - Die Grundrissdatei umfasst alle geometrischen und semantischen Informationen für die Darstellungen der Inhalte der Liegenschaftskarte in Gauß-KrügerKoordinaten (z.B. Flurstücke, Gebäude, Grünflächen). - Die Punktdatei besteht aus Informationen zu Punktdaten wie Lagekoordinaten und Höhenangaben sowie aus weiteren Angaben zur Verwaltung der Punkte des Lage- und Höhenfestpunktfeldes, der nummerierten Punkte des Liegenschaftskatasters und der weiteren Punktarten. - Die Datei der Messungselemente enthält Bestimmungsstücke für die Koordinatenberechnung wie Punktkennzeichen, Messeinheiten oder Bemerkungen. Die Einheitliche Datenbankschnittstelle (EDBS), die systemneutral konzipiert ist, soll die Kommunikation zwischen Verarbeitungsteil, Datenbank und Datennutzern ermöglichen. Über die EDBS können den Benutzern Daten als einfacher Datenbankauszug oder aber auch Daten für die Ersteinrichtung und Fortführung von Sekundärnachweisen zur Verfügung gestellt werden (Datenabgabe im sog. Verfahren Bezieher-Sekundär-Nachweis). Dabei ist ein Sekundärnachweis ein getreues Abbild zumeist eines Teiles der ALK-Datenbank. Insbesondere bei Versorgungsunternehmen sind (kostenpflichtige) Sekundärnachweise eingerichtet, um diese Basisdaten für die Verwaltung der eigenen Versorgungsnetze zu nutzen. Nachdem ALK-Daten über die EDBS aus der ALK-Datenbank exportiert wurden, können diese Daten in der Regel nur mit Hilfe eines speziellen Datenkonverters in ein Geoinformationssystem eines Anwenders importiert werden. Diese Konvertierung ist nicht trivial, da die Automatisierte Liegenschaftskarte objektstrukturiert aufgebaut ist, viele Geoinformationssysteme aber hingegen layerorientiert sind. Diese Datenschnittstelle, die zwar systemneutral konzipiert wurde, gerade aber dadurch keinem Industriestandard entspricht, hat den Datenaustausch erheblich behindert. Da letztlich doch die EDBS in den einzelnen Bundesländern unterschiedlich ist, liegt noch kein einheitlicher Standard vor (vgl. NAS in Kap. 6.6.4). 6.6.2.2
ALK-Objekte
Im Mittelpunkt der Automatisierten Liegenschaftskarte stehen die ALK-Objekte, die eine fachliche Einheit von Informationen der Liegenschaftskarte darstellen (z.B. Flurstücke, Gebäude). Jede Grundrissinformation der Liegenschaftskarte wird Bestandteil eines ALK-Objekts. Die Grundrissobjekte der Liegenschaftskarte
Geobasisdaten
229
werden als Elementarobjekte (E), die punktförmig, linienförmig oder flächenförmig sein können, vollständig mit Geometrie und Fachbedeutung nachgewiesen. Die Objekte der Liegenschaftskarte, die von untergeordneter fachlicher Bedeutung sind, werden mit den notwendigen Darstellungsinformationen, die für die Zeichenausgabe der vollständigen Liegenschaftskarte erforderlich sind, als Rahmenobjekte (R) geführt (z.B. Lagebezeichnungen oder Beschriftungen). Ein Rahmenobjekt besitzt weder Objektnamen noch eine Objektgeometrie. Die fachlich zusammengehörenden Objekte werden einer sog. Folie zugeordnet: Tabelle 6.4: Auszug aus dem Folienverzeichnis der Automatisierten Liegenschaftskarte (vgl. OBAK NRW) Folie
Folieninhalt
Art
001 002 003 011 021 032 042
Flurstücke Gemarkung, Fluren Politische Grenzen Gebäude Flächen der tatsächlichen Nutzung Klassifizierung land- und forstwirtschaftlichen Vermögens Ergebnisse der Bodenschätzung
E R R E E R E
Abb. 6.14: Auszug aus der Folie 1 (nur Flurstücksgrenzen) und der Folie 11 (nur Gebäudeumrisse) für einen Teil der Innenstadt von Osnabrück
Ein ALK-Objekt wird beschrieben durch Angabe der Folie, der Objektart nach dem Objektschlüsselkatalog (OSKA) und des Objekttyps (p: punktförmig, l: linienförmig, f: flächenförmig, r: Rahmenobjekt). Zur geometrischen Identifikation erhält jedes Objekt eine Objektkoordinate, die z.B. bei Gebäuden an der Standlinie der Hausnummer gesetzt wird. Für jedes Objekt werden datenbankintern eine eindeutige siebenstellige Objektnummer und eine zweistellige Aktualität vergeben. Die Objektnummer und die Aktualität dienen u.a. der Fortführung der ALK in einem Sekundärnachweis (z.B. Löschen eines Objektes bei der Übernahme von Fortführungsdaten). Obschon sich der Aufbau des digitalen Liegenschaftskatasters durch das neu konzipierte Amtliche Liegenschaftskataster-Informationssystem (ALKIS) erheblich verändern wird (vgl. Kap. 6.6.4), werden die Folien und Ob-
230
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
jektarten der ALK über längere Zeit noch von zentraler Bedeutung sein. Die Tabellen 6.4 und 6.5 können den mehr als 160 Seiten umfassenden OBAK-LiegKat NRW nicht ersetzen, aber einen Einblick in seinen Aufbau geben. Tabelle 6.5: Ausgewählte Folien der ALK und zugehörige Objektarten (vgl. OBAK NRW) Folie
Objektart
Bezeichnung
001 001 001 001 002 002 003 003 003 003 003 003 003 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021 021
0233 0234 0239 0246 0231 0232 0211 0212 0214 0215 0224 0611 0612 1000 1300 1320 2100 2600 2610 3000 3300 3340 4000 4100 4160 5000 5100 5160 5400 5480 6000 6100 6140 6400 7000 7100 7400 7430 7600 8000 8100 8220 9230 9530
Flurstück, Flurstücksgrenze, Flurstücksnummer Flurstücksnummer in besonderer Darstellung Flurstück, Flurstücksgrenze, Flurstücksnummer in Verkehrswegen Flurstücksnummer in besonderer Darstellung in Verkehrswegen Gemarkungsgrenze Flur, Flurgrenze, Flurbezeichnung Staatsgrenze Landesgrenze (Bundesland) Kreisgrenze (Kreis, kreisfreie Stadt) Gemeindegrenze (kreisangehörige Gemeinde) Grenze des Gemeindeteils Kreis, kreisfreie Stadt Kreisangehörige Gemeinde Gebäude und Freifläche Gebäude und Freifläche Wohnen Doppelhaus Gebäude- und Freifläche - Mischnutzung mit Wohnen Gebäude- und Freifläche zu Entsorgungsanlagen Abwasserbeseitigung Betriebsfläche Betriebsfläche Lagerplatz Schrott, Altmaterial Erholungsfläche Sportfläche Freibad Verkehrsfläche Straße Radweg an Straße Bahngelände S-Bahn Landwirtschaftsfläche Ackerland Spargel Weingarten Waldfläche Laubwald Gehölz Windschutzanlage Forstwirtschaftliche Betriebsfläche Wasserfläche Fluss Kanal Rückhaltebecken Stillgelegtes Abbauland
Geobasisdaten
231
Flächen- und linienhafte Objekte besitzen eine Objektgeometrie, die in der ALK-Datenbank durch die Koordinaten und durch Angabe der Art der Geometrie (z.B. Linie, Bogen, Spline) gespeichert wird. Das ALK-Konzept geht dabei grundsätzlich von einer redundanzfreien Speicherung aus. Identische Objektgeometrien werden nur einmal gespeichert, so dass einzelne Elemente einer Objektgeometrie mehreren Objekten angehören können. In der Abbildung 6.15 gehört die Linie von A nach B zugleich zum Objekt Flurstück und zum Objekt Gebäude. Somit besitzt diese Linie zwei Fachbedeutungen (Flurstückgrenze und Gebäudegrenze).
A Gebäude B
Abb. 6.15: Modellierung von ALK-Objekten
6.6.2.3
Das Automatisierte Liegenschaftsbuch ALB
Das Liegenschaftsbuch liefert Eigentümerinformationen zu sämtlichen Flurstücken: - bezeichnende Angaben wie Gemarkung, Flur, Flurstücksnummer, - Angaben der amtlichen Bodenschätzung, - Angaben der tatsächlichen und rechtlichen Merkmale der Liegenschaften wie Lagebezeichnung, tatsächliche Nutzung, gesetzliche Klassifizierung, Fläche, Zugehörigkeit zu kommunalen Gebietskörperschaften, - Buchungsstelle im Grundbuch, - Angaben zum Grundstückseigentümer oder Erbbauberechtigten, - Hinweise auf öffentlich-rechtliche Festlegungen. Diese Angaben werden u.a. bei Grundstücksverkäufen, bei Planungen von Bauvorhaben, bei Finanzierungen oder Förderanträgen benötigt. Das analoge Liegenschaftsbuch ist weitgehend auf die digitale Führung umgestellt. So ist z.B. in Niedersachsen das Automatisierte Liegenschaftsbuch seit 1984 flächendeckend eingerichtet (vgl. Sellge 1998 S. 91). Für die Verwendung in Geoinformationssystemen oder in Datenbankprogrammen werden Informationen aus dem Automatisierten Liegenschaftsbuch (ALB) in der ALB-Standardausgabeschnittstelle „Ausgabesätze mit Entschlüsselungen" angeboten (Workdatei Liegenschaftsbuch Datengewinnung, WLDGE). Allerdings stehen Datenschutzgründe einer allgemeinen Weitergabe von ALB-Daten entgegen. 6.6.2.4
Probleme und Defizite von ALK und ALB
Die noch in die siebziger Jahre zurückreichende Konzeption von ALB und ALK entspricht nicht mehr dem heutigen Stand der Informationsverarbeitung. Die al-
232
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
phanumerischen und graphischen Liegenschaftsinformationen sind nur unzureichend gegenseitig integriert und mit einem hohen Redundanzanteil behaftet. So sind z.B. 75% der Informationen der ALB zum Flurstück redundant auch in der ALK gespeichert. Die parallele Führung von ALB und ALK bedeutet, dass Daten doppelt erfasst und doppelt fortgeführt werden müssen. Dies erfordert einen erheblichen Synchronisierungsaufwand, wobei die Gefahr uneinheitlicher Informationen besteht. Das Vorhalten von Metainformationen in der ALB und ALK ist nicht vorgesehen. Die jüngeren internationalen Normungsaktivitäten auf dem Gebiet der Geoinformation konnten nicht berücksichtigt werden (vgl. Kap. 6.4). Mit dem Ziel, diese Defizite zu beheben und die bestehenden Systeme weiter zu entwickeln, hat die Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) ein Fachkonzept für eine automatisierte, integrierte Führung aller Daten des Liegenschaftskatasters erarbeitet und in dieses Konzept auch ATKIS einbezogen: Amtliches LiegenschaftskatasterInformationssystem (ALKIS). Diese Weiterentwicklung ist nicht zuletzt auch im Zusammenhang mit Umsetzungsproblemen des ursprünglichen ATKIS-Konzeptes zu sehen (vgl. Kap. 6.6.3 und 6.6.4). 6.6.3
6.6.3.1
Das Amtliche Topographisch-Kartographische Informationssystem ATKIS Grundkonzeption nach dem Systemdesign von 1989
Vor dem Hintergrund, dass sich neben den analogen topographischen Landeskartenwerken ein hoher Bedarf an digitalen Informationen über die Topographie der Erdoberfläche herausgebildet hat, haben die aufgrund der Landesvermessungsgesetze zuständigen Landesvermessungsbehörden beschlossen, das Amtliche Topographisch-Kartographische Informationssystem ATKIS zu entwickeln und aufzubauen. Die Landesvermessungsbehörden sahen ihre Aufgabe darin, einen bundeseinheitlichen, digitalen, topographisch-kartographischen Datenbestand aufzubauen, ihn interessenneutral zu verwalten sowie ihn im Rahmen der staatlichen Daseinsvorsorge vorzuhalten und als staatliche Dienstleistung anzubieten. Insbesondere bestand das stets immanente Ziel, durch digitale Verfahren die amtlichen topographischen Kartenwerke rationeller herstellen zu können. Die von der Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) ursprünglich erarbeitete Grundkonzeption von ATKIS besteht aus mehreren Festlegungen (vgl. AdV 1988 S. 5ff. u. Harbeck 1995 S. 19ff., vgl. Abb. 6.16): - Die bislang in analogen Landeskartenwerken dargestellten topographischen Informationen werden in Digitalen Landschaftsmodellen (DLM) in digitaler Form mit hoher geometrischer Genauigkeit gespeichert. Objektartenkataloge legen Inhalte der Digitalen Landschaftsmodelle und die Vorschriften zur Modellierung der Landschaftsobjekte fest.
Geobasisdaten
233
- Drei verschiedene Digitale Landschaftsmodelle sollten aufgebaut werden: DLM25, DLM200 (inzwischen abgelöst durch das DLM250) und DLM1000. Die Kürzel sollen verdeutlichen, dass die Inhalte etwa am Inhalt der Topographischen Karte 1:25.000 (TK25), der Topographischen Übersichtskarte 1:200.000 (TÜK200) und der Internationalen Weltkarte 1: 1 Mio. (IWK) orientiert sind. - Den digital gespeicherten topographischen Objekten werden unter Berücksichtigung kartographischer Generalisierungsprozesse Signaturen zugeordnet. Durch diese kartographische Modellbildung entsteht ein digitales kartographisches Landschaftsmodell - das sog. Digitale Kartographische Modell (DKM). - Signaturenkataloge legen die Inhalte und die Vorschriften zur kartographischen Gestaltung der Digitalen Kartographischen Modelle fest. - Die Informationen des DLM wie auch des DKM werden in einem systemunabhängigen, herstellerneutralen Datenmodell gespeichert. - Ein Datenabruf sollte in digitaler Form als digitale Auszüge aus dem DLM und dem DKM erfolgen. Ein Benutzer sollte auch die analogen Produkte erhalten. Das ATKIS-Systemdesign von 1989 sah u.a. aus Kostengründen, aber auch um das Projekt überhaupt anzuschieben und möglichst rasch Daten zu gewinnen einen stufenweisen Aufbau vor. Die erste Realisierungsstufe DLM25/1 (70 Objektarten, wesentliche Inhalte der TK25) sollte 1995 zumindest in den alten Bundesländern flächendeckend vorhanden sein. Dabei besitzt das DLM25/1 in den wichtigen Punkt- und Linienobjekten die Lagegenauigkeit der Deutschen Grundkarte 1:5.000 DGK5 (r 3 m). Grundlage für die Erfassungsarbeiten sind in erster Linie die DGK5, darüber hinaus die TK25, Luftbildkarten im Maßstab 1:5.000 und weitere Informationsquellen wie Betriebskarten und Stadtpläne. Für das Land Niedersachsen, das im Aufbau der Geobasisdaten unter den Bundesländern führend ist, liegt inzwischen das DLM25/2 mit ca. 120 Objektarten vor. Derzeit steht die Aktualisierung der zweiten Aufbaustufe an mit gleichzeitiger Erweiterung zur dritten und endgültigen Aufbaustufe, die dann ca. 140 Objektarten enthalten wird.
ATKISObjektartenkatalog
erfassen
ATKISSignaturenkatalog
kartographisch bearbeiten
Landschaft, Luftmessbilder DLM
aufbereiten ausgeben
DKM
Karte
Karte und andere Unterlagen Nutzer digitaler Karten
Abb. 6.16: ATKIS-Referenzmodell nach dem Systemdesign von 1989 (Quelle: AdV 1999 S. 8)
234
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Die Arbeiten zur Einrichtung der zweiten Erfassungsstufe DLM25/2 stehen in den meisten Bundesländern vor dem Abschluss. Gleichzeitig sollen weitere wichtige Landschaftsobjekte erfasst und das DLM25/1 aktualisiert werden. Die zweite Realisierungsstufe DLM25/2 war ursprünglich für den Zeitraum 1996-2000 vorgesehen. Diese Stufe sollte weitgehend sämtliche 170 Objektarten des DLM25 enthalten. Allerdings wurde von diesem Ziel etwas abgerückt: „Der von Nutzern immer wieder geforderte Gebäudebestand kann erst dann wirtschaftlich erfasst werden, wenn eine Übernahme der Gebäude aus der ALK möglich ist.“ (Creuzer u. Kulle 1998, S. 23). Neue konzeptionelle Ansätze ergeben sich insbesondere aus Überlegungen, ALK-Daten und ATKIS-Daten zu kombinieren (vgl. Kap. 6.6.4). In etwa zeitlich parallel zur zweiten Ausbaustufe war beabsichtigt, die notwendige Entwicklungsarbeit zu leisten, um aus dem DLM25 das Digitale Kartographische Modell DKM25 abzuleiten. Allerdings konnte die Ursprungsidee des DKM nicht umgesetzt werden. Stattdessen führten erhebliche Veränderungen zu dem neuen ATKIS-Systemdesign von 1995 (vgl. Kap. 6.6.3.4). 6.6.3.2
Aufbau des Digitalen Landschaftsmodells DLM25
Der Grundansatz von ATKIS besteht darin, die Erdoberfläche durch objektstrukturierte Landschaftsmodelle und dann weiter durch ebenfalls objektstrukturierte, signaturorientierte Kartographische Modelle abzubilden. Wie bei der Automatisierten Liegenschaftskarte soll ein reales Geoobjekt durch ein Modellobjekt ersetzt und dies durch grundrissbezogene punkt-, linien- oder flächenförmige Bestandteile, durch Fachbedeutungen und durch einen Namen beschrieben werden (vgl. Abb. 6.18). Allerdings ist das ATKIS-Datenmodell gegenüber dem ALK-Datenmodell erweitert worden. So werden hierarchische Beziehungen zwischen Objekten, Objektteilen und komplexen Objekten zugelassen. Ferner werden objektbezogene Attribute anstelle von Fachbedeutungen benutzt. Auch können Beziehungen zwischen Objektteilen, die zu verschiedenen Objekten gehören, nachgewiesen werden (vgl. Mittelstrass 1995). Die Inhalte des Digitalen Landschaftsmodells und die Vorschriften zur Modellierung der Landschaftsobjekte werden durch einen ATKIS-Objektartenkatalog definiert (vgl. Abb. 6.18). Der Katalog wurde in seinen Teilen für das DLM 25, das derzeitige Basis-DLM, für das DLM 200, das heute durch das DLM 250 ersetzt ist, und für das DLM 1000 erarbeitet. Inzwischen sind die Objektartenkataloge weiter entwickelt und gepflegt worden (zu den Objektartenkatalogen ATKIS-OK25, ATKIS-OK50, ATKIS-OK250 und ATKIS-OK1000 vgl. ATKIS - Weblink). Das DLM250 und das DLM1000 entstehen zurzeit beim Bundesamt für Kartographie und Geodäsie. ALK und ATKIS besitzen somit zwei unterschiedliche Datenmodelle. Das ATKIS-Datenmodell ist dabei speziell auf die Anforderungen des topographischen und kartographischen Arbeitens ausgerichtet. Ferner weisen ALK und ATKIS unterschiedliche Objektartenkataloge auf. Diese konzeptionelle Zweigleisigkeit hat gerade unter den Anwendern und potenziellen Nutzern dieser Geobasisdaten zu erheblichen Irritationen und letztlich zu dem gemeinsamen ALKIS-Konzept geführt (vgl. Kap. 6.6.4).
Geobasisdaten
235
C2 C
C
E1
A A L754
D1
K2
K1
2
1
B
C1
E 3
E2
B1
B
B2
D
B3
D2
Abb. 6.17: Objektbildung in ATKIS (nach AdV 1988 Abb. 4)
Die Abbildung 6.17 verdeutlicht die Modellbildung am Beispiel der Objektart Straße. Das Objekt B erstreckt sich von dem Knoten K1 zum Knoten K2. Es besitzt die Attribute „zwei Fahrspuren“, „im Geländeniveau“, „zwischenörtliche Verkehrsbedeutung“, „Landesstraßen“ und den Namen „L754“. Das Objekt B besteht aus drei verschiedenen Objektteilen, die somit zwei weitere Knoten bedingen. Von dem einen Knoten geht ein weiteres Objekt der Objektart Straße ab (Objekt C). Der zweite Knoten kennzeichnet den Wechsel eines untergeordneten Attributes im Verlauf des Objektes (hier: unterschiedliche Straßenbreite).
Objekt- Festpunkte bereiche 1000
Objektgruppen
Objektarten
Siedlung 2000
Verkehr 3000
Vegetation 4000
Straßenverkehr 3100
Schienenverkehr 3200
Luftverkehr 3300
Schiffsverkehr 3400
Straße
Weg
Platz
3101
3102
3103
Straße (komplex) 3104
Gewässer 5000
Relief 6000
Gebiet 7000
Anlagen und Bauwerke für Verkehr Transport und Kommunikation 3500
Straßenkörper 3105
Fahrbahn 3106
Attributtypen BDI BDU BFS BRF BRV FKT FSZ IBD NTZ OFM WDM ZUS
Verkehrsbedeutung innerörtlich Verkehrsbedeutung überörtlich Besondere Fahrstreifen Breite der Fahrstreifen Breite des Verkehrsweges Funktion Anzahl der Fahrstreifen Internationale Bedeutung Nutzung Oberflächenmaterial Widmung Zustand
Abb. 6.18: System des ATKIS-Objektartenkatalogs
Attributwerte 1301 1303 1305 1306 1307 1308 9999
Bundesautobahn Bundesstraße Landstraße,Staatsstraße Kreissstraße Gemeindestraße Forststraße sonstige
236
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Abb. 6.19: ATKIS-Geometriedaten für den Objektbereich 3000 „Verkehr“ (Osnabrück-Nahne)
Die in der Abbildung 6.19 dargestellte Objektbildung für den Objektbereich Verkehr veranschaulicht sehr gut den Grundgedanken der Datenmodellierung, Basisdaten für das Digitale Kartographische Modell zu liefern. Vor diesem Hintergrund ist die Konzeption verständlich und sinnvoll, nur die Straßenmittellinien zu erfassen, die dann durch das DKM mit Signaturen belegt werden, die auch angrenzende Flächensignaturen überdecken. Die Straßenmittellinien geben also nur die Lage der Straße wieder. Die kartographische Ausgestaltung im DKM erfolgt durch Signaturen (z.B. Doppellinien für mehrspurige Straßen). Einsatzmöglichkeiten derartiger (kartographischer) Informationen bestehen im Bereich der Landes- und Regionalplanung (u.a. Landesentwicklungsplanung, Raumordnungskataster). Ferner können Einsatzfelder im Mobilfunk genannt werden (u.a. Funknetzplanung). Für viele Anwendungen gerade im kommunalen Bereich (z.B. in der Flächennutzungsplanung) sind aber die Einsatzmöglichkeiten der ATKIS-Daten aufgrund der generalisierenden Datenmodellierung geringer einzuschätzen (vgl. aber Einsatzmöglichkeiten in Netzwerkanalysen, vgl. Hackmann u. de Lange 2001). 6.6.3.3
Aufbau und Ableitung des Digitalen Kartographischen Modells (DKM)
Ein Kennzeichen von ATKIS ist die signaturenunabhängige Speicherung der topographischen Objekte im Digitalen Landschaftsmodell. Dadurch kann prinzipiell jede beliebige graphische Darstellung der Objekte ermöglicht werden. Die graphi-
Geobasisdaten
237
sche Gestaltung hängt nur von der Wahl des Zeichenschlüssels ab. Die aus dem DLM abzuleitenden Digitalen Kartographischen Modelle sollten aber entsprechend den gegenwärtigen topographischen Landeskarten mit einem festen Signaturenschlüssel aufgebaut werden. Hierzu dient der ATKIS-Signaturenkatalog, der im Prinzip mit den herkömmlichen Musterblättern der Topographischen Karten vergleichbar ist. Das DKM besitzt somit keine Attribute und ist rein graphisch ausgerichtet. Nach dem ATKIS-Konzept von 1989 sollte die Ableitung analoger bzw. digitaler Topographischer Karten in einem mehrstufigen Prozess erfolgen (vgl. Harbeck 1995, Mahr 1995, Jäger 1995 S. 233ff.). Aus dem DLM wird im ersten Schritt entsprechend den Festlegungen des ATKIS-Signaturenkatalogs automatisch ein sog. Roh-DKM erzeugt. Das Roh-DKM wird in einem zweiten Schritt interaktiv zu dem endgültigen DKM ausgearbeitet. Vor dem Hintergrund der Geometrieerfassung im (größeren) Maßstab 1:5.000 fallen hier hauptsächlich die kartographische Generalisierung (Vereinfachen, Verdrängen), die Schriftplatzierung und die Überarbeitung bzw. die optimale Platzierung der Signaturteile an. Schließlich enthält das derart erarbeitete DKM, das in der ATKIS-Datenbank gespeichert wird, nur noch Informationen in der Geometrie der vorgesehenen Karte. Im letzten Schritt werden durch ein Präsentationsprogramm, an das keine besonderen Anforderungen mehr zu stellen sind, da die kartographisch schwierigen Aufgaben in den vorhergegangenen Schritten gelöst wurden, die digital gespeicherten KartenObjektinformationen z.B. auf dem Graphikbildschirm präsentiert. Zunächst wurde aber eine Präsentationsgraphik entwickelt, um im Vorfeld des Digitalen Kartographischen Modells den Datenbestand visualisieren zu können. Diese Präsentationsgraphik war u.a. notwendig, um den möglichen ATKISNutzern die abstrakten DLM-Daten zu veranschaulichen. Die Präsentationsgraphiken sind aber nicht mit dem DKM und den Topographischen Karten zu verwechseln! Generalisierung und Verdrängung als Gestaltungsprozesse fehlen. Allerdings konnte die Ursprungsidee nicht umgesetzt werden. Die Entwicklung eines Digitalen Kartographischen Modells kam über die Präsentationsgraphik nicht hinaus und wurde letztlich durch die Digitale Topographische Karte abgelöst. 6.6.3.4
Modifizierte Konzeption nach dem Systemdesign von 1995
Die Konzeption des Digitalen Kartographischen Modells von 1989 ist als theoretisch brillantes System erarbeitet worden, um die noch weitgehend auf Kunststofffolien als Zeichenträger geführten topographischen Landeskartenwerke künftig aus dem kontinuierlich aktuell gehaltenen DLM rechnergestützt abzuleiten. Der eigentliche Nutzen des Projektes ATKIS ist vor allem dann zu sehen, wenn aus dem DLM25 die kleinermaßstäbigen Folgekarten 1:50.000 oder 1:100.000 (oder ähnliche Produkte mit entsprechender Generalisierung) abgeleitet werden können. Allerdings sind diese ehrgeizigen Ziele bisher nicht erreicht worden. Selbst für die Ableitung des DKM25, das auf dem DLM25 bei einer Erfassungsgenauigkeit von 1:5.000 basiert, sind bislang keine brauchbaren Lösungen gefunden worden. Die nicht trivialen Probleme der kartographischen Generalisierung verhindern die
238
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Automatisierbarkeit der Ableitung eines DKM aus dem DLM. Bei kleiner werdendem Maßstab müssen z.B. aus mehreren Objekten einige ausgewählt, zusammengefasst und dadurch vereinfacht werden, so dass die Situation der Wirklichkeit möglichst treffend angenähert wiedergegeben wird. Bei kleinerem Maßstab müssen Objekte verschoben werden, um somit Platz für kartographische Signaturen zu erhalten. Die ursprüngliche Hoffnung, durch zu entwickelnde Algorithmen die kartographische Generalisierung automatisiert zu lösen, wurde aufgegeben. Trotz der überzeugenden Konzeption wurde der Aufbau von eigenständigen Kartographischen Modellen von der Mehrzahl der AdV-Mitgliedsverwaltungen als nicht praxisgerechte Lösung infrage gestellt. Möglichen Nutzern war nur schwer verständlich zu machen, für die Erfassung und Auswertung der Sachdaten einerseits das lagegenaue DLM, für deren Präsentation andererseits aber ein kartographisch generalisiertes DKM zu benutzen. Insbesondere sind hierzu innerhalb von ATKIS zwei Datenmodelle vorzuhalten. Ferner erreichten die Präsentationsgraphiken des DLM inzwischen eine kartographische Qualität, die für viele Fachanwendungen ausreichend ist, so dass der Absatz von DKM-Daten in größerem Umfang fraglich erschien. Vor diesem Hintergrund wurde von der AdV ein neues ATKIS-Systemdesign vorgestellt, in dem das DKM nun nicht mehr nach außen wirksam wird (vgl. Abb. 6.20). Eingeführt wird vor allem ein neues konzeptionelles und materielles Produkt, die Digitale Topographische Karte (DTK), die als das alleinige Endprodukt in den Mittelpunkt rückt und letztlich das Digitale Kartographische Modell verdrängt. Nach dieser neuen Konzeption werden die Landesvermessungsbehörden die ATKIS-Präsentationsdaten nicht mehr in standardisierter DKM-Form (d.h. als ein zweites Datenmodell) entsprechend einem Signaturenkatalog herstellen und anbieten müssen. Lediglich die Digitale Topographische Karte (DTK) ist zu standardisieren. Wie diese DTK über das DKM zu erreichen ist, ist den SoftwareEntwicklern zu überlassen (Harbeck 1995 S. 22).
DTK-SK
DLM-OK generalisieren
erfasssen
signaturieren, präsentieren
Landschaft, Bildmodelle
DLM
DKM
DTK
ausgeben
Karte
Karte und andere Unterlagen
Nutzer objektstrukturierter Daten
Nutzer bildstrukturierter Daten
Abb. 6.20: ATKIS-Referenzmodell nach dem Systemdesign von 1995 (Quelle: AdV 1999 S. 8)
Geobasisdaten
239
Konsequent umgesetzt bedeuten diese Überlegungen, auf das DKM gänzlich zu verzichten und aus dem DLM direkt eine Digitale Topographische Karte abzuleiten. Genau dieser Abschied vom digitalen Kartographischen Modell wurde bereits schon 1996 mit einem ATKIS-Systemdesign vorgeschlagen, in dem das DKM fehlt (vgl. Harbeck 1996). Die konzeptionellen Weiterentwicklungen von ATKIS bzw. des DKM wurden durch das aktuellere ALKIS-Projekt sowie durch das Erarbeiten einer neuen Kartengraphik für die TK25 bzw. DTK25 abgelöst. 6.6.3.5
Kartengraphik für die neue TK25 auf der Basis des DLM25 und ATKIS-Signaturenkatalog 2000
Der in den Anfängen des Projektes ATKIS erarbeitete Signaturenkatalog für das DKM25 hat lediglich exemplarische Bedeutung erlangt. Seit den neunziger Jahren hat eine Diskussion über eine moderne und zukunftsfähige Kartengraphik topographischer Landeskarten eingesetzt. Zentral war hierbei die Frage, ob das für die deutschen topographischen Landeskartenwerke typische feingliedrige Kartenbild erhalten bleiben soll oder ob es zugunsten einer leichter lesbaren Graphik aufgegeben werden sollte, die dann auch für Bildschirmdarstellungen besser geeignet ist. Diskutiert wurde vor allem auch die Art der Siedlungsgestaltung (Einzelgebäudedarstellung oder Flächensignatur für Baublöcke). Im Jahre 1995 hat die AdV neue Gestaltungsgrundsätze für die amtliche Topographische Karte verabschiedet (Festlegungen zu einzelnen Kartensignaturen der TK25, Ergebnisse der Arbeitsgruppe Kartengraphik des Arbeitskreises Kartographie, März 1995). Die neue Kartengraphik wird u.a. durch Ausweitung der Farbgebung (mehr Flächenfarben und farbige Signaturen), Anhebung der kartographischen Mindestdimensionen (verbreiterte Strichstärken, vergrößerte Zwischenräume), Erweiterung der Signaturierung und Auswahl einer modernen Kartenschrift charakterisiert. Hiermit bestehen neue wichtige inhaltliche und graphische Vorgaben für ein modernisiertes topographisches Landeskartenwerk. Am weitesten im Hinblick auf eine (modifizierte) Umsetzung der ATKISKonzeption (vgl. Systemdesign von 1989) ist die Landesvermessung in Niedersachsen vorangekommen. So ist zu Beginn des Jahres 1998 die Bearbeitung der alten Topographischen Karte 1:25.000 (TK25) eingestellt worden. Da die Kartennutzer aber mit Nachdruck den Verbleib des Maßstabes 1:25.000 forderten und nicht zum vorgeschlagenen Ersatz-Maßstab 1:10.000 wechseln wollten, sind im Juli 2000 die ersten Blätter in einer neuen Kartengraphik fertiggestellt worden (im ATKIS-Signaturenkatalog 2000). Diese neue TK25 mit neuer Farbgebung und Signaturierung wird vollständig aus digitalen Datenbeständen des ATKIS-DLM (Grundrissinformationen und Höhenlinien) und der ALK (Gebäudeinformation) abgeleitet. Die Karte basiert auf dem Europäischen Terrestrischen Referenzsystem 1989 (ETRS89), das dem weltweiten Geodätischen System 1984 (WGS84) entspricht (vgl. Kap. 5.4.1 u. 5.4.3). Die Abbildung ist die Universale Transversale Mercator Projektion. Das UTM-Koordinatengitter wird als in schwarz durchgezogenes 1 km-Gitter dargestellt. Das Gauß-Krüger-Koordinatengitter wird nur noch am Innenrand des Kartenrahmens in der Farbe Blau angerissen.
240
6.6.4
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Das AFIS-ALKIS-ATKIS Konzept
Die Automatisierte Liegenschaftskarte (ALK) und das Automatisierte Liegenschaftsbuch (ALB) sowie auch das Amtliche Topographisch-Kartographische Informationssystem (ATKIS) weisen jeweils für sich konzeptionelle Probleme auf (vgl. Kap. 6.6.2.4 u. 6.6.3.4). Darüber hinaus sind ALK und ATKIS, die sich im Sinne einer ganzheitlichen Nutzung der Geobasisdaten hervorragend ergänzen könnten, aufgrund verschiedener Datenmodelle und Objektartenkataloge nicht kompatibel. Somit hat die AdV beschlossen, ein neues Fachkonzept für eine automatisierte, integrierte Führung aller Daten des Liegenschaftskatasters zu erarbeiten. Die bisherigen Informationssysteme ALK und ALB werden zukünftig integriert im Informationssystem ALKIS (Amtliches Liegenschaftskatasterinformationssystem) geführt. Ferner wird eine formelle, inhaltliche und semantische Harmonisierung mit ATKIS vorgenommen. Ende 1999 wurde von der Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutschland (AdV) ein erstes Konzept für die gemeinsame Modellierung von ALKIS und ATKIS vorgelegt (vgl. Adv 1999). Ebenfalls 1999 wurde, nachdem die Modellierung von ALKIS bereits weit fortgeschritten war, die Integration der Festpunkte der Landesvermessung (Trigonometrische Punkte, Nivellementpunkte und Schwerefestpunkte) diskutiert. Da die Festpunkte keine Originalbestandteile von ALK und ATKIS darstellen, wird deren Modellierung inzwischen in dem eigenständigen Amtlichen Festpunkt-Informationssystem (AFIS) durch einen eigenen Objektartenkatalog vorgenommen (vgl. GeoInfoDok 2004 Abschn. 5.2). Die AdV-Projekte AFIS, ALKIS und ATKIS werden in der Dokumentation zur Modellierung der Geoinformationen des amtlichen Vermessungswesens mit ihren länderübergreifend festgelegten Eigenschaften in durchgängiger Form gemeinsam beschrieben. Herauszustellen ist, dass sie in einem gemeinsamen Referenzmodell miteinander in Beziehung gebracht werden (vgl. GeoInfoDok 2004 u. Abb. 6.21). Dieses AFIS-ALKIS-ATKIS-Konzept der AdV (sog. AAA-Konzept) sieht eine Historienverwaltung vor, die entsprechend den Aufgaben des Liegenschaftskatasters die Führung historischer Daten (z.B. Vorbesitzer, Namensänderungen) gestattet. Das Datenmodell wird um das Versionskonzept erweitert. Falls sich aufgrund der Fortführung eine nicht-objektbildende Eigenschaft ändert, wird eine neue Version des Objekts erzeugt, die historisch gewordene erste Version bleibt jedoch innerhalb des Objekts bestehen. Durch Führung von Veränderungsdaten wird das neue Verfahren einer Nutzerbezogenen Bestandsdatenaktualisierung (NBA) möglich, bei dem jeder Ausgangszustand beim Nutzer auf den vom Nutzer gewünschten Endzustand zu bringen ist. Hierdurch wird das bisher im Verfahren BezieherSekundär-Nachweis realisierte Vorgehen, Änderungen nachzuführen, wesentlich erweitert und ersetzt. Für das AAA-Konzept wird eine Normbasierte Austauschschnittstelle (NAS) festgelegt, die die bisherige Einheitliche Datenbankschnittstelle (EDBS) ablösen wird. Die Digitalen Geländemodelle (DGM) werden jetzt als eigenständiger Bestandteil unter den objektstrukturierten Daten ausgewiesen und nicht wie bisher in ATKIS im Objektbereich Relief. Hierdurch soll die universelle Verwendungsmöglichkeit des DGM als eigenständiger Datenbestand herausgestellt werden (vgl. AFIS).
Geobasisdaten
Regelungsebene
241
Produktionsebene Landschaft Karten und andere Unterlagen
Digitales Bildmodell (DBM)
Kommunikationsebene wird abgebildet in
TIFF
wird abgegeben an Nutzer bildstrukturierter Daten
wird erfasst für regelt
Bestandsdaten AFIS
ALKIS
ATKISDLM
wird abgebildet in
wird abgegeben an
NAS
Nutzer objektstrukturierter Daten
wird abgebildet in
wird abgegeben an
TIFF, DXF, NAS
Nutzer aufbereiteter Informationen
Zusatzdaten wird aufbereitet als beschreibt
Digitale Auszüge AFIS
ALKIS
ATKISDLM wird gedruckt als
Analoge Auszüge AFIS
ALKIS
Topographische Karten
wird abgegeben an Nutzer analoger Auszüge
Abb. 6.21: Gemeinsames AFIS-ALKIS-ATKIS-Referenzmodell (Quelle: GeoInfoDok 2004)
Die Modellierung der Datenstruktur und der Schnittstelle NAS folgt den Normen und Standards der International Standardization Organisation (ISO) und des OpenGIS Konsortiums (OGC). Parallel dazu wird die Datenstruktur des Amtlichen Topographisch-Kartographischen Informationssystems (ATKIS) ebenfalls an diese Normen angepasst und mit denen von ALKIS vereinheitlicht. Diese systemunabhängige Modellierung ermöglicht die einfache Anbindung beliebiger Fachanwendungen, wenn sie ebenfalls auf den internationalen Normen basieren. So hat sich die AdV entschieden, zur Beschreibung des Anwendungsschemas und der Objektartenkataloge die Datenmodellierungssprache UML (Unified Modeling Language) zu verwenden, die auch von ISO/TC 211 im Bereich Normung von Geoinformationen eingesetzt wird (vgl. das konzeptuelle Modell in GeoInfoDok 2004). Durch die Verwendung der auf XML-Strukturen basierenden Schnittstelle NAS können die ALKIS-Daten in jedem Browser visualisiert werden (Landesvermessungsamt NRW ALKIS - Weblink).
242
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Das AdV-Konzept gibt die Eckpunkte für die IuK-technische Umsetzung vor. Hinzu kommen Bedürfnisse der Länder für ein gesichertes Qualitätsmanagement für die ALKIS-Bestandsdaten und die Erfüllung der Verpflichtung zur Dokumentation der Flurstücksentwicklung. Diese Funktionalitäten bilden das Gerüst der neuen Datenhaltungskomponente. Mit den entstehenden Produkten kommt der feste Wille der Länder zum Ausdruck, energisch - die Harmonisierung der Geodaten der Teilbereiche des amtlichen Vermessungswesens als sog. „einheitliche Geodaten“, - die zügige Bereitstellung des ALKIS-Grunddatenbestands, - den Einsatz der vereinheitlichten Signaturenkataloge von ALKIS und ATKIS als zuordenbares äußeres Erscheinungsbild der Präsentationen der Vermessungsverwaltungen und - einen Zugriff auf Metadaten zur Information über die Daten und Datenqualität von amtlichen Geo-Daten anzugehen (vgl. ALKIS-Weblink). Die AdV verfolgt auch das Ziel, zu besseren Produkten, zur Erleichterung der Nutzung von Geobasisdaten der Landesvermessung durch Dritte und letztlich zu einer stärkeren Kundenorientierung zu kommen. Die Einführung des neuen AFIS-ALKIS-ATKIS-Datenmodells ist ab 2006/07 vorgesehen. Die Migration der ATKIS-Daten in das neue Modell soll ab Mitte 2007 erfolgen.
6.7
Aufbau von Geodateninfrastrukturen
Die Situation des Geoinformationswesens in der Bundesrepublik Deutschland wird in dem vom Bundesministerium des Innern 1998 vorgelegten Bericht zur Verbesserung der Koordinierung auf dem Gebiet des Geoinformationswesens knapp zusammengefasst: - Geoinformationen (orts- und raumbezogene Daten zur Beschreibung der Gegebenheiten eines Landes) bilden einen wesentlichen Teil des in der modernen Informations- und Kommunikationsgesellschaft vorhandenen Wissens. - Geoinformationen bilden weltweit ein Wirtschaftsgut ersten Ranges mit zunehmender Bedeutung. - Herstellung und Entwicklung der auf die Verarbeitung von Geoinformationen ausgelegten Technologien ist ein wichtiger arbeitsplatzschaffender Wachstumsbereich. - Durch mangelnde Koordination und aus Unkenntnis über Umfang, Qualität, Aktualität und Verfügbarkeit vorhandener Datenquellen werden Geodaten oft mehrfach erhoben. - Aufgrund der föderalen Strukturen in Deutschland wird eine einheitliche Datenerfassung erschwert. - Die unterschiedliche Entgeltpolitik erschwert die Datennutzung. - Das Verständnis über Bedeutung und Nutzungsmöglichkeiten von Geodaten ist in Deutschland nicht ausreichend entwickelt.
Aufbau von Geodateninfrastrukturen
243
Die Bundesregierung setzte sich vor diesem Problemhintergrund das Ziel, den Zugang zu Geodaten für Verwaltung, Wirtschaft, Wissenschaft und Bürger durch eine verbesserte Koordinierung sowie durch Ausschöpfung der Möglichkeiten einer modernen Informationstechnologie wesentlich zu erleichtern. Das Bundeskabinett hat daher am 17. Juni 1998 beschlossen, zur Verbesserung der Koordinierung des Geoinformationswesens innerhalb der Bundesverwaltung den ständigen „Interministeriellen Ausschuss für Geoinformationswesen“ (IMAGI) beim Bundesamt für Kartographie und Geodäsie einzurichten (vgl. Interministerieller Ausschuss für Geoinformationswesen (IMAGI) - Weblink). Seine Aufgaben sind u.a.: - Entwicklung einer Konzeption eines effizienten Datenmanagements für Geodaten auf Bundesebene (im Oktober 2000 fertig gestellt), - Aufbau und Betrieb eines Metainformationssystems für Geodaten des Bundes (GeoMIS.Bund seit September 2003 zur Verfügung), - Verwirklichung eines Geoportals des Bundes (GeoPortal.Bund) (in Entwicklung), - Optimierung der technisch-organisatorischen Zuständigkeiten für die Haltung von Geodatenbeständen (z.B. durch die Einführung und Durchsetzung von Standards), - Erarbeitung von Lösungsvorschlägen für die Harmonisierung und Optimierung der administrativen Vorgaben für Bezug und Abgabe von Geodaten, - Förderung des generellen Bewusstseins für Geoinformation durch Öffentlichkeitsarbeit, - Entwicklung einer Geodateninfrastruktur für Deutschland. Mit der Entschließung „Nutzung von Geoinformation in der Bundesrepublik Deutschland“ vom 15. Februar 2001 forderte der Deutsche Bundestag die Bundesregierung zum ersten Mal auf, politische Maßnahmen zu ergreifen, um in Deutschland den Aufbau einer nationalen Geodateninfrastruktur als öffentliche Infrastrukturmaßnahme zügig voranzutreiben. Bund, Länder und private Initiativen sind aufgerufen, in vertrauensvollem und engem Zusammenwirken die in den Geowissenschaften und Geoinformationen liegenden Chancen nachhaltig zu nutzen und weiter zu verbessern (vgl. Bundesamt für Kartographie und Geodäsie 2004 S. 14). Dabei ist unter Geodateninfrastruktur die benutzerfreundliche Bereitstellung von Geoinformationen durch Dienste zu verstehen, die ebenen- und fachübergreifend auf verteilte Geodaten zugreifen. Geobasisdaten, die wesentlich mit öffentlichen Mittel gewonnen sind, stellen eine öffentliche Infrastruktur dar. Kernbestandteil der Geodateninfrastruktur Deutschland (GDI-DE) ist die Nationale Geodatenbasis, die aus Geobasisdaten, Geofachdaten und deren Metadaten besteht. Mit Hilfe der Geodatenbasis, eines Geoinformationsnetzwerkes sowie von Diensten und Standards schafft die GDI-DE die Voraussetzungen für die Gewinnung, Auswertung und Anwendung von Geoinformationen. Diese finden Verwendung bei Nutzern und Anbietern in den öffentlichen Verwaltungen, im kommerziellen und nichtkommerziellen Sektor, in der Wissenschaft und für die Bürger (vgl. Bundesamt für Kartographie und Geodäsie 2004 S. 14).
244
Digitale räumliche Daten: Datengewinnung und Geobasisdaten
Der IMAGI hat im Oktober 2001 ein Konzept für die Entwicklung der Geodateninfrastruktur Deutschland (GDI-DE) verabschiedet. Der Aufbau der GDI-DE soll in einem dreistufigen Prozess erfolgen: - Aufbau eines Zugangs zu Geodaten (Metainformationsservice, GeoMIS.Bund fertig gestellt, vgl. Kap. 6.3.4). - Harmonisierung der Geodatenbestände und die Entwicklung von Schnittstellen, Konvertierungsmodulen, Normen, Standards und Verfahren zur Datenintegration. Dabei sollen internationale Standards beachtet werden. Als gemeinsame Basis für einen ressortübergreifenden Objektartenkatalog soll das ALKIS/ATKIS-Datenmodell eingesetzt werden. - Implementierung der Nationalen Geodatenbasis in eine benutzerfreundliche Schnittstelle. Hierzu wird die Internetplattform GeoPortal.Bund entwickelt, über die unterschiedliche Geodaten fachübergreifend zusammengestellt, aufbereitet und zur Verfügung gestellt werden sollen. Das GeoPortal des Bundes bietet eine Geodatensuche in den Fachverwaltungen von Bund und Ländern über das Internet. Suchanfragen des Nutzers werden direkt in die Fachmetainformationssysteme der Datenhalter abgesetzt, dieser erhält aktuelle Ergebnislisten im übersichtlichen, tabellarischen und einheitlichen Format. GeoMIS.Bund fungiert als Broker und ist integraler Bestandteil von GeoPortal.Bund. Das GeoPortal des Bundes soll als ein Vermittler zwischen Nutzern und Anbietern von Geodaten, Geoinformationen und Diensten dienen. Ein wesentlicher Bestandteil ist, neben dem Zugriff auf Geodaten, die ressortübergreifende Bereitstellung bzw. Vermittlung von Diensten bis hin zu speziellen Anwendungsapplikationen und -szenarien (z.B. Koordinatentransformation, Datenvisualisierung und -bereitstellung). Es erlaubt den Zugriff auf verteilte Daten einer oder mehrerer Anbieter und verbindet Daten- und Dienstanbieter. Durch den Online-Zugriff auf die verteilten Daten der jeweiligen Anbieter wird eine hohe Aktualität gewährleistet. Für die geplanten spezifischen Funktionalitäten werden standardisierte WWW- und GIS-Technologien verwendet. Eine wichtige Rolle spielt hierbei die ISO/OGC-konforme Realisierung des Portals. International stellt das GeoPortal.Bund die Schnittstelle zur EU Initiative Infrastructure for Spatial Information in Europe (INSPIRE) dar (vgl. GeoPortal.Bund - Weblink, GeoMIS.Bund - Weblink). Der Aufbau von Geodateninfrastrukturen läuft in der Bundesrepublik Deutschland auf der nationalen und der Länderebene ab. Einzelne Bundesländer wie Nordrhein-Westfalen und Bayern haben bereits eine Geodateninfrastruktur aufgebaut. So ist die Geodateninfrastruktur NRW (GDI NRW) eine Initiative des Landes Nordrhein-Westfalen, die sich die Aktivierung des Geodatenmarktes sowie eine verbesserte Nutzung und einen erleichterten Zugang zu Geoinformationen zum Ziel gesetzt hat (vgl. GDI-NRW-Weblink, vgl. auch GDI-Bayern-Weblink). In weiteren Bundesländern befindet sich Geodateninfrastrukturen im Aufbau (vgl. GDI-Hessen-Weblink, GDI-Brandenburg-Weblink).
7 Visualisierung raumbezogener Informationen
7.1 7.1.1
Graphische Informationsverarbeitung Digitale graphische Darstellungen von Informationen
Die graphische Informationsverarbeitung bezeichnet zusammenfassend sämtliche graphischen, d.h. nicht alphanumerischen Darstellungen von Informationen mit Hilfe eines Computers und spezieller graphikfähiger Ein- und Ausgabegeräte. Der Begriff Graphische Darstellung von Informationen kennzeichnet dabei sehr umfassend sowohl die Erfassung als auch die Präsentation. Insbesondere schließt er die digitalen, graphikorientierten Informationstechnologien und Kommunikationsformen wie 2D- und 3D-Computergraphik, Computeranimation, Multimediale Techniken und Virtual Reality mit ein (vgl. eingehender Kap. 7.6.3). Die Informatik stellt umfangreiche Werkzeuge wie Graphiksprachen und Programmbibliotheken zur Entwicklung von Graphikanwendungen zur Verfügung (vgl. Kap. 3.3.6). Hier steht nicht (mehr) die Programmierung von Graphik im Vordergrund. Stattdessen werden allgemein graphische Präsentationen von Informationen und insbesondere die graphische Darstellung raumbezogener Informationen in Graphiksystemen betrachtet, zu denen insbesondere Geoinformationssysteme gehören. In der graphischen Informationsverarbeitung werden häufig auch Informationen ohne Raumbezug graphisch dargestellt wie z.B. reine Zahlenbestände, die in Form von Säulendiagrammen bildhaft zu präsentieren sind, oder z.B. Photos oder Bilder, die zu Werbezwecken aufbereitet werden sollen. Derartige Formen der graphischen Präsentation, wozu u.a. die sog. Business Graphik gehört, sind nicht kennzeichnend für die Geoinformatik. Stattdessen sind graphische Darstellungsformen von Geoobjekten von Belang, die allerdings ursprünglich nicht auf die graphische Informationsverarbeitung zurückgehen. Sie haben in der Kartographie eine lange Tradition, die seit langem gültige Darstellungsprinzipien von Geoobjekten entwickelt hat. Allerdings scheinen manchmal die Erkenntnisse der Kartographie in der graphischen Informationsverarbeitung unbekannt zu sein oder nicht wahrgenommen zu werden. Die vielfältigen und einfach zu handhabenden Ausdrucksformen von Graphiksoftware werden häufig unreflektiert benutzt (u.a. Verwendung von Farben zur Darstellung von Quantitäten insbesondere in Geoinformationssystemen). Anfänglich führten technische Schwierigkeiten und unzulängliche kartographische Ausdrucksformen in der graphischen Informationsverarbeitung zu unbefriedigenden Ergebnissen. Inzwischen werden vielfältige Stilmittel eingesetzt - aber zuweilen kartographisch nicht korrekt (vgl. Kap. 7.3 u. 7.4).
246
Visualisierung raumbezogener Informationen
Die modernen digitalen Informations- und Kommunikationstechniken und insbesondere das Internet haben zu neuen Aufgaben, Anwendungsfeldern und Ausdrucksformen der graphischen Informationsverarbeitung geführt, die über eine einfache, eher statische, hauptsächlich zweidimensionale Präsentation von Informationen weit hinausgehen. Sie versetzen den Anwender in eine aktive Rolle, die Graphik zu verändern oder Zusatzinformationen abzufragen (vgl. Kap. 7.2.2). Vor diesem Hintergrund macht die graphische Informationsverarbeitung einen tiefgreifenden Wandel durch, der vor allem die traditionsreiche Kartographie erfasst hat (vgl. Kap. 7.6 u. 7.7). 7.1.2
Digitale graphische Darstellungsformen raumbezogener Informationen
Die klassische Darstellungsform raumbezogener Informationen ist die Karte. Eine ältere Begriffsbestimmung der Internationalen Kartographischen Vereinigung bezeichnete eine Karte als maßstäblich verkleinerte, generalisierte und erläuterte Grundrissdarstellung von Erscheinungen und Sachverhalten der Erde in einer Ebene (vgl. Heissler u. Hake 1970 S. 11). Eine neuere Definition berücksichtigt den Dualismus zwischen analoger Karte in Papierform einerseits und Modell digitaler Daten andererseits, das z.B. in einem Informationssystem dauerhaft gespeichert ist und das je nach Bedarf unterschiedlich präsentiert werden kann. „Die Karte ist ein maßgebundenes und strukturiertes Modell räumlicher Bezüge. Sie ist im weiteren Sinne ein digitales graphikbezogenes Modell, im engeren Sinne ein graphisches (analoges) Modell, d.h. graphisches Modell.“ (Hake 1988 S. 68). Inzwischen ist die jüngste Begriffsbestimmung der Internationalen Kartographischen Vereinigung wesentlich allgemeingültiger und bezieht sich ausdrücklich nicht mehr auf technische Umsetzungsformen (vgl. Kap. 7.6.1). Insbesondere sind Präsentationen des digitalen Modells am Monitor nicht mehr maßstabgebunden. Gleichwohl gilt bei sämtlichen analogen wie auch digitalen Präsentationen weiterhin, dass sie als Modelle der Realität einen bestimmten Zeichenvorrat (d.h. Signaturen) mit vereinbarten Bedeutungen benutzen (vgl. Kap. 7.3). Ein Hauptanwendungsfeld der graphischen Informationsverarbeitung auch außerhalb der Raumwissenschaften wie z.B. in den Printmedien oder in der Werbung ist die Erstellung analoger Karten. Hierfür wird häufig, allerdings eher umgangssprachlich der Begriff Computerkartographie benutzt, wodurch letztlich nur die computergestützte Kartographie umschrieben wird, die die Herstellung konventioneller, d.h. analoger Karten mit Hilfe eines Computers kennzeichnet. Hierbei vollziehen sich Entwurf, Zeichnung und Gestaltung der Karte interaktiv am Rechner. Für diese in der Praxis sehr häufige Anwendung ist inzwischen der Begriff Desktop Mapping gebräuchlich (vgl. Kap. 7.5). Neben dem Desktop Mapping sind Geoinformationssysteme das Hauptanwendungsfeld graphischer Darstellungen raumbezogener Informationen. Digitale kartographische Darstellungen sind hier die wichtigsten Präsentationsformen. Die Orientierung in einem Geoinformationssystem erfolgt über digitale kartographische Darstellungen am Monitor. Die Visualisierung am Monitor wird benutzt, um
Graphische Informationsverarbeitung
247
den in das Geoinformationssystem abgebildeten oder modellierten Ausschnitt der Erdoberfläche graphisch aufzubereiten. Die digitale Kartographie, bei der Karten bzw. raumbezogene Informationen nur noch in digitaler Form auf einem Datenträger vorliegen und am Monitor präsentiert werden (mit anschließender, optionaler Ausgabemöglichkeit über einen Drucker), hat inzwischen gegenüber den klassischen Aufgabenbereichen der Kartographie eine hohe Akzeptanz gefunden, die letztlich auf Darstellungen auf materiellen Zeichenträgern (z.B. Papier) abzielen. So werden z.B. von den Landesvermessungsämtern Topographische Karten auf CD angeboten, die das jeweilige Landesgebiet überdecken. Dabei werden die klassischen Topographischen Karten gescannt und gerastert, auf geodätische Koordinatensysteme georeferenziert und blattschnittfrei zusammen mit Auswertefunktionen zur Verfügung gestellt. Die Ausgabe z.B. für Nordrhein-Westfalen enthält auch Höhenmodelle und macht so eine 3D-Visualisierung der Topographischen Karten möglich (u.a. auch mit Erstellen von Höhenprofilen entlang von Wegstrecken). Dieser Prozess wird sich durch die bisher explosionsartige Bedeutungszunahme des Internets verstärken, infolgedessen Papier als wichtigstes Übertragungsmedium graphischer Darstellungen (neben Filmen) zurückgeht (vgl. Asche 1996, Dickmann 1997 u. 2001). Insbesondere verändern sich im multimedialen Umfeld bisherige Aufgabenbereiche und eröffnen sich neue Anwendungsfelder der Kartographie (vgl. Kap. 7.6 u. Grünreich 1996 u. 1997 sowie vor allem Cartwright u.a. 1999). Von den Vermessungsverwaltungen der Bundesländer werden umfangreiche digitale Geobasisdaten wie das Topographisch-Kartographische Informationssystem ATKIS aufgebaut (vgl. Kap. 6.6.3). Aus diesen Daten werden die Digitale Topographische Karte (DTK) bzw. die neue TK25 abgeleitet (vgl. Kap. 6.6.3.5). Die computergestützte wissenschaftliche Visualisierung macht den wohl jüngsten Forschungszweig aus, an dem die graphische Informationsverarbeitung wesentlichen Anteil hat, der aber nicht an Fachgrenzen gebunden ist. Entwickelt werden neue Verfahren der interaktiven Exploration umfangreicher wissenschaftlicher Datensätze (vgl. Kap. 7.1.3 u. 7.6). Die graphische Informationsverarbeitung ermöglicht komplexe Darstellungen, deren Erstellung bisher zu zeit- oder kostenaufwändig war und deren Entwicklung unterblieb, sowie auch neue Präsentationsformen: u.a. Aufbereitung und Präsentation umfangreicher Datenmengen (z.B. komplexe Diagrammdarstellungen in mehrschichtigen Karten), Präsentation von Werteoberflächen (z.B. dreidimensionale, perspektivische Darstellung der Niederschlagsverteilung), Darstellung raumzeitlicher Prozesse und Visualisierung von Simulationen (z.B. Ausbreitung von Schadstoffen). Bei der digitalen Bildverarbeitung geht es nicht um die ausschließliche Präsentation von Bildern (wie z.B. um die Visualisierung von Satellitendaten), sondern vor allem um die Aufbereitung und Analyse von Daten, die mit Scannersystemen erfasst wurden (vgl. Kap. 10). Durch die Auflistung werden zu einem großen Teil klassische Aufgabenfelder der Kartographie benannt. Allerdings sind analoge Techniken nicht einfach durch digitale Techniken ersetzt worden. Die gesamte Kartographie vom Herstellungsprozess analoger Karten bis hin zu digitalen Informationsträgern und neuen
248
Visualisierung raumbezogener Informationen
Kommunikationsformen hat sich entscheidend verändert (vgl. Kap. 7.6). Vor diesem Hintergrund ist es nicht mehr sinnvoll, zwischen traditioneller, analoger oder digitaler Kartographie oder Computerkartographie zu unterscheiden, wobei ohnehin klare Begriffsbildungen fehlen. So verstehen einige Autoren wie z.B. Hake u. Grünreich (1994) nur die Arbeitsweise als digitale Kartographie, bei der die Kartenbearbeitung im direkten Datenfluss aus Geoinformationssystemen erfolgt. Stattdessen ist die gesamte Kartographie gefordert, die die bewährten Gestaltungsregeln nicht aufgeben darf und zwingend die neuen Techniken integrieren muss, aber auch zu untersuchen hat, wie das kartographische Potenzial im multimedialen Umfeld voll ausgeschöpft werden kann (vgl. Kap. 7.6.3). Da fast automatisch die Bezeichnung „Kartographie“ die traditionelle analoge Karte impliziert, wäre es konsequent, eine neue Begriffsbildung einzuführen: Visualisierung oder Visualisierung raumbezogener Informationen. Jedoch ist die Persistenz der jahrtausendalten Begriffe Karte und Kartographie nicht zu unterschätzen gegenüber den jungen, eher umständlich und spröde erscheinenden Termini. 7.1.3
Computergestützte wissenschaftliche Visualisierung
Die computergestützte wissenschaftliche Visualisierung ist ein neues, seit etwa Ende der achtziger Jahren bestehendes Forschungsgebiet, an dem sich Informatik, Kognitionswissenschaften, Psychologie und Kommunikationsforschung beteiligen und das als Visualization in Scientific Computing (ViSC) bezeichnet werden kann. Die Anfänge werden häufig auf McCormick u.a. (1987) zurückgeführt (zu einem knappen Überblick vgl. Wood u. Brodlie 1994). Hierdurch werden Forschungsmethoden der Informatik bezeichnet, die die interaktive visuelle Exploration umfangreicher wissenschaftlicher Datenbestände zum Ziel haben, um das visuelle Denken von Fachleuten zu stimulieren. Die Datensätze werden graphisch präsentiert, um ihre Lesbarkeit zu verbessern oder um Strukturen oder Regelhaftigkeiten offen zu legen. Die computergestützte wissenschaftliche Visualisierung zielt dabei (primär) nicht auf Verfahren ab, wie vorhandenes Fachwissen „anschaulich” durch graphische Methoden und Darstellungen umgesetzt werden kann (explanative Kommunikation). Im Mittelpunkt steht vielmehr der eigentliche Erkenntnisprozess (explorative Kommunikation). Grundlegend für dieses Verständnis von Visualisierung als ein Werkzeug wissenschaftlicher Forschung ist das Modell von DiBiase, das die verschiedenen Funktionen der (computergestützten) Visualisierung im Forschungsprozess verdeutlicht, wobei grundsätzlich zwischen zwei Bereichen unterschieden wird. Im internen Bereich findet nur eine Kommunikation des Wissenschaftlers mit sich selbst statt. Visualisierung bedeutet hier „visuelles Denken”, das der Exploration und Strukturierung von Daten sowie der Findung und Überprüfung von Hypothesen (aufgrund der Datenanalyse) dient. Im externen Bereich findet eine Kommunikation des Wissenschaftlers mit anderen statt. Visualisierung bedeutet hier „visuelle Kommunikation”. Die Erkenntnisse werden in einer Synthese zusammengefasst und anschließend präsentiert (vgl. Abb. 7.1).
Graphische Kommunikation und graphische Semiologie
249
Abb. 7.1: Visualisierung als ein Werkzeug wissenschaftlicher Forschung nach DiBiase (Quelle: MacEachran 1994 S. 3)
Für die computergestützte Visualisierung - verstanden als explorativer Forschungsansatz - besitzen Geoinformationssysteme eine zentrale Bedeutung (zur Beziehung von Visualisierung und Geoinformationssystemen vgl. die Forschungshorizonte aufzeigenden Aufsätze in Hearnshaw u. Unwin 1994). Allerdings sind noch erhebliche Forschungsanstrengungen notwendig, um Standardgeoinformationssysteme zu Werkzeugen der geowissenschaftlichen Visualisierung (GeoViSC) weiterzuentwickeln (zum Begriff GeoViSC vgl. Schmidt u.a. 1997, zu Forschungsansätzen und zur Geoscientic Visualization vgl. Schmidt u. Uhlenküken 1999 u.a. 2000 sowie Fuhrmann u.a. 2000). So liegen die Datenbestände zumeist nur zweidimensional und thematisch parallel vor, die dann (nur) entsprechend von den bestehenden Geoinformationssystemen verarbeitet werden können. Demgegenüber können komplexe raumbezogene Datenmengen bisher nur wenig im Hinblick auf ihre dritte Raumdimension (echtes 3D-GIS) sowie auf ihre zeitliche Dimension (4D-GIS) in Geoinformationssystemen analysiert und visualisiert werden.
7.2
7.2.1
Graphische Kommunikation und graphische Semiologie Graphische Kommunikation
Kartographische Darstellungen zeichnen sich als die besten Möglichkeiten der Kommunikation über raumbezogene Information aus. Dieser Grundsatz muss auch durch den Einsatz der neuen Informations- und Kommunikationstechnologien bestehen bleiben. Wesentliche Vorteile sind vor allem:
250
Visualisierung raumbezogener Informationen
- Lagebeziehungen werden direkt und intuitiv erfasst, die sonst umständlich in textlicher Form beschrieben werden müssen. Nachbarschaften und Distanzen können schnell visuell wahrgenommen werden. - Räumliche Strukturen, d.h. die räumliche Verteilung von Daten, sind „mit einem Blick” zu erkennen. Vergleiche mit Verbreitungsmustern anderer räumlicher Erscheinungsformen und Prozesse sind einfacher. Allerdings wird beim Herausstellen derartiger Vorteile häufig verkannt, dass ein Bild, eine Graphik oder eine Karte ein Medium zur Übertragung von Informationen ist, das die Übertragung zwischen einem Sender und einem Empfänger filtern oder stören kann. Stets wird beim Empfänger oder Leser der graphischen Darstellung ein Grundwissen vorausgesetzt, um eine Karte zu lesen oder Inhalte von graphischen Darstellungen zu verstehen. Dieses allgemeine Grundwissen steuert den Erkenntnisprozess und macht das Lesen von Graphiken, Bildern oder Karten leicht(er) möglich. Hinzu kommt das fachliche Wissen des Empfängers, das den Karteninhalt vollständig erschließen hilft. Daneben werden Art und Umfang der Wahrnehmung und Speicherung der Informationen auch durch den allgemeinen Kontext sowie die (spätere) Verwendung der Informationen bestimmt. Realität
Empfänger und Sender
Übertragungsmedium
Empfänger
Primärmodell
Sekundärmodell
Tertiärmodell
Fachmann Kartograph
Bild, Graphik, analoge Karte
Geoinformationssystem
digitale Karte am Monitor
Abb. 7.2: Graphische Kommunikation
Die Abbildung 7.2 schematisiert den graphischen Kommunikationsprozess: - Ausgehend von der Umwelt wird ein Primärmodell der Wirklichkeit erstellt. Hierbei treten vielfältige Formen von Vereinfachungen oder Generalisierungen der Realität auf: Filtern von Informationen durch Weglassen “unwichtiger” Informationen, Abstraktion von komplexen Sachverhalten. Die Straße mit beidseitiger Baumreihe zwischen zwei Ortskernen wird z.B. zur einfachen, geraden Verbindung abstrahiert. So entsteht ein abstraktes, virtuelles Primärmodell der Realität, das im Allgemeinen fachbezogen ist. Ein derartiges Primärmodell kann im Gedächtnis des Fachmannes, aber auch als ein digitales Modell der Realität in Form eines Geoinformationssystems digital vorliegen. Allerdings ist dabei der Abbildungsvorgang einfacher, die Abbildungsvorschriften sind transparent, da die Datenaufnahme strenger operationalisiert ist. - Im Hinblick auf eine graphische Präsentation besteht der nächste Schritt der Informationsverarbeitung in der Umsetzung des Primärmodells in eine bildhafte Darstellung. Die graphische Präsentation, d.h. die analoge oder auch digitale
Graphische Kommunikation und graphische Semiologie
251
Darstellung, ist als Sekundärmodell der Realität zu verstehen. Die Informationsverarbeitung geschieht zumeist dadurch, dass der Kartograph Vorgaben erhält, das Primärmodell des Fachwissenschaftlers (z.B. verbale Erläuterungen oder eine Handskizze) graphisch umzusetzen, oder dass in einem Geoinformationssystem Symbolbibliotheken benutzt werden, um z.B. eine Fläche als Waldfläche darzustellen. Bei dieser Umsetzung sind mehrschichtige Kommunikationsprobleme möglich. So ist denkbar, dass der Kartograph den Fachwissenschaftler bzw. sein Anliegen nicht voll versteht. Ferner können die vorhandenen graphischen Gestaltungsmittel keine adäquate Umsetzung des Primärmodells zulassen, da z.B. der Kartograph nicht in der Lage ist, eine Autobahnsignatur zu erstellen, oder das Geoinformationssystem nicht über eine Laubwaldsignatur verfügt, wie sie in deutschen Topographischen Karten üblich ist. - In einem dritten Kommunikationsprozess werden die Informationen, d.h. eigentlich die in der Graphik codierten Nachrichten, vom Benutzer empfangen und zu einem (neuen) Modell der Umwelt (Tertiärmodell) verarbeitet. Aufgrund des mangelnden Vorwissens des Benutzers oder seines Unvermögens, graphische Darstellungen zu lesen und zu verstehen, sowie der Mehrdeutigkeit oder fehlenden Genauigkeit der graphischen Präsentation kann es dabei zu Abbildungs- oder Lesefehlern kommen. Die gerade Verbindungslinie zwischen zwei Städten, dargestellt durch eine Autobahnsignatur, soll z.B. nicht den tatsächlichen Straßenverlauf verdeutlichen, sondern eine Verkehrsanbindung. Die exakte Entfernung wird durch eine Kilometerzahl angegeben, die in die Karte eingezeichnet ist, oder durch Anklicken des Objekts in einem sich am Monitor öffnenden Fenster angezeigt. Während diese Entfernungen in der Regel erst später „gelesen” werden, wird auf den ersten Blick deutlich, welche Städte an das Autobahnnetz angebunden sind. Hieraus lassen sich zwei Grundprobleme der graphischen Kommunikation ableiten: - Zum einen muss Information, die in Form von Texten, numerischen Daten, Zeichnungen und Bildern oder auch von Gedanken vorliegt, vom Sender in eine bildhafte Darstellung transformiert oder übersetzt werden. Dieses Aufgabe gilt auch beim Einsatz der neuen Technologien weiterhin, wobei jetzt diese Umsetzung in ein Sekundärmodell, d.h. u.a. in eine digitale Karte am Monitor, häufig von einem kartographischen Laien geschieht, der zumeist nicht über das Fachwissen zum richtigen Einsatz kartographischer Darstellungsmittel verfügt! - Zum anderen muss vom Empfänger die bildhafte Information „richtig”, d.h. im Sinne des Senders der Informationen, verstanden werden. Durch die räumliche Wahrnehmung einer Graphik, eines Bildes oder einer Karte, durch das Erkennen von Zusammenhängen, durch Strukturieren des Karteninhalts oder durch Vergleiche der Strukturen werden aber individuelle Interpretationsmöglichkeiten geschaffen. Durch den falschen Einsatz kartographischer Darstellungsmittel sind leicht Fehleinschätzungen möglich. Das Tertiärmodell stimmt dann nicht mehr mit dem Primärmodell überein. Diese Probleme der kartographischen Kommunikation - unabhängig ob in analoger oder digitaler Form - erhalten ein besonderes Gewicht, da von einer graphi-
252
Visualisierung raumbezogener Informationen
schen oder bildhaften Darstellung eine hohe Anziehungskraft ausgeht und mögliche Störquellen nicht erkannt oder hinterfragt werden. Der häufig zu findende, stets positiv besetzte Satz „Ein Bild sagt mehr als tausend Worte.” ist somit deutlich zu problematisieren. Aufgrund von Kommunikationsproblemen kann eine Karte, als Abbildung und als Modell der Realität, Verfälschungen enthalten, die – sofern sie bewusst vorgenommen werden – als kartographische Lügen zu bezeichnen sind (vgl. Monmonier 1996). Graphische Punkt Variable
Linie
Fläche
Alphanumerische Zeichen klein
Größe
mittel
groß hell Helligkeitswert
mittel dunkel
Arial Form
Courier Lucida
Muster
Richtung
cyan Farbe
magenta yellow
Abb. 7.3: Graphische Variablen nach Bertin 1974 (mit alphanumerischen Zeichen als Ergänzungen)
Graphische Kommunikation und graphische Semiologie
7.2.2
253
Graphische Semiologie
Digitale graphische Präsentation und Kartographie haben auf die Entstehung des Primärmodells der Wirklichkeit keinen Einfluss. Sie steuern hingegen entscheidend die Entstehung des Sekundär- und Tertiärmodells (vgl. Abb. 7.2). Von großer Bedeutung sind dabei die Zeichen als Träger der Informationen, mit denen sich die Semiotik in mehr erkenntnistheoretischer Weise befaßt. So sind in der (graphischen) Zeichentheorie zu unterscheiden: Die syntaktische Dimension bezieht sich auf die formale Bildung der Zeichen und auf ihre Beziehungen zueinander. Eine kartographische Darstellung ist syntaktisch einwandfrei, wenn die Zeichnung in ihrer Struktur richtig erkannt wird (vgl. z.B. Größe, Abstand, Kontrast der Zeichen). Die semantische Dimension beschreibt die Zeichenbedeutung. So muss die Bedeutung der Zeichen beim Sender (z.B. Kartenhersteller) mit der beim Empfänger (z.B. Kartenleser) identisch sein (z.B. Erkennen einer Eisenbahnsignatur). Die pragmatische Dimension zielt auf den Zweck der Zeichen ab. Die Zeichen können Einfluss auf Änderung von Verhaltensweisen haben (z.B. Einsatz von Rot zur Kennzeichnung von Gefahr). In einer Erweiterung dieser Betrachtungsweise, die die Fähigkeiten der graphischen Gestaltungsmittel stärker differenziert, hat Bertin die graphische Semiologie entwickelt, die als Theorie der graphischen Darstellung von Informationen verstanden werden kann (vgl. Bertin 1974). Dieses System wurde von Bertin fortgeführt, ohne aber wesentliche Veränderungen vorzunehmen (vgl. Bertin 1982). Bertin unterscheidet analog zu den geometrischen Grundelementen in einem Geoinformationssystem nur drei graphische Grundelemente: Punkt, Linie und Fläche. In einer Erweiterung sollen hier die alphanumerischen Zeichen, d.h. Buchstaben, Ziffern und Sonderzeichen, ebenfalls als graphische Grundelemente verstanden werden (vgl. Abb. 7.3). Sie sind zwar eine Kombination aus Punkten, Linien und Flächen. Im praktischen Einsatz besitzen sie jedoch eine hohe Eigenständigkeit und werden als Grundelemente benutzt. Diese Grundelemente können sehr unterschiedlich gestaltet oder verändert werden. Bertin nennt diese graphischen Variationsmöglichkeiten graphische Variablen und unterscheidet: Größe, Helligkeit, Muster, Farbe, Richtung und Form. Die Abbildung 7.3 zeigt in Erweiterung von Bertin für die jetzt vier graphischen Grundelemente idealtypisch Gestaltungsmöglichkeiten auf. Allerdings haben sich in der Kartographie Konventionen oder Standards zum Einsatz dieser Grundelemente entwickelt. Nicht jede Variable ist somit für punkt-, linien- und flächenhafte Objekte gleichermaßen anwendbar. So werden z.B. Linien sehr selten nach der Richtung oder nach dem Helligkeitswert variiert. Bei einer flächigen Gestaltung wird die Größe der Signatur fast nie verändert. Alphanumerische Zeichen werden zumeist an der Horizontalen ausgerichtet, wichtige Ausnahmen sind aber Beschriftungen von linienhaften Objekten (z.B. Flussläufe oder Verkehrswege), bei denen die Schrift parallel zur Linie verläuft. Zudem systematisiert die Abbildung 7.3 die graphischen Variablen und zeigt jeweils nur einzeln die Gestaltungsmöglichkeiten auf. In einer Karte werden aber zumeist mehrere Variablen umgesetzt wie z.B. bei einer farbigen, unterschiedlich breiten Linie.
254
Visualisierung raumbezogener Informationen
Assoziativ
Selektiv
Geordnet
Quantitativ
Alle Zeichen werden als GLEICHARTIG betrachtet
Alle Zeichen werden als VERSCHIEDEN betrachtet; sie bilden FAMILIEN
Alle Zeichen werden als GEORDNET betrachtet
Alle Zeichen werden als untereinander PROPORTIONAL betrachtet
4 Größe
4 5 3
Helligkeitswert
4 5 2
Muster
4 5 7
Farbe
7 8
Richtung
4 2
Form
Abb. 7.4: Fähigkeiten der graphischen Variablen nach Bertin 1974
Diese klare Unterscheidung bietet die Möglichkeit, die sehr unterschiedlichen Eigenschaften und Ausdrucksmöglichkeiten der graphischen Variablen präzise zu analysieren. Nach Bertin können nur vier spezielle Fähigkeiten unterschieden werden, die nicht bei allen Variablen gleichermaßen ausgeprägt sind:
Graphische Kommunikation und graphische Semiologie
255
- Assoziation (assoziativ = verbindend, gleichmäßige Sichtbarkeit; dissoziativ = auflösend, unterschiedliche Sichtbarkeit): Hierdurch wird die gleichartige Wahrnehmung und Sichtbarkeit gekennzeichnet. Somit wird die Fähigkeit thematisiert, Zusammenhänge und verbindende Strukturen unter den Objekten zu erkennen. - Selektivität: Diese Fähigkeit drückt die Eigenschaft aus, dass Signaturen mehr oder weniger deutlich unterschiedlich erkannt werden. Die Variablen ermöglichen eine selektive und trennende Wahrnehmung der Objekte. - Ordnung: Diese Fähigkeit zielt auf die (unterschiedliche) Leistung der einzelnen Variablen ab, eine Rangordnung zwischen den Objekten auszudrücken. - Quantität: Hierdurch wird die Fähigkeit einer Variablen gekennzeichnet, dass mengenmäßige, über eine reine Ordnung hinausgehende Beziehungen wahrgenommen werden können. Die Abbildung 7.4 systematisiert grundlegende Regeln oder Prinzipien: - Die Größe besitzt einzig die Fähigkeit, Quantitäten auszudrücken! Allerdings können über die Größe nur eingeschränkt gleiche Objekte erkannt und eine Präsentation strukturiert werden. Die menschliche Wahrnehmung ist z.B. nur eingeschränkt in der Lage, in der Größe gestufte Punktsymbole in einer Karte auseinander zu halten (zur selektiven Wirkung der graphischen Variablen siehe weiter unten). - Muster und Helligkeit haben ähnliche Fähigkeiten, wobei die Bildung von Rangfolgen durch Helligkeitsunterschiede herauszustellen ist. Diese HellDunkel-Unterschiede leisten im Prinzip auch die ordnende Wirkung bei (geeigneten) Mustern. Die Helligkeit besitzt aber kaum assoziative Wirkung. Das (Wieder-)Erkennen von gleichen Objekten in einer graphischen Präsentation sollte nicht über die Helligkeit, sondern mit Hilfe einer anderen graphischen Variablen erreicht werden. - Größe und Helligkeit sind von unterschiedlicher Sichtbarkeit. Sie sind nach Bertin dissoziativ. Mehrere Punktverteilungen in einer Graphik, die sich nur durch Größe (oder Helligkeit) der Punktsymbole unterscheiden, sind nicht gleichmäßig sichtbar, somit löst sich ab einer zu geringen Punktgröße (oder Helligkeit) die Verteilung auf. Demgegenüber sind die übrigen Variablen gleichmäßig sichtbar (vgl. z.B. Variation einer Punktverteilung allein nach der Form der Symbole). Allerdings lösen Größe und Helligkeitswert auch jede andere Variable auf, mit der sie kombiniert werden. So verringert sich z.B. die Anzahl der unterscheidbaren Farben für Punktsymbole, die zusätzlich nach Größe und Helligkeitswert variiert werden. - Mit der Form (z.B. Kreis oder Quadrat als Punktsymbol) ist nur eine (Lage-)Kennzeichnung von Objekten möglich. Die Form ist (schon) nicht mehr selektiv. Zum Erkennen räumlicher Zusammenhänge (Regionalisierung) ist diese Variable kaum geeignet (vgl. Verteilungen von Punktsymbolen, die sich allein
256
-
-
Visualisierung raumbezogener Informationen
aufgrund der Form, die sich aber nicht nach z.B. der Größe oder der Helligkeit unterscheiden). Die Richtung besitzt kaum mehr Fähigkeiten als die Form. Sie bietet nur bei punkthafter und linienhafter Umsetzung eine Selektivität. Mit Hilfe von Farbe ergibt sich eine hohe assoziative Wirkung der Objekte. Das Wiedererkennen und Strukturieren der Graphik wird erleichtert. Farben besitzen zudem gute trennende und selektive Eigenschaften. Farben haben streng genommen keine ordnende Wirkung, es sei denn, es liegt eine Abstufung z.B. von einem dunklen Rot, über Rot und Gelb zu einem hellem Gelb vor, wobei dann eigentlich die Helligkeit die Rangfolge bewirkt. Somit sind z.B. gleichmäßig abgestufte Grautöne besser geeignet, eine Ordnung anzugeben. Mit Farben können keine Quantitäten ausgedrückt werden! Durch Form, Muster oder Farbe lassen sich am besten qualitative Eigenschaften ausdrücken. Zur Wiedergabe von Intensitäten werden Veränderungen der Helligkeit benutzt. Bei Punktsignaturen werden zumeist qualitative Unterschiede durch Variation der Form und quantitative Unterschiede durch Variation der Größe ausgedrückt. Die Bedeutung von Linien in einem Netzwerk wird durch die Größe bzw. Breite der Linien wiedergegeben. Manche graphische Variablen sind nur für bestimmte graphische Grundelemente geeignet. So haben bei kleinen Punkten und dünnen Linien, die sich kaum vom Hintergrund abheben, Farbe oder Tonwert keine visuelle Wirkung. Flächenhafte Darstellungen, soweit die Flächen groß genug sind, lassen Unterschiede in Farbe, Tonwert oder Muster eher erkennen.
In seiner graphischen Semiologie gibt Bertin an, wie viele Variationen einer graphischen Variablen unterschieden werden können und somit als trennend oder selektiv erkannt werden (vgl. Abb. 7.4). Bei alleiniger Veränderung z.B. der Größe sind höchstens 4 Punktgrößen oder 4 Linienbreiten zu unterscheiden! Sind weitere Differenzierungen notwendig, müssen mehrere Variable kombiniert werden. Beim praktischen Einsatz der graphischen Gestaltungsmittel wird zumeist eine Kombination der graphischen Variablen benutzt. So sind für die Gestaltung von Flächen vor allem Schraffuren und Raster von Bedeutung, die eine Kombinationen von Helligkeit, Form, Muster und Richtung darstellen. Zur Gestaltung von Linien wird zumeist eine Kombination von Größe (d.h. Breite), Form und Muster herangezogen. Für die Kennzeichnung von punkthaften Objekten sind vor allem Symbole (d.h. Kombinationen von Form und Muster) von Bedeutung. Sämtliche Signaturen können nach der Farbe differenziert werden. Diese Theorie wurde zweidimensional im Hinblick auf Darstellungen in (analogen) Karten ausgerichtet. Demgegenüber wird der Betrachter von Karten an einem Monitor einer anderen Wahrnehmungs- und Interpretationssituation ausgesetzt. Jedoch ist die von Bertin begründete graphische Semiologie geeignet, als Grammatik der graphischen Sprache, als Systematisierung der graphischen Transkriptionsmöglichkeiten von Informationen zu dienen. Allerdings sind die von
Graphische Gestaltungsmittel
257
Bertin definierten Variablen statisch, sie schließen Bewegung und Zeit aus. Im Hinblick auf bewegte Bilder und Computeranimationen ist das System nach MacEachran um dynamische Variablen wie Dauer, Veränderungsrate und Anordnung zu erweitern (vgl. MacEachran 1994). Ebenso wurde der Ansatz nach Bertin von van der Wel u.a. (1994) aufgegriffen, die ein Modell zur Visualisierung von Informationen über Datenqualitäten vorgeschlagen und graphische Variablen mit Qualitätsmerkmalen (Datenherkunft, Vollständigkeit, Genauigkeit der Lage und der Attribute) auf verschiedenen Skalenniveaus verknüpft haben. Dabei wurden die graphischen Variablen von Bertin zum einen präzisiert, in dem zwischen Farbton (colour hue) und Sättigung (colour saturation) unterschieden wurde, und zum anderen erweitert. Um Qualitätsinformationen umzusetzen, wurden als neue graphische Variablen Abstraktionsgrad und Musteranordnung (im Original: structure or pattern arrangement) eingeführt. Für Bildschirmdarstellungen sind weitere Prinzipien zu entwickeln, die zum einen die Zeichen und zum anderen das Medium betreffen. Aufgrund der begrenzten Bildschirmauflösung und der schnellen Ermüdung des menschlichen Auges ist eine stärkere Kontrastierung zu wählen. Gleichzeitig sollte die Detailfülle einer Präsentation zugunsten einer leichteren Lesbarkeit reduziert werden, wobei die neuen Informations- und Kommunikationstechnologien Möglichkeiten bieten, im Anschluss an einen ersten Überblick tiefer in die digitale Karte bzw. das Informationsangebot einzudringen (sog. Level of Detail, LOD). Hieraus ist die zwingende Forderung abzuleiten, die Karte ansprechend zu gestalten, um den interessierten Nutzer zu ermutigen, sich intensiver mit den Inhalten auseinander zu setzen. Dieser auch in der traditionellen Kartographie gültige Grundsatz steht im Übrigen im Einklang mit der graphischen Semiologie von Bertin. Er erhält aber für die Kartographie im Internet eine völlig neue Dimension, um das Netz nicht durch datenintensive Kartendarstellungen zu überlasten und um Zeit- und Kostenressourcen effizient einzusetzen (vgl. auch Dickmann 1997, Faby 2005 u. Lechthaler 2005).
7.3 7.3.1
Graphische Gestaltungsmittel Signaturen
Neben Diagrammen, Halbtönen, der Schrift und insbesondere der Farbe sind Signaturen die wichtigsten Gestaltungsmittel in Karten. Die geometrischen Grundelemente Punkt, Linie und Fläche werden erst durch Signaturen gestaltet. In einer Karte wird z.B. eine Straße durch eine Doppellinie, d.h. durch eine spezielle Straßensignatur, symbolisiert, die somit eine Umrechnung in die tatsächliche Breite der Straße nicht zulässt. Als Signatur, d.h. (Karten-)Zeichen oder Symbol, werden abstrahierte Objektbilder (vgl. die Skizze eines Geweihes zur Kennzeichnung eines Forsthauses) oder konventionelle Zeichen verstanden, die man in sehr vielfältiger Weise verändern kann. Eine Signatur ist somit eine abstrakte bis bildhafte Kurzschrift, die im Vergleich zu einer textlichen Erläuterung in der Graphik weniger (Karten-)Fläche benötigt und insbesondere bei bildhaften oder sprechenden
258
Visualisierung raumbezogener Informationen
Signaturen unmittelbar das Vorstellungsvermögen ansprechen kann (vgl. Abb. 7.5). Allerdings sind Signaturen nicht immer selbsterklärend, so dass der Gebrauch dieses Gestaltungsmittels eine besondere Zeichenerklärung (Legende) erfordert. Die Abbildung 7.5 gibt eine Übersicht über prinzipielle Formen und Anordnungen von Signaturen. Geoinformationssysteme besitzen im Standardfall nur eine geringe Auswahl dieser Darstellungsmöglichkeiten. Signaturenkataloge (insbesondere von Linien) zur Gestaltung von kartographisch ansprechenden Graphiken fehlen zumeist in den Basisversionen, die aber häufig um spezielle Symbolbibliotheken für Fachanwendungen ergänzt werden können: - Bildhafte (d.h. sprechende) und geometrische (d.h. abstrakte) Signaturen sind in der Kartographie am häufigsten verbreitet. Sie besitzen individuelle Gestaltungsmöglichkeiten, wobei gerade die geometrischen Signaturen die größten Variationsmöglichkeiten bieten. Insbesondere haben einzelne Disziplinen oder Fachanwendungen eindeutig definierte, vielfältige Signaturenkataloge entwickelt (vgl. Signaturen der amtlichen Topographischen Karten, der geologischen Karten, die sog. Planzeichenverordnung als Zeichenschlüssel für Bauleitpläne). - Mit Hilfe von Buchstaben- oder Ziffernsignaturen können umfangreiche Informationen codiert und sehr platzsparend visualisiert werden (vgl. z.B. Hydrographische Karten und Wetterkarten). Derartige Darstellungen sind allerdings u.U. sehr komplex oder zumindest nicht intuitiv lesbar.
Anordnung der Signaturen
Form punkthaft
linear
flächenhaft
Grundrißbilder Bild-
Aufriß-
haft
bilder Symbole
Geometrisch Ziffern Buchstaben Unterstreichungen
Ort
Abb. 7.5: Formen und Anordnungen von Signaturen
WA
Allg. Wohngebiet (§4 BauNVO)
Graphische Gestaltungsmittel
259
Nach Bertin eignet sich nur die Größe zur Darstellung von Quantitäten. In der weiteren Differenzierung nach Relativwerten und Absolutzahlen haben sich in der kartographischen Praxis in Verbindung mit der graphischen Variablen Helligkeit eindeutige Konventionen zur Umsetzung quantitativer Sachverhalte herausgebildet. Dabei kann für punkthafte, linienhafte und flächenhafte Signaturen die Angabe von Quantitäten jeweils auf drei Arten erfolgen (vgl. Abb. 7.6): - Bei einer stetigen Differenzierung werden zumeist Symbolgröße oder Linienbreite stetig, d.h. stufenlos, variiert. Diese Variante wird bei Flächensignaturen allenfalls zur Umsetzung von Anteilswerten angewandt, wenn z.B. der Anteil der Waldfläche in einer Gemeinde, durch einen entsprechenden Grauwert umgesetzt werden soll. - Absolute Werte dürfen nicht durch eine flächige Darstellung (wie z.B. auch durch Farbe) umgesetzt werden. So ist die Darstellung der absoluten Bevölkerungsverteilung z.B. für Gemeinden eines Untersuchungsgebietes durch Flächenschraffuren kartographisch falsch. Eine Flächensignatur drückt über den Flächenbezug, d.h. über die flächige Wahrnehmung, entweder eine reine Verbreitung (z.B. räumliche Verteilung von Biotoptypen) oder eine Dichte (z.B. Bevölkerungsdichte) aus. Eine nach Grautönen abgestufte Flächensignatur impliziert Intensität (und nicht Größe). Nur Relativdaten dürfen durch Flächensignaturen dargestellt werden. Zur Umsetzung von Absolutwerten müssen Mengensymbole oder Diagrammarten eingesetzt werden. - Eine gestufte Differenzierung setzt eine Klassenbildung des darzustellenden Merkmals voraus. Dazu muss bei einem stetigen Merkmal eine sinnvolle Klasseneinteilung gefunden werden (vgl. Kap. 7.3.3).
punkthafte Signaturen
linienhafte Signaturen
flächenhafte Signaturen
stetige Größenveränderung gestufte Größenveränderung Größenänderung durch Werteinheiten Abb. 7.6: Angabe von Quantitäten
- Werteinheitsignaturen ermöglichen das genaue und rasche Erkennen von Absolutwerten. So wäre die Zahl 130 durch 13 Einzelsymbole zu visualisieren, die jeweils den Wert 10 angeben. Die Zahl 132 kann aber besser durch ein großes
260
Visualisierung raumbezogener Informationen
Punktsymbol (für 100), drei mittlere Punktsymbole (für jeweils 10) und zwei kleinere Punkte dargestellt werden. Diese sog. Kleingeldmethode eignet sich gerade für die platzsparende, genaue graphische Wiedergabe von Quantitäten. Zuweilen finden sich in schlechten Karten solche Werteinheitsignaturen, die aus sprechenden Symbolen bestehen (z.B. ein Tiersymbol) und bei denen ein Symbol zur Wiedergabe eines Wertes halbiert ist. Derartige Darstellungen sind bei sprechenden Symbolen unzulässig, lediglich bei abstrakten, geometrischen Signaturen möglich, aber z.B. durch die Kleingeldmethode zu ersetzen. Bei der Wiedergabe von Quantitäten durch Signaturen ist ferner zu beachten, dass Punktsignaturen wie z.B. Kreissymbole flächig wahrgenommen werden. Sollen zwei Werte dargestellt werden, von denen der eine doppelt so groß wie der andere Wert ist, so muss die Symbolfläche doppelt so groß gezeichnet werden. Dies bedeutet, dass der Radius nicht mit dem Faktor 2, sondern mit dem Faktor 2 multipliziert werden muss (F1 = S r2, F2 = 2 F1 = S (2 r)2 ). Das Nichtbeachten dieses Prinzips führt dazu, dass größere Objekte überproportional betont werden. Selbstverständlich müssen die durch die Signaturen symbolisierten Werte in einer Legende erläutert werden. Regeln für graphische Mindestgrößen der Signaturen sind schwierig aufzustellen. Das menschliche Sehvermögen zeigt absolute Grenzen auf, die nicht unterschritten werden dürfen. Da aber das Sehvermögen individuell recht verschieden sein kann, können nur grobe, allgemeingültige Richtlinien gegeben werden. Darüber hinaus begrenzen vor allem die technischen Möglichkeiten der Ausgabegeräte die kleinste Schriftgröße oder den feinsten Punktraster. Tabelle 7.1: Mindestgrößen von Signaturen (vgl. Hake, Grünreich u. Meng 2002 S. 110). 0,05 mm 0,08 mm 0,15 - 0,25 mm 0,30 - 0,20 mm 0,3 mm 0,4 mm 0,15 - 0,20 mm 0,20 - 0,25 0,25 mm 0,45 mm 0,5 - 0,6 mm 0,7 - 1,0 mm 0,6 mm 1,0 mm
Breite einer schwarzen Linie auf weißem Grund = Maximalkontrast Breite einer farbigen Linie auf farbigem Grund = Minimalkontrast Linienzwischenraum (bei dicken bzw. bei feinen Linien) bei Maximalkontrast Linienzwischenraum (bei dicken bzw. bei feinen Linien) bei Minimalkontrast Breite von Flächen bzw. Flächenvorsprüngen bei Maximalkontrast Breite von Flächen bzw. Flächenvorsprüngen bei Minimalkontrast Flächenzwischenraum (große bzw. kleine Fläche) bei Maximalkontrast Flächenzwischenraum (große bzw. kleine Fläche) bei Minimalkontrast Punktdurchmesser bei Maximalkontrast Punktdurchmesser bei Minimalkontrast Größe eines Kreises /Quadrates (voll bzw. hohl) bei Maximalkontrast Größe eines Kreises /Quadrates (voll bzw. hohl), bei Minimalkontrast Höhe von Buchstaben und Ziffern bei Maximalkontrast Höhe von Buchstaben und Ziffern bei Minimalkontrast
Bei diesen Mindestwerten ist eine Graphik gerade noch von einem Betrachter zu lesen und auszuwerten, der sich allein und von Nahem auf die Darstellungen konzentrieren kann (vgl. Tab. 7.1). Diese Werte sind zudem als Anhaltspunkte zu sehen. So wird die Lesbarkeit neben der Größe von weiteren Faktoren wie Helligkeit oder Kontrast und Form gekennzeichnet. Eine verschnörkelte Schrifttype
Graphische Gestaltungsmittel
261
kann schon auf einer Verkleinerungsstufe verlaufen, auf der eine serifenlose, schlanke Schrifttype noch lesbar ist. Gegenüber einer filigranen Atlaskarte in einer wissenschaftlichen Landeskunde muss aber eine Graphik plakativer sein, die z.B. als Poster während einer Bürgeranhörung erläutert werden soll. 7.3.2
Allgemeine Gestaltungsmerkmale
Eine Karte muss eine Legende aufweisen, die sämtliche verwendeten Signaturen und Symbole erläutert, sowie Größenrelationen anführt und ggf. den Aufbau von Diagrammen erklärt. Zur Legende gehören auch Angaben zum Verfasser und somit zum Verantwortlichen für den Karteninhalt sowie zum Kartographen oder Ersteller der Graphik. Insbesondere sind Quellenverweise der benutzten Kartengrundlage und der verwandten Daten anzuführen (vor allem zum Bezugszeitpunkt der Daten). Derartige Angaben fehlen häufig in computergestützt hergestellten Karten oder Graphiken. Im günstigen Fall verstecken sich derartige Informationen in einem Geoinformationssystem oder Graphiksystem hinter einer Menüoption wie “Map Properties”. Auf die Angabe eines Nordpfeils kann verzichtet werden, falls die Karte nach Norden ausgerichtet ist. Dieser Regelfall sollte immer angestrebt werden, so dass die zuweilen in Geoinformationssystemen angebotene Palette von (verspielten und verschnörkelten) Nordpfeilen fast überflüssig ist. Unverzichtbar ist die Angabe eines Maßstabs, wobei weniger das Nennen des Reduktionsmaßstabs in Form eines mathematischen Bruches (z.B. 1:12.375) sinnvoll ist. Demgegenüber ist eine Maßstabsleiste, die beispielhaft eine Länge wiedergibt, wesentlich anschaulicher. Zudem wird bei Vergrößerungen und Verkleinerungen wie z.B. bei Ausschnittsvergrößerungen in einem graphischen Informationssystem die Maßstabsleiste automatisch mit verändert. Zumeist werden in einem Geoinformationssystem durch Verwendung von Koordinatenangaben Größenangaben wie Verkleinerungsfaktoren selbständig errechnet und am Monitor angezeigt. 1)
2)
Titel
Titel
3)
Titel
Legende Legende Autor Legende
4)
Legende Autor
Autor/Bearbeiter
5)
Titel
Titel
Autor
6)
Titel Autor
Legende Legende Autor/Bearbeiter
Abb. 7.7: Äußere Gestaltung einer Karte
Legende
Legende
Legende
262
Visualisierung raumbezogener Informationen
Die Abbildung 7.7 zeigt Beispiele der äußeren Gestaltung einer Karte, d.h. der Blattaufteilung und der Anordnung von Titel und Legende. Grundsätzlich gilt, dass ein möglichst ruhiges, klar gegliedertes Erscheinungsbild zu erreichen ist. Dabei sollte der Blick des Betrachters relativ wenig zwischen den einzelnen Erläuterungen und dem Karteninhalt hin- und herspringen. Eine einzige Legende sollte die Erläuterungen strukturieren. Vor dem Hintergrund dieser Regeln stellen die Karten 1 und 2 optimale Beispiele für Blattaufteilungen dar. Die Variante 3, d.h. die Aufteilung einer Legende, ist nur bei einer sachlichen Trennung der Legende sinnvoll. Das vierte Beispiel zeigt eine empfehlenswerte Gestaltung bei einer Inselkarte, bei der die Randbereiche bestmöglich auszunutzen sind. Die weiteren Beispiele stellen unausgewogene und nicht sinnvolle Aufteilungen dar. Grundsätzlich sind graphische Gestaltungsmittel sparsam einzusetzen. Eine vielfältige Mischung sprechender und abstrakter Symbole in bunten Farben, verspielte Liniensignaturen oder Flächenmuster führen nicht zur besseren Lesbarkeit. Vielmehr sind durch geschickte Kombination weniger graphischer Variablen (z.B. nur Veränderung der Form von Punktsymbolen zur Lagekennzeichnung von Objekten bei Beibehalten von Größe, Farbe oder Füllung der Symbole) ein klares Einscheinungsbild zu erreichen, dass entscheidend zur schnellen Strukturierung der Inhalte beitragen kann. Insbesondere muss die inhaltliche Hierarchie der darzustellenden Objekte in eine adäquate graphische Hierarchie der graphischen Zeichen transformiert werden (z.B. Erhalt von Größenunterschieden durch entsprechend große und gestufte Punktsymbole). Stets müssen der Adressatenkreis und der Verwendungszweck von graphischen Präsentationen beachtet werden, die sehr wesentlich über die Gestaltung der Graphik (u.a. Größe und Art der Signaturen) sowie die Inhaltsdichte mitentscheiden (vgl. Einflussfaktoren der graphischen Kommunikation). Leider neigen insbesondere Anwender von Geoinformationssystemen dazu, die vielfältigen graphischen Präsentationsmöglichkeiten unter Beweis stellen zu wollen, wodurch zuweilen bunte und verwirrende Graphiken entstehen, die den eigentlichen Zweck der Darstellung und die Grundaussage nicht mehr erkennen lassen. Die genannten Prinzipien müssen auch weiterhin beim Einsatz der neuen Informations- und Kommunikationsformen gelten. 7.3.3
Klasseneinteilungen
Vor einer graphischen Präsentation muss sehr häufig ein Merkmal klassifiziert und dadurch diskretisiert werden. Erst nach einer Klassifizierung, die eine endliche Zahl von Signaturen impliziert, kann eine einzelne Signatur einer Klasse zugeordnet werden. Während ein qualitatives Merkmal (z.B. Bodentypen) klar definierte Kategorien besitzt, müssen zur Klasseneinteilung eines stetigen Merkmals mehrere Festlegungen getroffen werden: Klassenzahl, Klassenbreite und Anfang einer, d.h. zumeist der untersten Klasse. Die statistische und kartographische Methodenlehre liefert hierfür erste Anhaltspunkte (vgl. Schönwiese 1992 S. 13ff., Kesslerde Vivie 1993 u. Güßefeldt 1996 S. 153ff.):
Graphische Gestaltungsmittel Maximale Klassenzahl k =
263 (n = Anzahl der Objekte, Formel nach Witt)
n
Maximale Klassenzahl k = 5 * log n
(n = Anzahl der Objekte, Regel nach Davis)
Klassenzahl
k = 1 + 3,32 * log n
(n = Anzahl der Objekte, Regel von Sturges)
Klassenbreite
b = (xmin - xmax) / (k-1)
Klassengrenzen
g1 = xmin - b/2
(erste Klassenuntergrenze)
gi = gi-1 + b für i = 2, ..., k+1
(Klassenobergrenzen)
Dies ist jedoch keineswegs die einzige Möglichkeit, bei vorgegebener Klassenzahl eine Einteilung in äquidistante Klassenintervalle vorzunehmen (vgl. Tab. 7.2): Klassenbreite
b = (xmin - xmax) / k
Klassengrenzen
g1 = xmin
(erste Klassenuntergrenze)
gi = gi-1 + b für i = 2, ..., k+1
(Klassenobergrenzen)
Neben einer Stufung mit gleichen Klassenbreiten, die die häufigste Klassifizierungsform ausmachen, findet man noch Stufungen, bei denen sich die Klassenbreiten fortschreitend vergrößern. Bei der arithmetischen Progression nimmt die Klassenbreite um einen konstanten Wert zu (vgl. Tab. 7.2 Spalte 3, Klassenbreite wird jeweils um 7,5 größer). Klassenbreiten
bi = bi-1 + q, q = konst. Faktor
(Klassenobergrenzen)
Bei der geometrischen Progression ist der Quotient zweier aufeinander folgender Klassengrenzen konstant (vgl. Tab. 7.2 Spalte 4, Quotient zweier aufeinanderfolgender Klassengrenzen ist 2,5, nur falls xmin > 0): Klassengrenzen
gi = gi-1 * q, q = konstanter Faktor
(Klassenobergrenzen)
Zumeist wird in Geoinformationssystemen auch eine Klassifizierung nach sog. Quantilen angeboten. Die Klassengrenzen werden so gewählt, dass jeweils gleiche Klassenhäufigkeiten auftreten. Dieses Einteilungsprinzip kann bei sehr streuenden Werten sinnvoll sein, dieser mögliche Vorteil wird jedoch durch unterschiedliche Klassenbreiten und Interpretationsschwierigkeiten erkauft. Tabelle 7.2: Klassengrenzen bei unterschiedlichen Klassifizierungen in fünf Klassen konstante Klassenbreite 25
konstante Klassenbreite 20
arithmetische Progression
geometrische Progression
-12.5 12.5 37.5 62.5 87.5 112.5
0 20 40 60 80 100
0 7,5 22,5 55 85 122,5
1 2,5 6,25 15,625 39,06 97,6
xmin = 0, xmax = 100, bei geometr. Progression xmin > 0
264
Visualisierung raumbezogener Informationen
Eine weitere Methode zielt darauf ab, „natürliche“ Klassen bzw. „natürliche“ Klassengrenzen (sog. natural breaks) zu bestimmen. Sie geht von der Verteilung der Datenwerte aus und versucht, Datenlücken bzw. zusammenhängende Cluster von Daten auszumachen. Bei diesem Verfahren ergeben sich zumeist verschieden breite Klassen, weitere Werte können rasch die Einteilung ändern. Häufig bestehen inhaltliche Bedenken gegen ein schematisches Vorgehen. Eine Klassenbildung kann sich insbesondere aufgrund sachlogischer Aspekte ergeben und sich z.B. an Grenzwerten orientieren. Die Klassifizierung ist weitgehend unabhängig von der Verteilung der Daten. Zuweilen wird man sich aussagekräftige Klassengrenzen oder einfachen Klassenbreiten nehmen (z.B. in Schritten von 10, 100 oder 1000 Werteinheiten). Dies ist vor allem bei einem zeitlichen Vergleich notwendig, wenn zwei Klassifizierungen gegenübergestellt werden sollen. Häufig machen sog. Datenausreißer Probleme. Zur graphischen Darstellung ist es dann sinnvoll, für diese Extremwerte keine eigenen, sondern stattdessen offene Endklassen zu bilden und die Ausreißer z.B. in der Legende aufzuführen. Insbesondere ist eine sinnvolle Klassenzahl nicht nur nach formalen oder inhaltlichen Gesichtspunkten festzulegen, sondern auch im Hinblick auf die Zahl der höchstens wahrnehmbaren Unterschiede einer graphischen Variablen. Bertin hat hierzu Anhaltspunkte erarbeitet (vgl. Abb. 7.4). Die Klassifizierung ist insbesondere als Mittel der inhaltlichen Generalisierung einzusetzen. Eine Klasseneinteilung erfordert somit viele subjektive Entscheidungen. Allein bei gleicher Klassenzahl sind durch Veränderung von Klassenbreite und einer Klassengrenze viele Variationen möglich. Insbesondere können bei gleichen Daten, aber verschiedenen Klassifizierungen recht unterschiedliche Aussagen erzielt werden, so dass sich ein weites Feld für bewusste und unbewusste Manipulationen öffnen kann (vgl. insb. Monmonier 1996 S. 193ff.). 7.3.4
Texte und Beschriftungen
Graphiksysteme bieten inzwischen eine nicht mehr zu übersehende Vielfalt an Schriften, die nach Schriftgröße, Schriftstärke, Schriftbreite (sog. Lauflänge) und Schriftfarbe zu variieren sind. Hierdurch ergeben sich fast unendliche „Spielmöglichkeiten”, die zum weitreichenden Einsatz verschiedener Schriftformen reizen. Jedoch sollten klare Empfehlungen befolgt werden: - Die Schrift sollte möglichst sparsam eingesetzt werden und auf das notwendige Maß beschränkt bleiben. - Die Graphik sollte durch die graphischen Gestaltungsmittel visuell erfasst werden, aber weniger durch Beschriftungen gelesen werden. - Da Text in reinen Großbuchstaben schwerer lesbar ist, sollte auch in Überschriften Groß- und Kleinschreibung verwandt werden. - In einer Karte sind maximal zwei Schriftarten zu verwenden. Exotische Schriftarten sind zu vermeiden. Zu empfehlen sind gerade im Hinblick auf die Schriftgröße klare, einfache, serifenlose Schriften wie z.B. Helvetica oder ähnliche Schriften (vgl. Abb. 7.8). Zumeist ist eine einzige Schriftart völlig ausreichend, die weiter nach Größe und Schriftstärke zu variieren ist.
Einsatz von Farbe
Arial 12p mager Arial 12p halbfett Arial 12p fett
265
Arial 12p kursiv mager Arial 12p kursiv halbfett Arial 12p kursiv fett
Abb. 7.8: Variationsmöglichkeit eines Schriftstils
- Schrift sollte entweder parallel zur Basislinie bzw. zum unteren Rand oder parallel zur zugehörigen Linie (z.B. entlang einer Gewässerlinie) eingefügt werden. Die automatische Schriftplatzierung sowie das Freistellen von Schrift und Punkt- bzw. Liniensignaturen gegeneinander und gegenüber dem Hintergrund ist (noch) ein Problem in den derzeit bestehenden Geoinformationssystemen oder Graphiksystemen, das noch nicht zufrieden stellend gelöst ist. Die Beschriftungen überdecken sich in der Regel. Manuelles Nacharbeiten und Verschiebungen werden notwendig. 7.3.5
Diagrammdarstellungen
Diagramme eignen sich gut zur graphischen Umsetzung von umfangreichen Datenmengen. Die traditionelle Kartographie hat ein breites Spektrum von Diagrammformen zum Teil für sehr spezielle Aussagezwecke entwickelt (vgl. z.B. Bevölkerungspyramiden, Polardiagramme zur Darstellung von Windrichtungen, vgl. Arnberger 1993 S. 109). Hier zeigt sich die Stärke der traditionellen Kartographie, vielfältige und differenzierte Datenbestände anschaulich zu präsentieren (zu Diagrammformen wie z.B. Strukturdreiecken oder Konzentrationskurven und deren Einsatzmöglichkeiten sowie überhaupt zum Einsatz von Graphik- und Statistiksystemen in der Regionalanalyse vgl. Güßefeld 1996). Derartige Diagrammformen sind standardmäßig kaum in Geoinformationssystemen, aber ansatzweise in Graphiksystemen integriert. Zumeist sind nur einfache Balkendiagramme (Histogramme) oder Kreissektorendiagramme realisiert.
7.4 7.4.1
Einsatz von Farbe Farbe als einfaches und kritisches Ausdrucksmittel
In der graphischen Informationsverarbeitung spielt Farbe eine bedeutende Rolle (zur technischen Realisierung vgl. Kap. 2.7 u. 4.8). Die Hardware bietet inzwischen vielfältige, auch wirtschaftliche Darstellungsmöglichkeiten von Farben, so sind z.B. fast nur noch Farbmonitore im Einsatz. Ein Farbdrucker gehört fast schon zur Standardausrüstung. Die Softwaresysteme zur digitalen Bildverarbei-
266
Visualisierung raumbezogener Informationen
tung wie auch Geoinformationssysteme benötigen Farben als unverzichtbare Ausdrucksmittel, aber selbst bei reinen alphanumerischen Anwendungen wie z.B. in Datenbankmanagementsystemen oder auch in Textverarbeitungssystemen werden Farben herangezogen. Farbton (engl. hue), Helligkeit (engl. lightness) und Sättigung (engl. saturation) sind die drei Dimensionen, nach denen Farbe wahrgenommen wird (zu den Farbmodellen vgl. Kap. 2.7.2). Zwar wird häufig Farbe vereinfacht mit Farbton gleichgesetzt (beschrieben durch die Farbnamen wie Rot, Gelb oder Grün). Die Wirkung von Farbe, die jetzt im Mittelpunkt steht, wird jedoch durch die Kombination sämtlicher drei Wahrnehmungsdimensionen beschrieben. Die Vorteile der Farbe und die sich daraus ergebende Beliebtheit des Farbeinsatzes sind vor allem auf zwei Faktoren zurückzuführen: - Farbe ist selbst Träger einer Information. - Farbe vereinfacht und beschleunigt die Übertragung von Informationen. Hinzu kommt, dass von einer Farbkarte eine besondere ästhetische Wirkung ausgehen kann. Eine Farbkarte ist im Allgemeinen ansprechender als eine Schwarz-Weiß-Karte. Für kartographische Belange ist ferner kennzeichnend, dass Farbe eine besonders gute selektive Variable ist (vgl. Kap. 7.2.2). Sie besitzt eine deutliche Reizwirkung und übt eine starke psychologische Anziehungskraft aus. Die Aufmerksamkeit wird geweckt. Karte und Farben prägen sich sehr gut ein. Das Erinnerungsvermögen wird gesteigert. Trotz vieler Vorteile des Farbeinsatzes darf nicht übersehen werden, dass die Farbgestaltung nicht trivial ist und viele Fehlerquellen beinhalten kann. Die Farbgestaltung darf keineswegs unüberlegt oder zufällig erfolgen. So ist es mit einem Geoinformationssystem inzwischen recht leicht geworden, Farben einzusetzen. Häufig wird standardmäßig irgendeine zufallsgesteuerte Farbauswahl vorgegeben, um z.B. unterschiedliche Linien und Flächen zu kennzeichnen. Wasserflächen erscheinen dann z.B. in der Farbe Grün, Freiflächen in der Farbe Blau, eine hohe Bevölkerungsdichte wird durch die Farbe Rot, eine niedrige Bevölkerungsdichte durch die Farbe Blau wiedergegeben. Die Geoobjekte sind zwar eindeutig zu erkennen. Die Darstellung ist aber nur „bunt”, die assoziative Wirkung von Farben wurde nicht ausgenutzt, der Einsatz von Farben zur Wiedergabe von Rangfolgen ist strenggenommen kartographisch falsch (vgl. Kap. 7.4.3). Auch von den Softwareentwicklern wird häufig die Farbe unreflektiert als eine durch die Technik mitgegebene Möglichkeit benutzt, um ein Programm ansprechender zu gestalten oder Bedienelemente übersichtlicher zu strukturieren. Leider werden diese Ziele nicht immer erreicht. Auch beim Farbeinsatz in Software sollten die gleichen Prinzipien wie in der Kartographie gelten. Neben den vielen Vorteilen beim Farbeinsatz darf nicht vergessen werden, dass bei manchen Menschen Anomalien bei der Farbwahrnehmung (Daltonismus) vorliegen. Zumeist sucht der Farbenfehlsichtige nach Ersatzzeichen oder Regelhaftigkeiten der Farbanordnung (vgl. z.B. Anordnung der Farben an einer Ampel). Graphische Darstellungen in Farbe sollten diesen Personen Hilfen anbieten, den Karteninhalt zu erfassen, und z.B. nicht ausschließlich Farben verwenden, sondern Farbe in Kombination mit Rastern oder Mustern einsetzen.
Einsatz von Farbe
7.4.2
267
Farbassoziationen
Die Beliebtheit der Farben erklärt sich neben der besonderen ästhetischen Erscheinung vor allem aufgrund der assoziativen Wirkung. Über die Bedeutung, d.h. Assoziation, einzelner Farben wird auf einzelne Sachverhalte geschlossen. Das „richtige” Erkennen erfolgt zumeist intuitiv. Der assoziativen Wirkung liegen dabei zumeist allgemeine Farbempfindungen und Wahrnehmungen zugrunde. Allerdings sind Farbkonventionen durchaus nicht eindeutig. So bestehen zum Teil divergierende Assoziationen und Interpretationen von Farben in verschiedenen Kulturkreisen (vgl. Schoppmeyer 1993 S. 33). Hinsichtlich der assoziativen Wirkung wird häufig der naturnahen Farbenwahl eine große Bedeutung zugemessen, die die Erfahrungen und Anschauungen von realen Objekten umsetzt. Das Wiedererkennen kann das Lesen und Verstehen der Karte vereinfachen (z.B. Blau für Gewässer, Karminrot für Siedlungen in Anlehnung an rote Ziegeldächer, Gelbgrün für Wiesen und Grünland, Blaugrün für Wald, Grau für Schutt oder weitere aus der Naturanschauung abgeleitete Bodenbedeckungsfarben). Dabei wird aber vorausgesetzt, dass beim Betrachter gleiche Farbassoziationen vorliegen und ähnliche Erfahrungswerte bestehen. Fehleinschätzungen sind daher nicht auszuschließen. Ein treffendes Beispiel für vermeintliche Farbkonventionen und intuitive Wirkungen von Farben stellen Höhenschichtenkarten dar, bei denen zumeist ein dunkles Grün für Tiefland und Brauntöne für Mittelgebirge bis Hochgebirge verwandt werden. Diese Farbabstufung ist aber nicht allgemeingültig und standardisiert. So werden zuweilen Höhenschichtenkarten nicht als solche erkannt, bei denen die Höhenabstufungen durch eine mehrstufige Farbskala von einem kräftigen Grün für Tiefland, helleren Grüntönen für geringe Höhen bis zu Gelb oder Weiß für die höchsten Erhebungen veranschaulicht werden. Durch diese fehlende Vereinheitlichung wird eine Übertragung von Erfahrungswerten erschwert. Problematischer ist hingegen, dass der Betrachter häufig Weiß mit Schnee, Gelb oder Braun mit Wüsten oder Grün mit reicher Vegetation assoziiert. Vor dem Hintergrund, dass sich Wüsten auch in Flachländern (in einer Höhenschichtenkarte zumeist durch einen Grünton dargestellt) erstrecken oder Weideland in Hochgebieten auftritt, würde von der Farbe irrtümlich auf die Landnutzung geschlossen werden. Die Bedeutung der Ampelfarben Rot-Gelb-Grün hat sich eingeprägt: Rot verdeutlicht Gefahr, Gelb wird mit Achtung und Grün mit Gefahrlosigkeit verbunden. Üblich ist die Unterscheidung von warmen und kalten Farben, um z.B. Wärme oder Kälte oder um z.B. Abstoßung auszudrücken. Insgesamt sollte somit eine Farbwahl nicht unüberlegt oder z.B. zufallsgesteuert durch den Computer erfolgen. Ferner ist die assoziative Wahrnehmung einer Farbe stark vom Kontext abhängig. 7.4.3
Farbabstufungen
Quantitäten und Ordnungen lassen sich streng genommen nicht durch Farben verdeutlichen! Gelb drückt nicht “weniger" aus als die Farbe Rot. Eine Umsetzung
268
Visualisierung raumbezogener Informationen
einer Klasseneinteilung von Bevölkerungsdichten durch Farben ist nicht möglich oder sinnvoll. Stattdessen wird dann zumeist die Helligkeit variiert (einpolige Skala von Hell nach Dunkel) oder auch ein Farbtonübergang gewählt (z.B. von Grün- zu Blautönen). Von Brewer (1994) wurden an einzelnen Farbbeispielen Vorschläge von Farbabstufungen in Abhängigkeit der Skalenniveaus (qualitative, binäre oder sequentielle Stufung eines Merkmals) oder der Zahl der Merkmale erarbeitet. Allerdings gibt es keine einfache, einprägsame oder leicht zu benutzende Stufung von Farbtönen. Stets ist die Legende zum Farbabgleich heranzuziehen. Allerdings können wenige einfache Regeln genannt werden, die bei der Umsetzung von Quantitäten oder Ordnungen zu beachten sind: - Eine Stufung nach den Spektralfarben, deren Helligkeit gerade nicht sequentiell steigt, ist generell nicht geeignet. - Gute Resultate verspricht im Allgemeinen eine Helligkeitsstufung eines einzelnen Farbtons. - Für einzelne Fragestellungen ist eine Helligkeitsabstufung mit einem Farbtonübergang durchaus sinnvoll zu kombinieren (z.B. von tiefen Temperaturen in der Farbe Blau zu heißen Temperaturen in der Farbe Rot bzw. bei bipolaren Variablen wie z.B. bei Bevölkerungsentwicklungen mit Zu- und Abnahmen).
7.5 7.5.1
Desktop Mapping Entstehung von Desktop Mapping aus Desktop Publishing
Die Herstellung und Bearbeitung von Karten mit entsprechenden kartographiegeeigneten (Zeichen-)Programmen kann als eine spezielle, koordinatengebundene Anwendung des Desktop Publishing mit räumlichem Bezug aufgefasst und als Desktop Mapping (DTM) bezeichnet werden. Dieser Begriff wurde in der deutschsprachigen Literatur erstmals von Herzog (1988) und auch (später) vom Macintosh Hersteller Apple verwandt, wonach Desktop Mapping die Datenpräsentation in Form raumbezogener Kartengraphiken als parallele Produktlinie zum Desktop Publishing bedeutet (vgl. Herrmann u.a. 1991). Unter dem Begriff Desktop Publishing (DTP) ist allgemein die computergestützte integrierte Bearbeitung von Texten, Graphiken und Bildelementen am Schreibtisch geläufig und weit verbreitet (vgl. Herrmann u.a. 1991 S. 170). Insbesondere wird unter dem Begriff Desktop Publishing das Verfahren zur Erstellung von Druckvorlagen mit in den Text integrierter Graphik an Mikrocomputern verstanden. Die Druckausgabe kann direkt über einen Bürodrucker erfolgen. Die digitale Vorlage kann aber vor allem an eine Druckerei weitergegeben werden, die Druckfilme erstellt und den Auflagendruck vornimmt. Das Desktop Mapping ist zusammenfassend als einfache Visualisierung im Sinne von Präsentation und Weitergabe fertiger, unveränderbarer, graphischer Darstellungen zu verstehen, wobei gerade dies eine sehr häufige Aufgabe in der Praxis ist. Überblicke über entsprechende Programmsysteme geben Brunner
Desktop Mapping
269
(1995), Dickmann u. Zehner (1999) sowie Olbrich, Quick und Schweikart (2002), letztere mit einer Einführung in die thematische Kartographie. Eine Übersicht kann allerdings nie aktuell sein, da fast jährlich neue Programmversionen mit neuen Leistungsmerkmalen erscheinen. 7.5.2
Anforderungen an Systeme zum Desktop Mapping
Systeme zum Desktop Mapping sollten möglichst vielfältige Funktionen besitzen, die zu kartographischen Anwendungen notwendig und hilfreich sind: - Möglichkeiten zur interaktiven Erfassung von Geoobjekten (z.B. Koordinatenerfassung mit einem Digitalisiertablett, On-Screen-Digitalisierung, Funktionen zum Georeferenzieren) - blattschnittfreie Definition von Kartenausschnitten einschließlich der Möglichkeiten zum Zusammenführen benachbarter Kartenblätter (u.a. Randausgleich, Randanpassung, Auflösen der Blattgrenze) - freie Bestimmung von Kartenprojektion und Maßstab sowie Überführen von Karten(-ausschnitten) beliebiger Projektion in die zu erstellende Karte - interaktive Editiermöglichkeiten am Bildschirm (Löschen, Ergänzen, Kopieren, Verschieben, Drehen oder Zusammenführen von graphischen Objekten wie Linien, Symbole, Texte oder Flächensignaturen) - Editierhilfen zum Ausrichten von Text, von Beschriftungen oder von Symbolen - automatische Generierung von Flächen aus den Linienstücken ihrer Umgrenzung zur späteren Zuordnung von Flächensignaturen - umfangreiche Linien-, Symbol-, Schriftstil-, Raster- und Schraffurbibliotheken sowie die Möglichkeit, eigene Linien-, Symbol-, Schriftstil-, Raster- und Schraffurbibliotheken selbst zu erstellen - umfassende Möglichkeiten der Schriftgestaltung (z.B. auch Freistellung, Umhüllung, Schriftplatzierung entlang von Linienbögen) - automatische oder interaktive Generierung der Legende - Freistellung von graphischen Elementen wie z.B. von beliebigen Symbolen und Diagrammen (z.B. Kreissektorendiagramme) innerhalb einer Flächensignatur (graphische Verschneidung) - graphische Modellierung mit Hilfe der Layertechnik (beliebige Anzahl von Kartenschichten = thematische Schichten) und Festlegen der Reihenfolge der Layer sowie deren Sichtbarkeit oder Transparenz - Hinterlegen einer Vektorgraphik mit einer Rastergraphik - Unterstützung der kartographischen Bearbeitung durch statistische Verfahren (z.B. Klassenberechnung für Attributdaten als Voraussetzung einer Schraffurabstufung, Berechnung von Indikatoren) - Erstellen von Diagrammen oder von Figuren in Karten - Erstellen von Isolinienkarten, von Wertoberflächenkarten oder sonstigen Spezialkarten - Erstellen von Farbauszügen (u.a. Vierfarbseparation) - Schnittstellen zu DTP-Werkzeugen.
270
Visualisierung raumbezogener Informationen
Systeme zum Desktop Mapping sollten sich vor allem dadurch auszeichnen, dass sie über vielfältige Möglichkeiten der graphischen Gestaltung verfügen und differenzierte Signaturen für Punkte, Linien und Flächen anbieten: Symbolbibliotheken mit geometrischen und sprechenden Symbolen oder auch mit normierten Symbolen z.B. aus der Planzeichenverordnung, Bibliotheken von Linientypen, die über eine Differenzierung nach der Breite weit hinausgehen (vgl. z.B. Eisenbahnsignaturen) sowie Bibliotheken von Flächenschraffuren oder Flächenfüllmustern, die einfache linienhafte Schraffuren, nach dem Grauwert abzustufende Punktmuster oder auch sog. sprechende Muster wie z.B. Waldsignaturen umfassen. Ferner sollten Systeme zum Desktop Mapping über (weitentwickelte) Möglichkeiten der Schriftgestaltung und der Bearbeitung von Texten verfügen.
7.6
Kartographie im multimedialen Umfeld
7.6.1
Paradigmenwechsel der Kartographie
Derzeit macht die traditionsreiche Kartographie einen mehrfachen tiefgreifenden Wandel durch. Zum einen ergeben sich durch Möglichkeiten der graphischen Informationsverarbeitung erhebliche Veränderungen im Entwurfs- und Herstellungsprozess graphischer Ausdrucksformen. Zum anderen wird inzwischen zur Darstellung raumbezogener Informationen nicht mehr nur die analoge Karte benutzt. Neue graphikorientierte Informationstechnologien und Kommunikationsformen bieten gegenüber einer Karte weitergehende Möglichkeiten zur Darstellung raumbezogener Informationen und Lösung kartographischer Aufgaben.
Karte
Daten
CLP
0100110
Graph
Ton CLP EL OS
EL
CLP OS
Karte EL
Bild Daten 0100110
Karte
Text
Ton
OS
Abb. 7.9: Verdeutlichung des Hypermap-Konzepts
Im Hinblick auf die neuen Informationstechnologien sind multimediale Karten, manchmal etwas abwertend als „clickable maps” bezeichnet, von zentraler Bedeu-
Kartographie im multimedialen Umfeld
271
tung, bei denen über sog. Hyperlinks Graphiken, Bilder, Photos, Luftbilder, Texte oder Ton aufzurufen sind. Grundlegend ist hierfür das sog. Hypermap-Konzept, das analog zu dem Hypermedia-Konzept aufgebaut ist (vgl. Laurine u. Thompson 1992, Grünreich 1996). Ausgehend von einer digitalen Übersichtskarte am Monitor, die von einer CD oder aus dem Internet abgerufen wird, erschließen sich nacheinander vielfältige Informationen, die nach inhaltlichen Zusammenhängen durch Verweise miteinander verbunden sind. Der Benutzer steuert selbständig in Abhängigkeit seiner Fragestellung und seines Vorwissens durch das Informationsangebot (zur kontextabhängigen Navigation und zum sog. Browsing vgl. Kap. 4.10.4). Zumeist können Grobinformationen durch Detailinformationen unter Einbeziehung weiterer Medien ergänzt werden, wobei auch Querverweise möglich sind. Die Informationen werden durch verschiedene Präsentationsformen (z.B. Graphiken, Tabellen und Texte, Photographien und Bilder, Ton und Videoaufzeichnungen) dargeboten. Durch diese multimedialen Techniken werden viele Beschränkungen der klassischen kartographischen Darstellungen beseitigt. Diese sind vor allem (vgl. Grünreich 1996 S. 22): - Analoge Karten erlauben nur die zweidimensionale Abbildung eines begrenzten Ausschnitts der dreidimensionalen Umwelt. - Analoge Karten können die einmal gewählte Darstellungsform der Geoobjekte nicht verändern, so dass die für eine optimalere Erfassung der Informationen oftmals hilfreiche Nutzung mehrerer Varianten nicht möglich ist. - Analoge Karten ermöglichen keine kontinuierliche, sondern nur die diskrete Darstellung räumlicher Prozesse zu verschiedenen Zeitschnitten. - Analoge Karten bieten eine für viele Nutzer zu abstrakte Gestaltung, die zumeist nicht intuitiv anschaulich ist. - Analoge Karten zielen nur auf die visuelle Erfassung von Informationen ab, wobei gerade die gleichzeitige Nutzung mehrerer Medien, z.B. audio-visuelle Formen, der Informationsaufnahme hilfreicher ist. - Analoge Karten können nur relativ langsam erstellt und aktualisiert werden. - Analoge Karten sind bei vielschichtigen Fragestellungen, die viele Karten oder auch weitere Informationsquellen erfordern, relativ umständlich zu handhaben. Die neuen Informations- und Darstellungstechnologien erfordern zwangsläufig eine neue Standortbestimmung der Kartographie, die inzwischen von der Internationalen Kartographischen Vereinigung durch Neubestimmung u.a. des Begriffs Karte vollzogen wurde (vgl. ICA 1996 u. zusammenfassend Grünreich 1997). „Eine Karte ist eine symbolisierte Abbildung von Objekten oder charakteristischen Sachverhalten der raumbezogenen Realität. Sie ist das Resultat kreativer Anstrengungen des Autors, der mehrere Gestaltungsvarianten anfertigt und darunter die geeignetste auswählt. Karten werden für solche Anwendungen gestaltet, bei denen räumliche Beziehungen besonders wichtig sind.” (ICA 1996, vgl. auch Grünreich 1997 S. 11). Die jüngste Begriffsbestimmung von Karte bezieht sich nun (ausdrücklich) nicht mehr auf technische Umsetzungsformen, sie ist somit allgemeingültiger und betont stattdessen die kreative Tätigkeit der Autoren bei der Herstellung von kartographischen Ausdrucksformen.
272
Visualisierung raumbezogener Informationen
Neben der Einbeziehung neuer Medien ist für die neuen Formen der raumbezogenen Präsentation kennzeichnend, dass das Informationsangebot, die Präsentation oder die Graphik, nicht statisch oder fest vorgegeben sein müssen. In einem individuellen Dialog zwischen Anwender und einem Informationssystem werden verschiedene Formen von raumbezogenen Informationen abgefragt, präsentiert und ausgewertet. Erst der Benutzer, im Idealfall unterstützt durch ein kartographisches Assistenzsystem, legt die kartographische Gestaltung fest. Dieser Nutzer ist Datenabfrager (d.h. Datenexplorer) und Kartenautor zugleich! Die Neuorientierungen stehen stark unter den Einflüssen der wissenschaftlichen Visualisierung (vgl. Kap. 7.1.2), für die die Kartographie eine Schlüsselfunktion besitzt, die aber insbesondere für die Kartographie neue Horizonte und Aufgabenfelder eröffnet. So hat Taylor (1991, zitiert nach MacEachran 1994) eine Konzeption der modernen Kartographie mit einem Dreieck dargestellt, in dessen Mittelpunkt die Visualisierung steht, und dessen Dreiecksseiten die drei wesentlichen Bestandteile der computergestützten Visualisierung verdeutlichen. Demgegenüber beschreibt MacEachren (1994) Visualisierung durch einen Würfel oder einen dreidimensionalen Raum, der durch drei Dimensionen der Kartennutzung definiert wird (und nicht der Kartenerstellung oder Einsatz im Forschungsprozess): - Nutzen und Nutzung der Karten: öffentlich – privat - Darstellungsziel: Bekanntes präsentieren – Unbekanntes enthüllen - Intensität der Interaktionen Mensch und Karte: hoch – niedrig.
cognition and analysis
visualization
communication visual and non visual
interaction and dynamics
formalization new computer techniques new multimedia techniques
presenting knowns revealing unknowns
Abb. 7.10: Konzeptionelle Grundlage der Kartographie nach Taylor und MacEachren
Zurzeit ist die Standortbestimmung der Kartographie noch nicht abgeschlossen. Geoinformationssysteme, computergestützte wissenschaftliche Visualisierung (ViSC, Visualization in Scientific Computing) und Kartographie sind komplementäre Disziplinen mit einem gemeinsamen Kern, der bildhaften Wiedergabe von Informationen. Die hier gewählte Bezeichnung „Visualisierung raumbezogener Informationen” zielt zum einen auf die „Visualisierung” im herkömmlichen Sinne einer explanativen graphischen Umsetzung von Informationen ab und schließt hierdurch vor allem die (klassische) Kartographie, aber auch Präsentationen von Standard-Geoinformationssystemen ein, die auf die Erstellung von Karten auf analogen Zeichenträgern ausgerichtet sind. Zum anderen steht der Begriff „Visua-
Kartographie im multimedialen Umfeld
273
lisierung” für die modernen Konzepte computergestützter wissenschaftlicher Visualisierung und schließt jetzt insbesondere die visuelle Datenexploration mit Hilfe von Geoinformationssystemen ein. 7.6.2
Datenexploration in der Kartographie
Erkennen räumlicher Bezüge, Muster und Strukturen sind keine Erfindungen der modernen Informations- und Kommunikationstechnologien. Sie sind bereits seit Jahrhunderten mit Hilfe analoger Karten möglich. Diese sich stetig weiterentwickelnden Verfahren öffnen neue Perspektiven. Allein der einfachste Fall einer digitalen Kopie einer analogen Karte, die über einen Datenträger oder durch Abruf aus dem Internet zur Verfügung gestellt wird, bietet schon erste Visualisierungsansätze, die allerdings noch keine Datenexploration erlauben (vgl. Kap. 7.1.3). Während zunächst nur Möglichkeiten zur Ausschnittsvergrößerung oder zur Ausgabe auf einem Drucker bestehen, bietet das Hypermap-Konzept ein kontextabhängiges Navigieren durch einen Datenbestand (vgl. Kap. 7.2.1). Über derartige interaktive Betrachtungen hinaus, die bereits die von einer analogen Karte angebotenen Möglichkeiten übersteigen, sind vor allem die interaktiven Anwendungen eines Geoinformationssystems als spezielle Formen der computergestützten Visualisierung zu verstehen. So wird die Datenexploration mit einem digitalen Informationssystem durch einen Rückkopplungsprozess charakterisiert, der in einem Dialog immer fortschreitende Spezifizierungen der Fragestellung ermöglicht und jeweils neue, das Problem genauer kennzeichnende Antworten anbietet (vgl. Abb. 7.11). Diese Datenexploration schafft gegenüber der klassischen Kartennutzung den entscheidenden Qualitätssprung! Das Konzept der Datenexploration wird inzwischen vielfältig umgesetzt (vgl. Kap. 7.7). Einerseits wird es von digitalen Atlanten und graphischen Auskunftssystemen auf CD-ROM genutzt. Andererseits basieren viele (graphische) Darstellungsformen im Internet auf diesem Konzept.
Ausgangsfragestellung Anfrage an das Informationssystem und Visualisierung Visuelle Auswertung Berücksichtigung von Metadaten
Ende
Spezifizierung der Fragestellung
Abb. 7.11: Datenexploration und Visualisierung als Prozess
274
7.6.3
Visualisierung raumbezogener Informationen
Kartographische Potenziale moderner Informations- und Kommunikationstechnologien
Traditionell hat die Kartographie als wissenschaftliche Fachdisziplin die Darstellung und Präsentation raumbezogener Informationen zum Inhalt. Lange Zeit war hierfür die (analoge) Karte das einzig sinnvolle Medium. Inzwischen haben sich neue Informations- und Kommunikationstechnologien herausgebildet: Die 2D-Computergraphik umfasst den interaktive Entwurf und die Gestaltung kartographischer Darstellungsformen sowie deren Ergebnis (vor allem Karten). Die 3D-Computergraphik beinhaltet die Berechnung und Visualisierung zweidimensionaler Darstellungen von Flächen und Körpern eines dreidimensionalen Raumes (u.a. Digitale Geländemodelle). Tabelle 7.3: Bewertung des kartographischen Potenzials von 2D- und 3D-Computergraphik nach Buziek (1997) Vorteile 2D-Computergraphik spezielle KartographieSoftware verfügbar, interaktive Gestaltung von Karten möglich, Datenbankanbindung möglich, Funktionsabläufe programmierbar, universell verwendbar einfache Kartometriefunktionalität
3D-Computergraphik Verringerung des Abstraktionsgrades kartographischer Darstellungen, kartogr. Darstellungen entsprechen der menschlichen visuellen Wahrnehmungserfahrung, effektive Übertragung bestimmter raumbezogener Informationen, z.B. Geländeformen oder Landschaftsbilder, plastische Darstellung räumlicher Objekte und Bezüge, und dadurch schnelle Informationsübertragung und -gewinnung für Laien
Nachteile
Bewertung
primär Verarbeitung von Graphikdaten, hauptsächlich Herstellung statischer Karten, Herstellung kinematischer und interaktiver Karten nur eingeschränkt möglich, Datenimport/-export mittels Graphikaustauschformaten, Datenmodellierung ohne Zusatzprogramme kaum möglich, Berechnung von Kartennetzabbildungen für kleinmaßstäbige Atlaskarten nur mit Zusatzprogrammen möglich
hohes kartographisches Potenzial für die digitale und interaktive Herstellung statischer Karten, geringes kartographisches Potenzial für die Herstellung kartenverwandter Darstellungsformen und von Netzentwürfen für die Atlaskartographie
Parametrisierung (z.B. Wahl von Perspektive, Kameraposition, Beleuchtung) aufwändig, keine speziellen Anwendungen für kartographische Zwecke verfügbar, keine Kartometriefunktionalität, hohe Anforderungen an die kartographische Gestaltung, Anbindung an Fremdsysteme mittels Konverter, keine standardisierte Kommandosprache, kein universeller Einsatz
hohes kartographisches Potenzial für die Gestaltung perspektivischer kartographischer Darstellungen, geringes kartographisches Potenzial für allgemeine kartographische Anwendungen, stark spezialisiert
Kartographie im multimedialen Umfeld
275
Unter Computeranimation wird die Generierung und Visualisierung von Bildsequenzen und bei schneller Wiedergabe die Entstehung von Veränderungen oder Bewegungen verstanden (u.a. Darstellung raumzeitlicher Veränderungs- und Bewegungsprozesse, zu Grundlagen und Anwendungen vgl. Buziek u.a. 2000). Die GIS-Technologie ermöglicht die Visualisierung raumbezogener Informationen im Rahmen von Geoinformationssystemen. Tabelle 7.4: Bewertung des kartographischen Potenzials von Computeranimation und GISTechnologie nach Buziek (1997) Vorteile Computeranimation gute Darstellungsmöglichkeit von raumzeitlichen Veränderungen und Prozessen entsprechend ihrer natürlichen Erscheinung, bei Verwendung von 3DComputergraphik vgl. Tab. 7.3, bei Verwendung von 2DComputergraphik Erweiterung der Gestaltungsmöglichkeiten z.B. für Multimedia-Anwendungen
GIS-Technologie hohe Effektivität durch Kopplung von GeoDatenbanken, interaktiver 2DComputergraphik, flexible Anwendungsmöglichkeiten durch Kommandosprachen, programmgesteuerte Berechnung statischer Karten, Integration von MultimediaElementen durch Verbesserung der Informationsübertragung, gute Informationsgewinnung durch hohe Analyse- und Synthesefunktionalität, mit entsprechenden Oberflächen auch durch Laien bedienbar
Nachteile
Bewertung
hohe Anforderungen an die kartographische Gestaltung, da Betrachtungszeitraum nicht individuell, sondern vorgegeben, hoher Bedarf an Rechenzeit und Speicherplatz, hohe graphische Qualität nur mit Spezialvideorecordern erzielbar, Echtzeitwiedergabe mit Computern nur mittels spezieller Hardwareerweiterungen, kartographische Gestaltungsregeln derzeit für kartographische Computeranimationen nicht ausreichend
hohes kartographisches Potenzial für die Darstellung dynamischer raumzeitlicher Prozesse und für die Herstellung bewegter MultimediaElemente, geringes kartographisches Potenzial für allgemeine kartographische Anwendungen
Software ist sehr komplex, zeitintensive Einarbeitung, Schulung notwendig, teuer, Betrieb nur durch Fachleute
sehr hohes kartographisches Potenzial bezüglich der Informationsgewinnung aufgrund umfangreicher Analyse- und Synthesefunktionalität und effektiver Informationsübertragung durch multimediale Darstellungsmittel
276
Visualisierung raumbezogener Informationen
Tabelle 7.5: Bewertung des kartographischen Potenzials von Multimedia/Hypermedia/WWW und VR-Methoden nach Buziek (1997) Vorteile Multimedia/ Hypermedia/ WWW hohe Effektivität bei der Informationsübertragung durch Kombination von visuellen und akustischen Darstellungsmitteln, Interaktion und Hypermediafunktionalität ermöglichen die Erfüllung von Bedürfnissen unterschiedlicher Nutzergruppen, hohes didaktisches Potenzial bei entsprechender Gestaltung, Einsatzmöglichkeiten auf preisgünstigen Rechnern im Heimbereich bzw. im Internet Zugriffsmöglichkeit auf verteilte Datenbestände
VR Methoden Darstellung von räumlichen Objekten und räumlichen Bezügen durch virtuelle Raumbilder, dadurch Vorteile der 3DComputergraphik, jedoch gekoppelt mit Interaktion, Informationsübertragung sehr effektiv, da abstrakt-realistisch und in Originalgröße möglich
Nachteile
Bewertung
Nutzergruppen eingeschränkt, da Rechnereinsatz erforderlich, für die Gestaltung der Multimedia-Elemente ist der Einsatz von zusätzlicher Software notwendig, es wird die Bereitstellung, aber nicht die Berechnung von Karten ermöglicht, GIS-Funktionalität wünschenswert, kartographische Gestaltungsregeln nicht ausreichend aufgrund neuer Darstellungsmittel (Akustik, Bewegung), bedarfsgerechte, individuelle Informationsgewinnung eingeschränkt
sehr hohes kartographisches Potenzial, da hohe Effektivität bei der Informationsübertragung, Möglichkeiten der Informationsgewinnung nicht nutzerspezifisch
modernste Computertechnologie erforderlich, hoher Aufwand hinsichtlich der Datenmodellierung und Datenvisualisierung (Echtzeitgraphik erforderlich), Bedienung derzeit durch Spezialisten
hohes kartographisches Potenzial für Spezialanwendungen (z.B. real-abstrakte Darstellung von Planungsszenarien)
Multimediale Techniken ermöglichen die Integration und wechselseitige Verknüpfung (durch Hyperlinks) von Tonwiedergabe, Verarbeitung von Videosequenzen und von graphisch-akustischen Interaktionen. Sie beinhalten die Übertragung audio-visueller Nachrichten im Internet und die Visualisierung bzw. Darstellung mit einem Browser. Die Methoden der Virtual Reality (VR) gestatten die Modellierung einer räumlichen Szene (virtueller räumlicher Eindruck), die vom Anwender mit Hilfe spezieller Hard- und Software interaktiv erkundet wird. Die neuen Informations- und Kommunikationstechnologien stellen neue Herausforderungen an die Kartographie. Diese Technologien besitzen differenzierte kartographische Potenziale, die weit über die Möglichkeiten traditioneller kartographischer Darstellungen hinausgehen. Der Grad der kartographischen Nutzbar-
Multimediale Visualisierung und Web-Mapping
277
keit, d.h. die Eignung zur Lösung kartographischer Aufgaben und Funktionen, kann dabei als das kartographische Potenzial einer Technologie bezeichnet werden. Für ausgewählte Informations- und Kommunikationstechnologien hat Buziek (1997) das kartographische Potenzial zusammengestellt (vgl. Tab. 7.3 - 7.5). Diese neuen graphisch orientierten Informationstechnologien und Kommunikationsformen besitzen allerdings auch Ausdrucksformen, für die bereits zu einem großen Teil in der traditionellen Kartographie Standards gesetzt wurden (vgl. Kap. 7.3 u. 7.4). Somit kommt der Kartographie in der Darstellung raumbezogener Informationen eine Schlüsselstellung zu! Deren Erkenntnisse sind häufig den Anwendern der neuen Techniken nicht bekannt, was u.a. zu grauenvollen, informationverfälschenden Darstellungen führen kann. Räber und Jenny (2003) plädieren für eine mediengerechte Kartengraphik, die die kartographischen Grundregeln beachtet, aber die speziellen Formen des Webdesign und Webtechniken berücksichtigt. Allerdings besteht zur Umsetzung der kartographischen Standards noch erheblicher Forschungsbedarf, wie die vorhandenen Potenziale der neuen Präsentationsformen voll ausgeschöpft und in der Kartographie genutzt werden können (zu Ansätzen vgl. u.a. Asche 1996 sowie weitere Arbeiten in Mayer u. Kriz 1996, Dransch 1996 u. Lutterbach 1998, Räber u. Jenny 2003).
7.7 7.7.1
Multimediale Visualisierung und Web-Mapping Multimedia Kartographie: Standards und Perspektiven
Seit wenigen Jahren, aber mit stürmischem Wachstum entwickelt sich das Internet zu einem Medium, das umfangreiche graphische und kartographische Informationen bereitstellt. Die graphische Informationsverarbeitung im Internet stellt einen ähnlichen Meilenstein in der Kartographie dar wie das Desktop Mapping. Die Anfänge interaktiver Web-Kartographie können 1994 auf eine Webseite der Firma Xerox zurückgeführt werden, die eine Weltkarte mit Informationsabfragen enthielt und die vom Nutzer interaktive Veränderungen zuließ (u.a. Skalierung, Kartenprojektion, Inhaltsdichte, Ausschnitt). Diese Urkarte ist noch heute, wenn auch in modifizierter Form vorhanden (vgl. Xerox Parc Map Viewer - Weblink). Inzwischen nimmt auch die Zahl der Literaturbeiträge enorm zu, die sich wissenschaftlich mit dem Web-Mapping auseinandersetzen (vgl. Gartner 1999, 2000 u. 2003, Dickmann 1997 u. 2001, Cartwright u.a. 1999, Herrmann u. Asche 2001, Kraak 2003, Peterson 2003, vgl. auch Beiträge in Buziek u.a. 2000 sowie in Herrmann u. Asche 2003). Das kartographische Angebot im Internet ist unübersehbar geworden. Inzwischen lassen sich mehrere Produktgruppen netzbasierter Kartengraphiken ausmachen (vgl. Gartner 1999 u. Asche 2001). Das Internet ermöglicht Zugang zu (einfachen) Geodatenservern, die Suchroutinen zu Archiven von Geodaten oder zu Bibliotheken anbieten und Download-Funktionen bereitstellen, und zu Kartenservern, die umfangreiche Sammlungen von Karten und von graphischen Informationen verfügbar machen. Zumeist sind diese Karten statisch vorgegeben und durch
278
Visualisierung raumbezogener Informationen
den Nutzer nicht veränderbar (sog. Betrachtungskarten, „online view maps“ nach Asche 2001). Die vollständigen Digitalkarten sind auf dem Server abgespeichert, sie werden z.B. in HTML-Dokumente eingebunden, können abgerufen und in einem Browser dargestellt werden (vgl. Kap. 4.10.4). Zahlreiche Beispiele finden sich auf den Homepages der Softwarehersteller von Geoinformationssystemen. Zumeist werden im Internet aber schon Formen der nächsten, zurzeit größten Produktgruppe, der sog. Interaktiven Karten, angetroffen. Allerdings bestehen erhebliche Unterschiede hinsichtlich des Ausmaßes der netzbasierten Interaktion. Nach ihrer Häufigkeit sind an erster Stelle sensitive Karten zu nennen, die über aktivierbare Schaltflächen, d.h. durch Anklicken sog. Hotspots in der Graphik, weitere Informationen zum ausgewählten Objekt anbieten (u.a. Texte, weitere vorgegebene Graphiken oder auch Animationen). So ist inzwischen das Angebot von Stadtplänen oder Touristikinformationen zum Standard geworden, die z.B. auf den Internetseiten der Kommunen bereitgestellt werden. Um die Geschwindigkeit der Bildübertragung und des Bildaufbaus in erträglichen Grenzen zu halten, werden dabei zumeist nur einfache kartographische Darstellungen (häufig gescannte, kommerzielle Stadtpläne in geringer Auflösung) angeboten, die über Links weitere Informationen erschließen. In der Regel gelangt der Benutzer zur Einstiegsseite über die Standardadresse “http://www.stadt.de”, wobei “stadt” durch den Stadtnamen zu ersetzen ist. Zum einen dienen die Angaben zur Bürgerinformation (u.a. Öffnungszeiten von öffentlichen Einrichtungen und Behörden). Zum anderen wird das Internet als Instrument zum Stadt- und Tourismusmarketing genutzt, so dass u.a. digitale Stadtpläne vernetzt mit weiteren Informationen zur Stadt angeboten werden. Daneben liegt im Internet eine Fülle kommerzieller Angebote von Stadtplänen vor, die über Werbung finanziert auch Routenbeschreibungen und Firmenregister mit Suchoptionen offerieren. Hinzuweisen ist auf den MapServer der Universität von Minnesota, der eine Vielzahl von Links zu anspruchsvollen WebApplikationen basierend auf der UMN-MapServer Software (Open Source) bietet. Interaktiv können eigene kartographische Darstellungen erstellt werden (vgl. UMN-MapServer Weblink). Als ein Beispiel für diese Produktgruppe soll der Gefahrenatlas der Mosel angeführt werden. Die durch Hochwasser gefährdeten Gebiete im Einzugsgebiet der Mosel wurden einheitlich erfasst und nach ihrem Gefährdungspotential klassifiziert. Der Server greift nur auf die Daten für Rheinland-Pfalz zu (vgl. Gefahrenatlas der Mosel Weblink). Die Abbildung 7.12 zeigt die Überschwemmungsgebiete beim 100jährlichen Hochwasser in Trier nördlich der Altstadt. Zu der Gruppe Interaktiver Karten gehören auch digitale Atlanten (vgl. Kap. 7.7.2), die schon erste Ansätze zur eigenen Datenexploration bieten. Der Benutzer kann (online bzw. von einer CD-ROM) aus dem Daten- bzw. Kartenangebot individuell eine Auswahl treffen und den Kartenausschnitt wählen. Die graphische Präsentationen sind aber vorgegeben und zum großen Teil unveränderbar. Hierzu zählen auch Informationssysteme, die als graphische Auskunftssysteme für ein Fachpublikum konzipiert sind und die mit weit entwickelten Abfrage- und Präsentationsmöglichkeiten ausgestattet sind (vgl. Kap. 7.7.3).
Multimediale Visualisierung und Web-Mapping
279
Abb. 7.12: Gefahrenatlas der Mosel: Überschwemmungsbereiche beim 100jährigen Hochwasser in Trier nördlich der Altstadt (Porta Nigra in der Mitte am unteren Bildrand)
Zwischen den Interaktiven Karten, den digitalen kartographisch orientierten Auskunftssystemen und den Online-Geoinformationssystemen bestehen fließende Übergänge (vgl. Kap. 7.7.3 u. 9.7). Der Anwender kann online über ein Common Gateway Interface auf die Funktionen und die Daten des Informationssystems zugreifen, das auf dem Server residiert (vgl. Kap. 4.10.4 u. Abb. 4.18). Die Softwarehersteller haben für diese Variante erste Softwareprodukte herausgebracht, wenngleich das Angebot an komplexen Online-Analysefunktionen wie z.B. Verschneidungen noch gering ist. Zumeist sind (nur) Abfragemöglichkeiten, die verschiedene Sichten auf den Datenbestand zulassen, sowie Präsentationsmöglichkeiten (u.a. Anordnung mehrerer Informationsebenen, Gestaltung von Signaturen und Legende) realisiert. Trotz eingeschränkter Möglichkeiten ist ein größerer Nutzerkreis erstmalig in der Lage, eine graphische Präsentation relativ eigenständig zu gestalten. Vor dem Hintergrund der erheblichen Vorteile von internetbasierten (Geo-) Informationssystemen ist eine stärkere Zunahme absehbar. Dadurch dass der Benutzer jetzt das Aussehen seiner Karte am Monitor selbst bestimmen kann, kommt der kartographischen Qualität und Aussagekraft bzw. den kartographischen Fertigkeiten des Anwenders eine große Bedeutung zu (vgl. Kap. 7.3 u. 7.4). Ferner ist ein integriertes Metainformationssystem wünschenswert, das den Nutzer hinsichtlich der Auswahl von graphischen Gestaltungsmöglichkeiten unterstützt.
280
Visualisierung raumbezogener Informationen
Eine Entwicklung wird voraussichtlich die Kartographie (erneut) umwälzen, wobei die genauen Auswirkungen noch nicht abzusehen sind. So bestehen derzeit erhebliche Forschungsaktivitäten hinsichtlich der Darstellung und Visualisierung von Geoinformationen im Internet bzw. der Standardisierung von Datenformaten, die für eine universelle Informationsübertragung und Darstellung in beliebigen Browsern bzw. Plattformen unabdingbar ist (vgl. Grolig u.a. 2001 u. Kap. 3.2.6). Diese technischen Anstrengungen stehen im Zusammenhang mit der graphischen Modellierung und multidimensionalen Darstellung der realen Welt, für die inzwischen der Begriff Virtuelle Realität (VR) gebräuchlich ist (vgl. Kap. 7.6.3, vgl. Moore 1999). Virtual Reality wird die bisherigen Möglichkeiten der Kartographie und der Visualisierung erheblich erweitern: - dreidimensionale Darstellung von Formen und Oberflächen sowie Modellierung realer Welten (u.a. Geländedarstellungen oder Stadtlandschaften mit steigendem Realitätsgrad, insbesondere um alternative Planungsszenarien darzustellen) - Interaktivität des Nutzers, Verändern des Betrachtungspunktes und Bewegen des Nutzers in virtuellen Umgebungen - Einbeziehen von graphischen Effekten und Modellieren von Licht und Schatten oder Nebel - Einbinden von Bildern, Filmen und Ton - Beschreibung von Raum-Zeit-Prozessen. Die Virtuelle Realität wird neue Wege eröffnen, räumliche Daten zu erforschen und zu erkunden bzw. darzustellen und zu übermitteln. „The future shape of cartography can be envisioned as a rich sensory mix of maps, models, sounds and movement. The user will become part of the map.“ (Moore 2001 S. 215). 7.7.2
Digitale und multimediale Nationalatlanten
Die digitalen Nationalatlanten stellen (in der Regel) keine Kopien der analogen Atlaskarten dar, sondern sind eigenständige Konzeptionen zum Informationsangebot und zur graphischen Ausgabe. Sie bieten umfangreiche textliche und graphische Informationen zu ausgewählten Themen an. Zumeist sind umfangreiche Suchhilfen oder Navigationsmöglichkeiten integriert. Als richtungsweisende Beispiele sind der offenbar nicht weiterentwickelte Prototyp des Internet Atlas der Schweiz (vgl. Richard 1999) bzw. der Nationalatlas der Schweiz als interaktiver Multimedia Atlas auf CD-ROM (vgl. Hurni u.a. 1999 u. Nationalatlas der Schweiz - Weblink), der Nationalatlas der USA oder von Kanada (vgl. Nationalatlas der USA - Weblink, Nationalatlas von Kanada - Weblink), der Nationalatlas von Schweden (vgl. Nationalatlas von Schweden - Weblink) und als Spezialform der Nationale Gesundheitsatlas der Niederlande (vgl. Nationaler Gesundheitsatlas der Niederlande - Weblink) zu nennen. Auch die Bände des Nationalatlasses der Bundesrepublik Deutschland verfügen jeweils über eine CD-ROM mit interaktiven Darstellungsmöglichkeiten (vgl. Nationalatlas der Bundesrepublik Deutschland - Weblink).
Multimediale Visualisierung und Web-Mapping
281
Gegenüber den Realisierungsvarianten auf CD-ROM werden langfristig die Internetlösungen dominieren, die vor allem eine Aktualisierung der Datengrundlagen gewährleisten können. Mit der weiteren Zunahme technischer Möglichkeiten, Geoinformationssysteme im Internet verfügbar zu machen, sind vielfältige Weiterentwicklungen zu erwarten. 7.7.3
Kartographische Auskunftssysteme nungskartographie
und
interaktive
Pla-
Neben (einfachen) Auskunftssystemen für eine breite Öffentlichkeit werden zukünftig planungsbezogene, kommunale Informationssysteme eine immer größere Bedeutung erlangen. Abzuwarten ist, wie sich durch die multimedialen Möglichkeiten des Internets neue Formen der im Baugesetzbuch der Bundesrepublik Deutschland vorgeschriebenen Bürgerbeteiligung an der Bauleitplanung (d.h. der räumlichen Planung auf kommunaler Ebene) ergeben werden. Nach dem Inkrafttreten des Umweltinformationsgesetzes und einer zunehmenden Nachfrage nach Umweltinformationen durch die Bürger ist die Zunahme auch kartographisch orientierter Auskunftssysteme abzusehen. Richtungsweisend ist derzeit der Umweltatlas der Stadt Berlin, der umfangreiche Arbeitsergebnisse aus der gesamten Stadtentwicklungsverwaltung präsentiert:
Abb. 7.13: Umweltatlas Berlin: Versiegelung im Stadtteil Friedrichshain
282
Visualisierung raumbezogener Informationen
Zu etwa 80 Themen und über 400 Karten mit Texten und Abbildungen für alle Umweltmedien und -bereiche Boden, Wasser, Luft, Klima, Flächennutzung, Verkehr, Lärm und Energie werden die Schwerpunkte der Belastung, die davon ausgehenden Gefährdungen aber auch vorhandene Qualitäten und Entwicklungspotentiale dargestellt. Die Karten können in beliebigen Ausschnitten und Maßstäben dargestellt werden. Für ausgewählte Kartenthemen können Einzeldaten für jede der bis zu 26 000 Block- bzw. Blockteilflächen ausgegeben werden. Seit 2005 können für die Kartenpräsentation erweiterte Funktionalitäten genutzt werden. So ist zum Beispiel die Raumauswahl nunmehr über die direkte Adresssuche, Koordinaten oder zahlreiche andere Raumeinheiten wie z.B. Postleitzahlen möglich. Auch das Zoomen durch Aufziehen eines Rechteckes erleichtert die Auswahl des gewünschten Gebietes. Sachdaten können jetzt auch für mehrere vorher ausgewählte Flächen angezeigt werden (vgl. Umweltatlas Berlin - Weblink). Derartige Systeme müssen aber nicht auf Großstädte beschränkt sein, wie das als vorbildlich geltende Geodatenportal der Stadt Aalen zeigt (vgl. Geoportal Stadt Aalen - Weblink). Dieses GIS-basierte Informationssystem für eine breite Öffentlichkeit mit intuitiver Benutzerführung stellt u.a. räumliche Informationen in Form von (digitalen) Karten und Plänen im Internet zur Verfügung stellt. Hierdurch erfolgt ein wichtiger Schritt in Richtung Öffnung, Transparenz und Gleichstellung zwischen Bürger und Verwaltung. Das Geodatenportal realisiert u.a. verschiedene Zugriffs- und Suchmöglichkeiten sowie Funktionen zur Ausschnittsbearbeitung.
7.8
Ausblick
Vor dem Hintergrund der bisher rasant verlaufenden Veränderungen in der graphischen Informationsverarbeitung, in der Kartographie bzw. in Multimedia Anwendungen sind zukünftige Entwicklungen schwer abzuschätzen, die zudem für die Praxis und für die Geoinformatik dauerhaft Relevanz haben werden: - Naheliegend ist, obschon in diesem Kapitel bisher nicht näher thematisiert, der weitere Ausbau der kartographischen Präsentationsformen in Geoinformationssystemen, die zunehmend die Anforderung erfüllen werden, die an Desktop Mapping Systeme gestellt werden (vgl. Kap. 7.5.2). - Die vielfältigen graphischen Werkzeuge in Geoinformationssystemen, die die Gestaltung einer graphischen Präsentation Anwendern überlassen, die in der Regel nicht über graphische Gestaltungskenntnisse verfügen, erfordern Assistenzsysteme, die den Anwender bei der Entwicklung einer Präsentation helfen bzw. leiten. - Multimedia-Kartographie und Online-Geoinformationssysteme werden an Bedeutung zunehmen. Hierzu sind die vorhandenen Ansätze weiter zu entwickeln (u.a. Kartographiewerkzeuge und GIS-Funktionalitäten im Internet). - Anwendungen der Virtual Reality einschließlich interaktiver 3D-Visualisierungen (im Internet bzw. in einem browsergestützten Informationssystem) werden an Bedeutung gewinnen.
8 Datenorganisation und Datenbanksysteme
8.1 8.1.1
Datenorganisation Grundbegriffe der Datenorganisation
Die Speicherung, Verwaltung und Verarbeitung umfangreicher Datenbestände besitzen für sämtliche Anwendungsbereiche und somit auch für die Geowissenschaften eine wichtige Bedeutung. Dabei werden umfangreiche Datenmengen zusammengetragen, die optimal zu speichern, zu pflegen und auszuwerten sind. Die Speicherung betrifft zum einen die physikalische Speicherungsform und zum anderen die (wichtigere) logische Organisation der Daten. Mit der Datenpflege wird die Aktualisierung der Datenbestände gekennzeichnet, die vor allem das Löschen, Ändern und Ergänzen einzelner Daten oder umfangreicher Datensätze sowie das Anlegen völlig neuer Datenbestände mit neuen logischen Strukturen umfasst. Die Auswertung der Daten je nach Fragestellung hinsichtlich unterschiedlicher Kriterien zielt vor allem auf die Hauptaufgaben Sortieren und Suchen ab, wobei hiermit eine Einzelauswertung nach einer Zeitangabe, eine Gruppenauswertung nach einer komplexen Abfragebedingung mit Aufbereitung in Tabellenform oder eine statistische Auswertung verbunden sein können. Die gestiegenen Anforderungen an die Verarbeitung von Daten, die z.B. einen interaktiven Zugriff, einen Mehrfachzugriff, die Benutzerfreundlichkeit, die Datensicherheit oder den Datenschutz betreffen, gehen weit über die Leistungsfähigkeit von Dateisystemen hinaus (vgl. Kap. 3.3.5 u. Kap. 8.1.2). Diese Anforderungen haben zur Entwicklung komplexer Datenbanksysteme geführt. Derartige Systeme haben in der Geoinformatik über die Verwaltung von Sachdaten hinaus eine große Bedeutung, da sie bzw. wichtige Teilfunktionen davon in Geoinformationssystemen integriert sind. Zur Modellierung der realen Welt und insbesondere der Thematik von Geoobjekten besitzen Datenbankkonzepte wie z.B. das relationale Datenmodell eine zentrale Stellung. Die Verwaltung von Sachdaten in Geoinformationssystemen erfolgt auf der Basis von Datenbankmanagementsystemen. Grundlage der Darstellung von Daten in der Informatik ist die Codierung einer Zahl oder von Buchstaben sowie multimedialer Informationen durch Bitfolgen (vgl. Kap. 2.5). Auf einer weiteren Stufe der Abstraktion ermöglicht das Datentypkonzept die relativ elegante Bearbeitung unterschiedlicher Daten wie z.B. Integerzahlen oder Characterzeichen (vgl. Kap. 3.3.2). Die weitere logische Datenorganisation ist hierarchisch aufgebaut (vgl. Abb. 8.1 u. Kap. 3.3.5). Einzelne Datenfelder (engl.: items), die jeweils Attributwerte enthalten, bauen einen Datensatz
284
Datenorganisation und Datenbanksysteme
(engl.: record) auf. Mehrere logisch zusammengehörige Datenfelder innerhalb eines Datensatzes werden häufig auch Datensegment (Datengruppe) genannt. Gleichartige und aufgrund inhaltlicher Kriterien zusammengehörige Datensätze werden zusammengestellt als Datei (engl. file) bezeichnet. Mehrere Dateien, zwischen denen logische Abhängigkeiten oder Beziehungen bestehen, bilden ein Dateisystem oder sogar eine Datenbank (vgl. Kap. 8.1.3). Die logische Datenorganisation lässt sich einfach anhand von Tabellen verdeutlichen, die zusammen eine Datenbank ausmachen, wobei eine einzelne Tabelle einer Datei, ein einzelner Datensatz einer Tabellenzeile, ein einzelnes Datenfeld einer Tabellenspalte und ein einzelner Attributwert einem Datum in der Tabelle entsprechen. Die Datenfelder können unterschiedliche Datentypen darstellen, wobei in Datenbanken weitere Datentypen auftreten, die über die klassischen Datentypen der Informatik (vgl. Kap. 3.3.5) hinausgehen (vgl. Uhrzeit, Währung oder spezielle Feldtypen zur Einbindung von Objekten wie z.B. Grafiken oder Klänge). Anzumerken ist, dass die Tabellenform zwar die derzeit häufigste, aber nicht die einzige Realisierung von Datenbanken ist (vgl. Kap. 8.6). Umweltdaten Gemeinde Gisdorf
Datenbank (data base) Dateisystem (file system) Dateien (file)
Altlastenkataster
Datensätze (record)
Datensegmente
Datenfelder (items)
Baumkataster
...
Baum 1 Baum 2 Baum 3
...
Koordinaten
ID-Nr. X-Koord. Y-Koord.
...
Gewässerflächenkataster
...
Lage
...
Bezirk Strasse Nr. ... Kostenstelle
Abb. 8.1: Grundbegriffe der Datenorganisation
Zur physischen Identifizierung von Daten im Speicher bestehen unterschiedliche Zugriffs- und Speicherungsmechanismen (vgl. Kap. 3.3.5). Zur Speicherung können verschiedene Medien eingesetzt werden (vgl. Kap. 4.6). Demgegenüber ist von der inhaltlichen, konzeptionellen Seite die logische Identifizierung von Daten und von Datensätzen durch (logische) Schlüssel bedeutender. Hierunter werden das Attribut oder die Attributkombination verstanden, die einen einzelnen Datensatz eindeutig kennzeichnen. Allerdings ist eine Attributkombination nur dann ein Schlüssel, wenn sämtliche Attribute zur Kennzeichnung hinreichend und notwendig sind, wenn also nach Ausschluss eines dieser Attribute die Schlüsseleigenschaft verloren geht (sog. Minimaleigenschaft eines Schlüssels). Dabei können durchaus mehrere Schlüssel existieren. So ist z.B. bei einem Baumkataster jeder Datensatz eindeutig durch die X- und Y-Koordinate (zusammengesetzter Schlüssel) festgelegt (vgl. Abb. 8.1). Der letztlich zur Identifikation eines Datensatzes ausgewählte Schlüssel (in Abb. 8.1 das Datenfeld ID-Nr.) wird als Primärschlüs-
Datenorganisation
285
sel bezeichnet. Sämtliche Felder, die sich zu Schlüsselfeldern eignen, werden Schlüsselkandidaten genannt. Eine Datei kann ferner Datenfelder enthalten, die Schlüsselfelder in anderen Dateien sind. So kann z.B. das Datenfeld „Kostenstelle“ in Abbildung 8.1 ein Schlüsselfeld einer anderen Datei mit Abrechnungsdaten sein. Derartige Felder werden als Fremdschlüssel bezeichnet. Als Schlüsselfelder werden zumeist eigene, numerische Attribute verwandt, die als Identifikationsnummern (Identifikationsschlüssel) z.B. Artikel- oder Kundennummern darstellen. Derartige Nummern (sog. „ID´s“) werden den aufgrund der Fragestellung vorgegebenen Attributen vorangestellt. Die Verwendung numerischer Schlüssel ist jedoch nicht zwangsläufig (vgl. Autokennzeichen als Buchstaben- und Ziffernkombination). So können aus den inhaltlich vorgegebenen Datenfeldern Schlüsselfelder gebildet werden (z.B. aus Name und Geburtsdatum), jedoch sind in der Regel eigene, numerische Schlüsselfelder übersichtlicher und ermöglichen einen schnelleren Datenzugriff. So kann eine Sortierung nach einem numerischen Feld schneller als nach einem (längeren) Textfeld erfolgen, ebenso ist eine Verknüpfung zweier Tabellen aufgrund identischer Werte in einem numerischen Datenfeld schneller. 8.1.2
Dateisysteme
Dateisysteme können als Vorläufer der Datenbanksysteme angesehen werden. Zumeist reichte aber zur Auswertung der Datenbestände in den Dateien das Dateiverwaltungssystem des Betriebssystems nicht aus. Daher wurden eigene Programme in einer (höheren) Programmiersprache zur Analyse der Daten entwickelt, die auf die Dateien zugriffen und die Informationsverarbeitung leisteten. Das wesentliche Kennzeichen derartiger Dateisysteme, die durch Nutzerprogramme ausgewertet werden müssen, ist die statistische Zuordnung von Verarbeitungsprogrammen zu den Daten. Jedes dieser Nutzerprogramme enthält eine eigene Beschreibung der Datei, die ausschließlich durch die Verarbeitung der Daten in dem jeweiligen Programm bestimmt wird. So wird z.B. mit einer prozeduralen Programmiersprache ein Record-Typ deklariert, mit dem die Variablen und Datentypen für das Programm festgelegt werden (vgl. Kap. 3.3.3). Erst danach ist ein Zugriff auf die Daten möglich. Falls bestimmte Datenfelder der Datei in einem Programm nicht ausgewertet werden, kann eine Deklaration unterbleiben und kann dieses Datenfeld beim Einlesen übersprungen werden. Somit ist eine sehr individuelle und effiziente Programmierung möglich. Die Programme sind aber nur für diese Daten und für genau diesen Einsatz geeignet. Die Programmpflege bei geänderten Anforderungen ist aufwändig. Eine Beispielaufgabe der Datenverwaltung in einer Umweltbehörde verdeutlicht, dass Dateisysteme letztlich kaum geeignet sind, fachlich differenzierte Datenbestände zu verwalten, zu bearbeiten und auszuwerten (vgl. Abb. 8.2). In einer Kommune werden in dem Kataster nach der Verordnung über Anlagen zum Umgang mit wassergefährdenden Stoffen (VAwS) sehr viele Anlagen geführt und kontrolliert (in Osnabrück über 12.000 Anlagen wie z.B. Tankstellen oder Heizölbehälteranlagen). Nach dem Wasserhaushaltsgesetz ist der Betreiber z.B. eines
286
Datenorganisation und Datenbanksysteme
Lagerbehälters mit wassergefährdenden Stoffen verpflichtet, die Anlage spätestens alle fünf Jahre - bzw. bei unterirdischer Lagerung in Wasser- und Quellenschutzgebieten alle zweieinhalb Jahre - durch einen Sachverständigen auf den ordnungsgemäßen Zustand hin überprüfen zu lassen (vgl. WHG § 19i, Satz 2). Die untere Wasserbehörde führt die Daten der einzelnen prüfpflichtigen Lagerbehälter, die Daten der Untersuchungsergebnisse sowie die relevanten Untersuchungstermine. Die Kontrolle der ordnungsgemäßen Ermittlung der Prüfergebnisse und der gegebenenfalls notwendigen Maßnahmen werden ebenso überwacht wie Terminüberschreitungen oder nicht erfolgte Mängelbeseitigungen. Zur Bearbeitung dieser Verwaltungsaufgabe soll ein Dateisystem aufgebaut sein, das mehrere typische Strukturmerkmale aufzeigt: Programm 1
Programm 2
Programm 3
Programm 4
Neuzugang von Anlagen
Neuzugang von Betreibern
Überwachung der Prüfpflicht
Kontrolle der Prüfung und ggf. der Mängelbeseitigung
Datei 1
Datei 2
Datei 3
Anlagen zum Umgang mit wassergefährdenden Stoffen
Betreiber der Anlagen aus Datei 1
Wartungsdatei
Abb. 8.2: Dateisystem in einer Umweltbehörde
Die Dateien 1 und 2 werden in diesem Beispiel als Stammdateien geführt, die nur selten verändert werden müssen (vgl. Abb. 8.3). Die Angaben zu den Anlagen und den Betreibern werden dabei in getrennten Dateien gehalten. Hierdurch sind bereits einige Forderungen an höhere Datenbanksysteme erfüllt. So wird nur einmal in der Datei 2 der (ausführliche) Name und die Adresse der Betreiber gespeichert, was eine größere Redundanzfreiheit des Systems bedeutet. Bei mehreren Anlagen eines Betreibers ist somit eine leichtere Aktualisierung von Betreiberdaten möglich. Die dritte Datei enthält die wesentlichen Bewegungsdaten. So sollen hier u.a. die Angaben gespeichert sein, welche Anlagen zu einer Überprüfung anstehen (z.B. nach Ablauf des fälligen Untersuchungstermins) und welche Ergebnisse vorliegen. Die Bearbeitung dieses Dateisystems erfolgt durch Programme einer höheren Programmiersprache. Die Programme 1 und 2 aktualisieren die Stammdaten. Das Programm 3 errechnet aus dem Datum der letzten Überprüfung in Datei 1, wann eine erneute Kontrolle notwendig ist. Die Daten werden dann in die Datei 3 geschrieben (vgl. Abb. 8.3). Diese Datei enthält weitere Daten, die den Stand der Überprüfung zeigen. Das Programm 4 kontrolliert den Stand der Überprüfung und der ggf. notwendigen Mängelbeseitigung. So wird z.B. dem Betreiber der ordnungsgemäße Abschluss der Kontrolle oder eine Mahnung mit erneuter Fristsetzung mitgeteilt. Nach Abschluss der Überprüfung der Anlage wird das neue Prüfdatum in die Datei 1 geschrieben. Erweiterungen dieses Ansatzes sind denkbar. So könnte in Datei 1 ein Verweis auf eine Prüfakte mit dem analogen Prüfbericht
Datenorganisation
287
vorhanden sein. In einem späteren Entwicklungsstadium des Systems könnte eine Verbindung zu dem gescannten Prüfbericht vorliegen, der dann in digitaler Form auf einem Datenträger gespeichert ist. So entsteht ein zeitlich mit den Aufgaben gewachsenes Dateisystem mit einem gekoppelten Programmsystem. Datei 1 Anlagen
Datei 2 Betreiber
Datei 3 Wartung
Standort (Anschrift) Betreiber (Code-Nr.) Lagermedium Inhaltsart Inhaltsmenge Anlagentyp Hersteller Baujahr Datum letzter Prüfung Zustand
Name Anschrift Code-Nr.
Standort der Anlage Betreiber der Anlage (Code-Nr.) Fälligkeit der Überprüfung Mängel Beseitigung der Mängel
Abb. 8.3: Dateistruktur zur Beispielanwendung des Dateisystems in einer Umweltbehörde
Zwar liegt in Teilen ein durchaus sinnvoller Ansatz vor, allerdings enthält das Gesamtsystem Schwachstellen. Die einzelnen Vorgänge werden über verschiedene Programme abgewickelt, die sich zeitlich überlagern können. Somit wird jedem einzelnen Programm eine Kopie der benötigten Dateien 1 bis 3 für die Bearbeitungsdauer zur Verfügung gestellt. Daher müssen die Daten mehrfach, also redundant vorhanden sein. Dann sind aber nicht immer aktuelle Daten verfügbar. So kann in der Wartungsdatei noch auf den alten Betreiber einer Anlage verwiesen werden, während das Programm 2 schon den Neubetreiber erfasst und den Altbetreiber gelöscht hat. Ein weiteres Problem kann sich dadurch ergeben, dass die Programme zu unterschiedlichen Zeiten und von verschiedenen Programmierern erstellt wurden. Beim Aufbau der einzelnen Datenbestände wurde bzw. konnte nicht unbedingt auf eine einheitliche Formatierung geachtet werden. Jeder Programmierer wird die für ihn geeignete Formatierung gewählt haben. Eine hinreichende Abstimmung konnte nicht erfolgen. Aus einer derartigen Organisationsform ergeben sich mehrere Probleme, die für ein Dateisystem charakteristisch sind (vgl. Vossen 2000, S. 6): - Zwischen den einzelnen Dateien kann sich eine hohe Redundanz ergeben, die sich aus der Mehrfachspeicherung gleicher Daten ergibt (parallele Datenbestände). Im obigen Beispiel ist der Standort der Anlagen sowohl in Datei 1 als auch in Datei 3 gespeichert. - Da kein Vielfach- bzw. Mehrbenutzerzugriff auf eine einzelne Datei möglich ist, besteht die Gefahr der Inkonsistenz bei der Verarbeitung „gleicher“ Datenbestände. So können einzelne Programme Dateien verändern, ohne dass diese Veränderungen von allen Programmen berücksichtigt werden. In dem obigen Beispiel verändert bei einem Betreiberwechsel einer Anlage das Programm 2 die Datei 1. Die Veränderungen werden aber nicht in die Wartungsdatei übernommen. Der ehemalige und nicht der aktuelle Betreiber erhält ggf. eine Mahnung. Das Arbeiten mit Duplikaten bedingt häufig, dass nicht immer aktuelle Dateien ausgewertet werden. Falls hingegen nur auf eine Datei zugegriffen
288
-
-
-
-
-
Datenorganisation und Datenbanksysteme
wird, können bei gleichzeitiger Bearbeitung die Änderungen des ersten Benutzers vom zweiten Benutzer überschrieben werden, der zuletzt die Daten eingibt. Der Verbund von Programm- und Dateisystem besitzt gegenüber veränderten Anforderungen und Anwendungen eine relativ große Inflexibilität. Hieraus resultieren recht hohe Entwicklungskosten. So sind neue Anforderungen wie z.B. im obigen Beispiel die Umsetzung neuer Verwaltungsvorschriften nur mit recht großem Aufwand zu realisieren. Häufig ist selbst bei geringfügigen Unterschieden ein neues Programm mit neuer Datei zu entwickeln, das nicht unbedingt direkt aus dem alten Programm abzuleiten ist. Die geringe Strukturflexibilität zeigt sich auch in einer aufwändigen Programmwartung. So müssen bei Veränderungen an den bestehenden Dateien alle betreffenden Anwenderprogramme geändert werden (vgl. Umstellung von vierauf fünfstellige Postleitzahlen, sonstige Veränderungen von Namen oder Formaten). Neben einer ausführlichen Softwaredokumentation wird eine höhere Einarbeitungszeit der Programmierer notwendig. Der Zugriff auf die einzelnen Dateien kann nicht adäquat überwacht werden. So können sich gerade im Umgang mit sensiblen Daten (erhebliche) Datenschutzprobleme ergeben. Abgestufte Zugriffsrechte können nur schwer und aufwändig implementiert werden. Eine besondere Bedeutung spielt die Datensicherheit. Dateisysteme bieten allenfalls die Möglichkeit, in mehr oder weniger regelmäßigen Abständen die gesamten Daten zu archivieren. Im Fehlerfall kann dann eine Situation wiederhergestellt werden, die einen zurückliegenden Zustand rekonstruiert. Veränderungen, die seit der letzten Sicherung eingetreten sind, werden somit nicht berücksichtigt. Daher können Datenverluste nicht ausgeschlossen werden. Letztlich stellt sich die Frage der Durchsetzung und Einhaltung von Standards. So sind einheitliche Datenformate gerade für den Datenaustausch z.B. zwischen verschiedenen Behörden und Rechnersystemen wesentlich.
Die aufgezeigten Probleme führten fast zwangsläufig dazu, dass Datenbanksysteme entwickelt wurden. Sie weisen u.a. effiziente Möglichkeiten der Speicherung, der Verwaltung oder der Datenmanipulation auf und bieten zudem einen schnellen Zugriff auf unterschiedliche Teilmengen großer Datenbestände. 8.1.3
Datenbanksysteme
Ein Datenbanksystem (DBS) besteht aus dem Datenbankverwaltungssystem oder Datenbankmanagementsystem (DBMS) und (mehreren) Datenbanken (DB, auch Datenbasen). Das Datenbankmanagementsystem dient als Schnittstelle zwischen Datenbank und den Benutzern und gewährleistet, dass man in effizienter Weise und unter zentralisierter Kontrolle auf die Daten zugreifen kann. Eine Datensicherheit ist bestmöglich gegeben, die Sicherheit gegenüber Hard- und Softwarefehlern bietet und die einzelnen Anwendern unterschiedliche Zugriffsberechtigungen ermöglicht. So werden (nur) individuelle Sichten auf die Datenbestände freigegeben. Anwenderprogramme, die u.a. mit Hilfe von Werkzeugen des Datenbankmanagementsystems (z.B. Eingabeeditor, Abfragemakros, Formularassistent)
Datenorganisation
289
entwickelt werden, erlauben einen effizienten Zugriff auf die Daten, ohne dass deren eigentliche Realisation (interne Datenstruktur) bekannt ist. Allerdings ergibt sich hieraus der Nachteil, dass der Export von Daten vom Hersteller der Software bzw. von Datenschnittstellen abhängig ist. Insgesamt stellt jedoch das Datenbankmanagementsystem eine Vielzahl von effizienten Möglichkeiten für die Verwaltung, Bearbeitung und Auswertung von Datenbeständen der Datenbank bereit.
Datenbank DB D1 D2 D3 ...
Datenbank- Anwenderprogramm 1 verwaltungssystem Anwenderprogramm 2 DBMS Anwenderprogramm ...
Abb. 8.4: Datenbank und Datenbankmanagementsystem
Eine Datenbank ist eine strukturierte Sammlung von Daten, die einen speziellen Ausschnitt der realen Welt vereinfacht und schematisiert repräsentiert. Die Daten stehen dabei unter logischen Gesichtspunkten miteinander in Beziehung. Zumeist umfasst die Datenbasis daher mehrere miteinander verknüpfte Dateien. Aus den Unzulänglichkeiten der Dateisysteme ergeben sich fast direkt die Zielvorgaben für die zu fordernden Eigenschaften von Datenbanksystemen. Generell müssen sämtliche Daten nach beliebigen Merkmalen oder Merkmalskombinationen ausgewertet werden können, wobei relativ einfache Abfragemöglichkeiten mit günstigen Auswertezeiten bestehen sollten. Ebenso gilt grundsätzlich, dass einzelnen Benutzergruppen unterschiedliche Nutzungsrechte eingeräumt werden können, so dass einzelne Datenbestände nicht sämtlichen Nutzern zugänglich sein müssen. Die weiteren Anforderungen an ein Datenbanksystem sind im einzelnen: - Unabhängigkeit der Daten: In einem Datenbanksystem muss die enge Verknüpfung und Abhängigkeit zwischen den Daten und den Anwenderprogrammen aufgelöst werden. Dies ist ein wesentlicher Unterschied zu einem Dateisystem. Ferner ist die logische Datenorganisation von der physischen Datenorganisation zu trennen. Dem Anwender müssen lediglich die logischen Datenstrukturen bekannt sein. Das Verwaltungssystem organisiert das Hinzufügen, das Löschen, das Ändern oder das Suchen von Datensätzen. Schließlich muss eine Unabhängigkeit von den Daten bzw. Informationen auf der Ebene des Computersystems bestehen. So muss das Verwaltungssystem zusammen mit dem Betriebssystem vor allem die Verwaltung der Peripheriegeräte und der physischen Speicher steuern. - Redundanzfreiheit der Daten: Sämtliche Informationen sollten möglichst nur einmal gespeichert werden. So wird ein optimaler Einsatz der Hardwareressourcen gewährleistet. Vor allem wird aber die Datenpflege erleichtert, so dass die Gefahr von Dateninkonsistenzen verringert wird.
290
Datenorganisation und Datenbanksysteme
- Optimierung der Benutzerschnittstelle: Eine leistungsfähige Benutzerschnittstelle und optimale Werkzeuge sollen eine einfache, aber auch umfassende Handhabung der Datenbestände und deren Auswertung ermöglichen. Dies beinhaltet vor allem die Benutzung im interaktiven Betrieb auf der Basis einer einfachen Programmsteuerung (z.B. Menüsteuerung, Dateneingabe über Masken mit Überprüfung von Eingabefehlern, Assistenten zur Erstellung von Eingabemasken und Auswerteprogrammen). Ferner sind leistungsfähige Auswertewerkzeuge (z.B. Such- und Sortierverfahren) zu fordern. - Datenintegrität: Bei der Konzeption des Datenmodells müssen Inkonsistenzen in den Daten vermieden werden. So müssen die z.B. in einem relationalen Datenbanksystem in mehreren Tabellen gespeicherten Daten vollständig, korrekt und somit insgesamt widerspruchsfrei sein (vgl. Kap. 8.5). Veränderungen der Daten müssen bei Integritätsverletzungen abgelehnt werden. - Datensicherheit: Das Datenbankmanagementsystem sollte einen Schutz vor allem gegenüber Hardwareausfällen bieten. So sollte nach einem Störfall der (korrekte) Anfangszustand wieder hergestellt werden können (sog. Recoveryfunktionen). Ferner sollte ein Datenbankmanagementsystem Schutz vor Fehlern von Anwenderprogrammen bieten (z.B. Programmabsturz aufgrund fehlender oder fehlerhafter Daten). - Datenschutz: Die in den Datenbasen gespeicherten Informationen müssen gegenüber einem unbefugten Zugriff geschützt werden. Einzelnen Benutzergruppen müssen unterschiedliche Nutzungsrechte auf Teilmengen der Daten eingeräumt werden können. So können gegenüber einem Vollzugriff mit Änderungsund Löschmöglichkeiten auch Nur-Lese-Optionen eingerichtet werden, die nur eine Abfrage gestatten. - Flexibilität: Hinsichtlich Modifikation und Pflege der Daten sowie der Auswerteprogramme sollte eine größtmögliche Flexibilität bestehen. Die Anwenderprogramme sollten neuen Anforderungen rasch angepasst werden können. - Vielfach- bzw. Mehrbenutzerzugriff: Das Datenbankverwaltungsprogramm sollte einen mehrfachen, d.h. gleichzeitigen Zugriff auf die Daten und die Anwenderprogramme zulassen (unter Beachtung der jeweiligen Zugriffsrechte). - Gutes Antwortzeitverhalten: Das Datenbankverwaltungsprogramm sollte die Daten rasch bereitstellen, d.h. Abfragen sowie Änderungen des Datenbestands schnell durchführen. - Einhaltung von Standards: Die Standards betreffen vor allem den Datenaustausch über standardisierte Datenschnittstellen. Ferner sollten die Auswertewerkzeuge einem einheitlichen Standard entsprechen. So sollte eine standardisierte Datenbanksprache implementiert sein. Viele dieser Anforderungen und insbesondere die technischen Bedingungen werden inzwischen durch leistungsfähige Datenbankmanagementsysteme erfüllt. Allerdings sind bei einer konkreten Anwendung nicht sämtliche Anforderungen gleichermaßen zu gewährleisten. Zumeist muss ein angemessener Kompromiss gefunden werden. Am häufigsten stehen Datenredundanz und Flexibilität oder Effizienz in Konflikt. So ist ein vollständig normalisiertes relationales Datenbanksystem redundanzfrei, aber u.U. komplex oder hinsichtlich der Verknüpfungs-
Datenorganisation
291
strukturen unübersichtlich (vgl. Kap. 8.3.2). Daher ist in der Realität nur eine redundanzarme und nicht (zwingend) redundanzfreie Speicherung anzustreben. 8.1.4
Datensichten in einem Datenbanksystem
Die Daten in einem Datenbanksystem spiegeln vereinfacht oder schematisiert einen Ausschnitt der realen Welt wider. Ausgehend von der Realität ist vor allem zu fragen, wie ein Abbild auf die Datenbasis erfolgen und wie die Fragestellungen durch die Auswertemöglichkeiten des Datenbankverwaltungssystems bearbeitet werden können. Je nach Standpunkt und Aufgabe eines Bearbeiters bestehen drei unterschiedliche Sichtweisen auf die Daten und Abstraktionsebenen der Abbildung bzw. Modellierung. So werden nach dem 1975 vom ANSI eingeführten Architekturmodell drei Sichten auf den Datenbestand unterschieden (sog. ANSISPARC-Architektur, SPARC = Standards Planning and Requirements Committee des ANSI, vgl. Heuer u. Saake 2000 S. 31). Den Datensichten entsprechen die drei Ebenen oder Schichten des Datenbankentwurfs (vgl. Abb. 8.5: - die externe Datensicht (-ebene) - die konzeptuelle Datensicht (-ebene) - die interne Datensicht (-ebene). Das zugehörige Datenbankschema legt die Struktur bzw. beim objektorientierten Datenmodell zusätzlich auch das Verhalten der zu speichernden Objekte fest. Zur Beschreibung der drei unterschiedlichen Sichtweisen oder Abstraktionsebenen bestehen jeweils verschiedene Formalismen. Während für ein Datenbanksystem jeweils nur ein internes und nur ein konzeptuelles Schema vorliegt, können sehr verschiedene Benutzersichten auf einen einzigen Datenbestand existieren. Externe Sicht
Benutzersicht 1
Benutzersicht 2
Benutzersicht 3
Anwendung 1
Anwendung 2
Anwendung 3
Konzeptuelle Sicht
Logische Datenstruktur
Interne Sicht
Physische Datenorganisation
Abb. 8.5: Datensichten in einem Datenbanksystem
Die externe Ebene bzw. Sicht (Benutzersicht) umfasst sämtliche individuelle Sichten der Anwender auf die Daten. Dabei werden diese Sichten jeweils durch eine eigene Datenstruktur (externes Datenschema) beschrieben, die genau den Teil der (Gesamt-)Sicht umfasst, den ein Anwender benötigt oder auf den er einen Zugriff haben soll. Das Datenbankmanagementsystem stellt Funktionen zur Auswertung dieses Ausschnitts aus dem Gesamtdatenbestand bereit. Die Anwender
292
Datenorganisation und Datenbanksysteme
kennen in der Regel weder die logische Struktur des Datenbestandes noch die technische Realisation der Datenspeicherung. Die Benutzersicht muss dabei zwei Blickrichtungen berücksichtigen. Zum einen ist festzulegen, welche Daten in welcher Skalierung und Genauigkeit für eine fachliche Fragestellung benötigt werden. Zum anderen benötigt der Anwender je nach Fragestellung und Anwendung spezifische Zugangsberechtigungen und Auswertemöglichkeiten. Die konzeptuelle Ebene bzw. Sicht entwickelt für den betrachteten Ausschnitt der realen Welt und für die zu lösende Fragestellung eine logische Datenorganisation, die unabhängig von Hard- und Software und insbesondere von physikalischen Speichermethoden ist. Die Hauptaufgabe ist, den Datenbestand zu strukturieren und zu organisieren. Im konzeptuellen Schema wird die logische Gesamtsicht aller Daten in der Datenbank und ihrer Beziehungen untereinander dargestellt. Auf dieser Ebene sind auch die fachlichen Algorithmen oder Methoden festzulegen, die zur Lösung der durch die externe Sicht vorgegebenen Aufgabenstellung benötigt werden. Die interne Ebene bzw. Sicht befasst sich u.a. mit Art und Aufbau der Datenstrukturen (insbesondere deren Definition durch Datentypen), mit speziellen Zugriffsmechanismen oder mit der Anordnung der Datensätze auf den Datenträgern (physische Datenorganisation). Somit liegt diese Ebene am nächsten zum physikalischen Speicher. Allerdings werden die Daten schon als Datensätze (interne Records) betrachtet. 8.1.5
Datenmodelle
Für den Entwurf eines Datenbanksystems ist die konzeptuelle Ebene und die Entwicklung eines konzeptuellen Datenschemas wesentlich. Hierdurch werden je nach Fragestellung die benötigte Informationsmenge des betrachteten Ausschnitts der realen Welt sowie die logische Datenstruktur des Datenbanksystems beschrieben. Zur Umsetzung des konzeptuellen Schemas bestehen mehrere konkrete Datenmodelle, für die Datenbanksysteme, d.h. Softwarelösungen, kommerziell verfügbar sind: Das hierarchische Datenmodell (z.B. IMS von IBM) und das Netzwerkdatenmodell (z.B. UDS von Siemens) werden auch als datensatzorientierte (recordorientierte) Datenmodelle bezeichnet. Beim hierarchischen Datenmodell, das eines der ältesten in Datenbanksystemen verwendeten Datenmodelle ist, stehen die zu modellierenden Dinge der realen Welt in einem hierarchischen Abhängigkeitsverhältnis zueinander (Vater-Sohn-Beziehung). Sämtliche Beziehungen werden durch eine hierarchische Baumstruktur dargestellt. Für einen untergeordneten Gegenstand (Sohn) besteht höchstens ein übergeordneter Gegenstand (Vater), einzig der oberste Gegenstand besitzt keinen Vorgänger. Das Modell basiert auf dem Traversieren von Bäumen (vgl. Kap. 3.3.4.4). Ein zentrales Problem ergibt sich dadurch, dass nur 1:1 oder 1:n Beziehungen dargestellt werden können. Eine m:n Beziehung muss also in m einzelne 1:n Beziehungen zerlegt werden, was erhebliche Redundanzen mit sich bringt (zu den Beziehungstypen vgl. Kap. 8.2.3).
Datenbankentwurf mit ER-Modellierung
293
Das Netzwerk-Datenmodell ist eine Verallgemeinerung des hierarchischen Datenmodells. Hierbei dürfen aber zu einem Objekt bzw. Entity (zum Begriff vgl. Kap. 8.2.2) mehrere Vorgänger bestehen. Insbesondere lassen sich hierbei auch n:m Beziehungen darstellen. Der Datenbestand besteht beim Netzwerkmodell aus verketteten Datensätzen, die ein Netzwerk bilden. Das Modell basiert auf der Navigation in Graphen. Für das Netzwerk-Datenmodell wurde bereits in den 70er Jahren ein Standardisierungsrahmen geschaffen (Empfehlung der Conference on Data Systems Language, CODASYL, daher auch Codasyl-Datenmodell). Während das hierarchische Modell und das Netzwerkmodell heute nur noch historische Bedeutung haben und hier unberücksichtigt bleiben, bilden relationale Datenmodelle derzeit die wichtigste Form in kommerziellen Datenbanksystemen (z.B. Access von Microsoft, DB2 von IBM, Oracle von Oracle Corporation, vgl. Weiterentwicklungen zu objektrelationalen Datenbanksystemen in Kap. 8.7). Sie sind seit Anfang der 1980er Jahre auf dem Markt, sie sind insbesondere in Geoinformationssystemen integriert und stellen dort den zentralen Bestandteil zur Verwaltung der Thematik dar, d.h. der Attribute der Geoobjekte. Seit einigen Jahren sind auch objektorientierte Datenmodelle (z.B. 02 von 02 Technology) in objektorientierten Datenbanksystemen implementiert (vgl. Kap. 8.6 u. 8.7). Sie haben allerdings auch in der Geoinformatik noch keine kommerzielle Bedeutung erlangen können. Dies ist u.a. darauf zurückzuführen, dass Realisierungen technisch noch nicht überzeugen und ausgereifte Systeme gerade für einen Massenmarkt nicht vorhanden sind. Demgegenüber sind relationale Systeme sehr leistungsfähig und breit eingeführt (vgl. Kap. 8.6.1).
8.2 8.2.1
Datenbankentwurf mit ER-Modellierung Modellierungskonzepte
Der Erarbeitung eines Anforderungsprofils einer Datenbankanwendung schließt sich der konzeptuelle Entwurf an. In dieser gerade für die Anwender wichtigen Phase wird die Informationsstruktur auf einer konzeptuellen, d.h. anwenderorientierten Ebene definiert. Am häufigsten wird zur Modellierung auf der konzeptuellen Ebene das sog. Entity-Relationship-Modell (ER-Modell) verwendet, das als abstraktes Modell eines Ausschnitts der realen Welt zu verstehen ist. Ein ERModell ist dabei aus (mindestens) drei unterschiedlichen Elementen aufgebaut: aus den sog. Entities (d.h. den Gegenständen), den Attributen und den sog. Relationships (d.h. den Beziehungen zwischen den Gegenständen, vgl. eingehender Kap. 8.2.3). Hierdurch und insbesondere durch die graphische Veranschaulichung in Form sog. Entity-Relationship-Diagramme (ER-Diagramme) wird ein Datenmodell entwickelt, das vor der technischen Umsetzung zunächst alle wichtigen Datenstrukturen offenlegt, die bei einer schnellen und eher unbedarften Datenbankprogrammierung häufig vernachlässigt werden. Somit wird unterstützt, dass die angeführten Zielvorgaben für Datenbanksysteme erreicht werden.
294
Datenorganisation und Datenbanksysteme
Häufig wird betont, dass der Entwurfsschritt mittels ER-Modellierung unabhängig vom eingesetzten Datenbanksystem erfolgt. Erst im nachfolgenden Implementierungsschritt wird das Datenmodell des konkreten Datenbankmanagementsystems berücksichtigt. So gehört die ER-Modellierung (auch) zu den allgemeinen Methoden der Systemanalyse (vgl. Kap. 3.6.2). Allerdings wird in der Praxis durch eine ER-Modellierung das spätere Datenmodell faktisch vorgegeben, da Entity-Relationship-Modelle sich hervorragend zur Umsetzung in relationale Datenmodelle und relationale Datenbanksysteme eignen. Zwar ist prinzipiell auch eine Übertragung auf andere Datenmodelle möglich. Jedoch entstehen gerade beim Übergang zu objektorientierten Datenbanksystemen Brüche. So wird bei der Entity-Relationship-Modellierung die statische Struktur der verwandten Daten dargestellt. Diese klassische Modellierung führt in der Regel zu Tabellen. Demgegenüber gehen objektorientierte (Datenbank-)Systeme von einer gänzlich anderen Sichtweise aus (vgl. Kap. 3.6.4 u. 8.6). Zur Erstellung objektorientierter Datenbanksysteme ist eine durchgängig objektorientierte Modellierung einzusetzen. Ein Anwendungsbeispiel aus einer Umweltbehörde dient hier, die Begriffe und Konzepte zu verdeutlichen: Ein Brunnenkataster, das zur Überwachung von Trinkwasserbrunnen und insbesondere von privaten Hausbrunnen einer Gemeinde dient und deren Wasserproben von verschiedenen Laboren untersucht werden, soll mit Hilfe eines Datenbanksystems modelliert werden (vgl. Kap. 8.2.4). 8.2.2
Entities und Attribute
Entities (engl. Wesen, Ding) sind wohlunterscheidbare Objekte der realen Welt (z.B. ein konkreter Trinkwasserbrunnen, die Messstation Soestwarte, Person Herr Müller). Die einzelnen Entities, die ähnlich, vergleichbar oder zusammengehörig sind (z.B. alle Trinkwasserbrunnen einer Gemeinde), werden zu einem Entity-Typ (auch Entity-Set) zusammengefasst. Entities besitzen Eigenschaften oder Attribute (z.B. Name eines Gewerbegebietes, Nitratgehalt einer Wasserprobe), wobei die konkreten Merkmalsausprägungen als Attributwerte (kurz Werte, engl. values) bezeichnet werden. Der Wertebereich oder die Domäne (engl. domain oder value-set) umfasst sämtliche möglichen oder zugelassenen Merkmalsausprägungen. Die Gegenstände der Beispielaufgabe lassen sich dann mit Hilfe der Datenbankterminologie beschreiben: Entity-Typ Entities Attribute Domain Attributwerte
Trinkwasserbrunnen der Gemeinde A Brunnen im Geisterholz, Brunnen von Landwirt L BrunnenName, X-Koordinate, Nitratgehalt in mg Integerzahlen der Länge fünf, String der Länge 20 12345, Geisterholzbrunnen
Der Name eines Entity-Typs sowie die zugehörigen Attribute sind zeitinvariant. Demgegenüber sind der Inhalt eines Entity-Typs und die einzelnen Attributwerte zeitabhängig. Attribute können einwertig, mehrwertig sowie zusammengesetzt sein. Anstelle von einwertigen spricht man auch von atomaren Attributen, die nicht weiter zerlegbare Werte besitzen. So kann im vorliegenden Beispiel ein
Datenbankentwurf mit ER-Modellierung
295
Brunnen mehrere Besitzer aufweisen (mehrwertiges Attribut). Auch die Adresse ist im Normalfall ein zusammengesetztes Attribut aus z.B. dem Namen der Stadt, der Straße, der Hausnummer sowie der Postleitzahl. In der Abbildung 8.6 ist die „Adresse“ eines Brunnens durch seine Gauß-Krüger-Koordinaten und durch den Namen der Standortgemeinde wiedergegeben. Im ER-Diagramm werden der Name eines Entity-Typs als Rechteck sowie die Attribute als Kreise oder Ellipsen dargestellt, die durch ungerichtete Kanten mit dem zugehörigen Rechteck verbunden werden. Doppelkreise bzw. Doppelellipsen kennzeichnen mehrwertige Attribute, ungerichtete Kanten verbinden zusammengesetzte Attribute mit ihren Komponenten.
Brunnen Adresse Name Besitzer
Stadt
Koordinaten
Abb. 8.6: Entity-Typ mit Attributen
8.2.3
Relationships
Verschiedene Entities können untereinander Beziehungen (engl. relationships) aufweisen. In der vorliegenden Beispielanwendung besteht z.B. eine Beziehung zwischen den Brunnen und den Analysewerten: Die Brunnen besitzen spezielle Analysewerte. Von Interesse sind beim konzeptuellen Datenbankentwurf weniger die Beziehungen zwischen den Attributen einzelner Entities als vielmehr diejenigen zwischen Entity-Typen. So wird die Menge der Beziehungen zwischen EntityTypen als Relationship-Typ bezeichnet. Analog zu den Überlegungen hinsichtlich Entities und deren Attribute sind der Name einer Beziehung sowie deren Beschreibung zeitinvariant, während deren konkreter Inhalt (z.B. „Wasserprobe von Brunnen 3 weist 50 mg Nitrat auf“) zeitabhängig ist. Im Entity-Relationship-Diagramm wird eine Beziehung durch eine Raute dargestellt, die durch Kanten mit den zugehörigen Entity-Typen verbunden ist (vgl. Abb. 8.7). Entsprechende Beschriftungen verdeutlichen den Beziehungstyp.
1 liefern n
Abb. 8.7: Darstellung einer Beziehung in einem Entity-Relationship-Diagramm
296
Datenorganisation und Datenbanksysteme
Eine konkrete Beziehung kann einem Relationship-Typ oder Beziehungstyp zugeordnet werden. Seien A und B Entity-Typen und R eine Relation R(a,b), Dann gilt (vgl. Abb. 8.8): 1:1 - Typ:
one-to-one-Relationship Zu jedem a aus A gibt es genau ein b aus B mit R(a,b) [und umgekehrt]. 1:n - Typ: one-to-many-Relationship Zu jedem a aus A gibt es ein oder mehrere bi aus B mit R(a,bi). n:m - Typ: many-to-many-Relationship Zu jedem a aus A gibt es ein oder mehrere bi aus B mit R(a,bi) und zu jedem b aus B gibt es ein oder mehrere aj aus B mit R(aj,b). 1 : 1 Beziehung Entity-Typ A
Entity-Typ B
Entity-Typ A
Entity-Typ B
Entity-Typ A
Entity-Typ B
1 : n Beziehung
n : m Beziehung
Abb. 8.8: Beziehungstypen (Relationship-Typen)
Der Beziehungstyp bzw. die Komplexität oder Kardinalität der Beziehung geben an, wie viele Entities des zweiten Entity-Sets mit einem bestimmten Entity des ersten Entity-Sets in Beziehung stehen können (bzw. dürfen oder müssen). Beziehungen können auch eigene Attribute besitzen, die Eigenschaften der Beziehung ausdrücken. In der Beispielaufgabe sollen die Brunnen von Laboren überprüft werden, wobei die Beziehung „überprüfen“ z.B. durch den Zeitraum der Zuständigkeit näher beschrieben werden kann. Beziehungen können mehr als zweistellig sein. So wäre z.B. die dreistellige Beziehung „liefern“ zwischen Probennehmer, Proben und Labor denkbar. Probennehmer nehmen Proben von einem Brunnen und liefern sie an ein Labor. Dabei muss (eigentlich) zugelassen werden, dass ein Probennehmer mehrere Proben (eines Brunnens) an verschiedene Labore ausliefert, die sich auf besondere Analyseverfahren spezialisiert haben. Dieser komplexere Fall bleibt aber zumeist aus Vereinfachungsgründen ausgeklammert. Somit erfolgt in der Regel eine Beschränkung auf die besonders wichtigen zweistelligen Beziehungen, mit denen sich im Übrigen mehrstellige Beziehungen auflösen lassen.
Datenbankentwurf mit ER-Modellierung
8.2.4
297
Konzeptueller Datenbankentwurf an einem Beispiel
Anhand eines Anwendungsbeispiels soll der konzeptuelle Datenbankentwurf mit Hilfe von Entity-Relationship-Diagrammen aufgezeigt werden. In einer Stadt wird ein Kataster der im Stadtgebiet vorhandenen Brunnen aufgebaut, in das neue, aber auch vorhandene Daten übernommen werden sollen. In regelmäßigen, aber von Brunnen zu Brunnen unterschiedlichen, zeitlichen Abständen werden Wasserproben entnommen, die in Laboren ausgewertet werden. Die Wasserprobe eines Brunnens wird (nur) von einem Labor analysiert. Die einzelnen Brunnen werden jeweils auf unterschiedliche Parameter wie z.B. Nitrat- oder Cadmiumgehalt untersucht. Der Analyseumfang, d.h. die Zahl der für eine Wasserprobe durchzuführenden Analysen, und dann die Zahl der ermittelten Werte können für zwei Brunnen durchaus unterschiedlich groß sein. Seit Bestehen des Katasters können die Brunnen nacheinander von mehreren Laboren betreut worden sein. Die Zuständigkeit einzelner Labore könnte somit gewechselt haben. Ferner sind einzelne Labore erst zwischenzeitlich entstanden, manche sind geschlossen worden. Obschon eine recht komplexe Aufgabenstellung vorliegt, sind (hier) Vereinfachungen notwendig. So werden nicht sämtliche denkbaren Strukturen dargestellt: Für die Analytik eines Brunnens ist jeweils nur ein Labor zuständig. Mehr als zweistellige Beziehungen bestehen nicht. Teilmengenbeziehungen werden nicht berücksichtigt. Ebenfalls bleiben Konzepte, die sich mit den Begriffen Normalformen oder Schlüsselattribute verbinden, noch ausgeklammert (vgl. Kap. 8.3.2). Trotz dieser Vereinfachungen liegen hier Grundelemente eines Datenbankentwurfs vor, die (beliebig) auf andere Fragestellungen übertragen und dann ausgeweitet werden können (z.B. Altlastenkataster, Biotopkataster). Der Entwurf des Entity-Relationship-Diagramms geht schrittweise vor, wobei das Prinzip der schrittweisen Verfeinerung umgesetzt wird (vgl. Kap. 3.6.2, zum Ergebnis vgl. Abb. 8.9): Im ersten Schritt erfolgt lediglich die Definition der Entity-Typen. Das Diagramm besteht nur aus Rechtecken für die Entity-Typen „Brunnen“, „Labore“, „Analysewerte“ und „Analyseverfahren“. Im zweiten Schritt kommen die Attribute der Entity-Typen hinzu. Jetzt werden dem Diagramm die Ellipsen mit den Attributnamen hinzugefügt. Aus Vereinfachungsgründen werden allerdings in der Abbildung 8.9 die Attribute nur unvollständig bzw. nach Datensegmenten gruppiert aufgeführt. So gehören z.B. zum Entity-Typ „Brunnen“ die Attribute BrunnenID (eindeutiger Identifikator), BrunnenName, Name der zugehörigen TK25, X-Koordinate des Standorts, Y-Koordinate des Standorts, Stadt, PLZ oder auch der Rohr-/Schachtdurchmesser des Brunnens. Der dritte Schritt führt Beziehungen ein. In das Diagramm werden Verbindungslinien zwischen den entsprechenden Entity-Typen eingezeichnet. Im vierten Schritt werden Attribute an die Beziehungen angefügt. Im vorliegenden Beispiel ist nur die Beziehung zwischen „Brunnen“ und „Laboren“ mit Attributen zu versehen, die die Zuständigkeiten modellieren. Im fünften und letzten Schritt werden lediglich noch die Mengenbeziehungen, d.h. die Kardinalitäten der Beziehungen, eingefügt.
298
Datenorganisation und Datenbanksysteme
erfordern
m
1
Brunnen m
B_Name
besitzen B_Adresse
prüfen von
bis
1 durchführen
m
L_Name
n
liefern
L_Adresse
m
n 1
P_Einheit
n
zugehören
Analyseverfahren
Verfahren
n
Labore
P_Name
Datum
n
Analysewerte
P_Name
Wert
Abb. 8.9: Entity-Relationship Diagramm der Beispielaufgabe
Das Entity-Relationship-Modell zeigt für die Beispielaufgabe: - Zwischen den Entity-Typen „Brunnen“ und „Analysewerte“ besteht eine 1:nBeziehung. Ein Brunnen besitzt n-Analysewerte, aber ein Analysewert gehört zu genau einem Brunnen. - Die n:m-Beziehung zwischen den Entity-Typen „Brunnen“ und „Analyseverfahren“ definiert den Umfang und die Art der für einen Brunnen durchzuführenden Analyseverfahren. - Die n:1-Beziehung zwischen den Entity-Typen „Brunnen“ und „Labore“ definiert die Zuständigkeiten, welches Labor für welchen Brunnen die Analyseverfahren durchführt. - Die n:m-Beziehung zwischen den Entity-Typen „Labore“ und „Analysewerte“ stellt sicher, dass das Labor zu identifizieren ist, das die Analysen durchgeführt hat. - Die n:m-Beziehung zwischen den Entity-Typen „Labore“ und „Analyseverfahren“ wird erst dann notwendig, falls unterschiedliche Methoden und Geräte für ein- und dieselbe Analyse verwandt werden, falls also die Labore unterschiedliche Verfahren für die Bestimmung eines Parameters verwenden. - Die 1:n-Beziehung zwischen den Entity-Typen „Analyseverfahren“ und „Analysewerte“ erläutert die Parameternamen und somit die Analysewerte. Falls bei den Analyseverfahren zu einem Parameter noch der zugehörige Grenzwert abgespeichert ist, kann eine Bewertung eines einzelnen Analysewertes erfolgen.
Das relationale Datenmodell
8.3 8.3.1
299
Das relationale Datenmodell Aufbau einer relationalen Datenbasis
Das relationale Datenmodell, das auf einem theoretischen Fundament von Codd (vgl. Codd 1970, 1990) aufbaut, ist seit Mitte der 80er Jahre zum Standard kommerzieller Datenbankverwaltungssysteme geworden. Grundlegend ist die Umsetzung einer Relation, die hier die einzig mögliche Datenstruktur liefert. Formal ist eine n-stellige Relation R eine Teilmenge der Produktmenge A1 x A2 x A3 x ... x An (hier: A1, ..., An Attribute). Dabei wird einem Datenbanksystem nur die Produktmenge der Wertebereiche der n verschiedenen Attribute zugrunde gelegt: R = { (a1,a2, ..., an) | a1 A1, a2 A2, ..., an An} A1 x A2 x A3 x ... x An Ein Tupel (b1,b2, ..., bn) von n Attributwerten beschreibt genau ein Entity. Eine derartige Relation kann anschaulich durch eine zweidimensionale Tabelle dargestellt werden. Beim relationalen Datenmodell wird also der gesamte Datenbestand durch einfache Tabellen verwaltet. Hierbei entspricht eine Relation bzw. eine Tabelle einem Entity-Typ, eine Spalte einer Tabelle definiert ein Attribut, eine Zeile einer Tabelle beschreibt ein Entity und entspricht einem logischen Datensatz. Ein Attribut oder eine Attributkombination dient zur eindeutigen Identifizierung eines Entities, so dass niemals zwei identische Reihen bestehen können. Die Reihenfolge der Zeilen und Spalten ist beliebig. Die Tabellen 8.1 und 8.2, die aus der vorliegenden Aufgabe entwickelt werden können, verdeutlichen die Prinzipien. Die Tabellen beschreiben die Lage und Anschrift der Brunnen und der Labore. Ferner enthält die Tabelle 8.1 Informationen, welches der Labore für die Brunnen zuständig ist. Die Beispieltabellen benötigen Schlüsselfelder (vgl. Kap. 8.1.1). So müssen sich unter den Attributen besondere Merkmale befinden, die einzeln oder in Kombination miteinander eindeutig genau ein Entity, d.h. beim relationalen Datenmodell eine Tabellenzeile, kennzeichnen. Identifikationsschlüssel sind das Attribut „B-Nr.“ in Tabelle 8.1 sowie das Attribut „L-ID“ in Tabelle 8.2. Das Attribut „Labor-Nr.“ ist ein Fremdschlüssel in Tabelle 8.1 (Identifikationsschlüssel in Tab. 8.2). Tabelle 8.1: Brunnen B-Nr.
Lage
B-Adresse
... 33 2 4 1314 1315 2903
... 10,44 12,43 14,33 13,35 13,36 11,42
... Astadt, Xstrasse Astadt
B-Name Geisterholz Faulwasser Blautobel
Fuchs
Labor-Nr.
L-Name
... 27 28 29 27 27 28
... Aqua-pro Wassermann R-Tec Aqua-pro Aqua-pro Wassermann
300
Datenorganisation und Datenbanksysteme
Tabelle 8.2: Labore L-ID
L-Name
L-Adresse
Telefon
27 28 29
Aqua-pro Wassermann R-Tec
Astadt Zweg 3 Astadt Astrasse 27 Bstadt Xweg 19
0123-7711 0123-4567 0321-8899
Die Identifikationsschlüssel mehrerer Tabellen in einer relationalen Datenbank haben neben der eindeutigen Zugriffsmöglichkeit auf ein Entity, d.h. auf eine Tabellenzeile, eine weitere wichtige Funktion. Durch Schlüssel werden verschiedene Tabellen verknüpft, also letztlich die Beziehungen zwischen den EntityTypen des ER-Diagramms dargestellt. Die Realisation der Verknüpfungen erfolgt somit softwaretechnisch bzw. datentechnisch und nicht durch Angabe bzw. Verwaltung absoluter Speicheradressen. Hierdurch ergeben sich erhebliche Vorteile. Das Datenmodell ist somit invariant gegenüber Veränderungen der Systemumgebung (d.h. Veränderung der physikalischen Speicherstruktur, Betriebssystemwechsel). Unter Ausnutzung derartiger Verknüpfungen sind ein (gleichzeitiger) Zugriff auf mehrere Relationen (Tabellen) und somit eine sehr effiziente Auswertung der Daten möglich. Das relationale Datenmodell ist aus Anwendersicht erheblich einfacher und anschaulicher sowie flexibler als das hierarchische Modell oder das Netzwerkmodell. Die Verwendung von Tabellen oder das Denken in Tabellen ist die weitgehend übliche Form des Arbeitens mit Daten. Die Verknüpfung von Tabellen über Schlüsselfelder sowie auch das Einhalten von Normalformen (vgl. Kap. 8.3.2) erfolgen fast intuitiv oder sind rasch erlernbar. Insbesondere kann ein EntityRelationship-Diagramm direkt in das Relationenmodell transformiert werden (vgl. Kap. 8.3.3). Somit besteht eine enge Verzahnung zwischen dem konzeptuellen Datenbankentwurf und der programmtechnischen Umsetzung. Ferner hat sich für relationale Datenbankverwaltungssysteme eine Standarddatenbanksprache etabliert (SQL = Standard Query Language, vgl. Kap. 8.4.3). Insbesondere liegen für verschiedene Hardwareplattformen sehr viele kommerzielle Datenbanksysteme vor, die als technisch ausgereift gelten können. 8.3.2
Normalformen
Die Tabellen 8.1 und 8.2 verdeutlichen zwar schon Relationen und zeigen das Prinzip, wie Verknüpfungen zwischen Tabellen dargestellt werden können. Allerdings ist die Tabellenstruktur noch nicht optimal. Im Anwendungsfall ist eine Vermeidung von Datenredundanzen anzustreben. So entstehen durch mehrfache Speicherung oder suboptimale Strukturierung ein hoher Speicherbedarf sowie ein langsamerer Zugriff auf die Daten oder Auswertemöglichkeiten. Insbesondere können Probleme bei der Datenpflege auftreten (mehrfaches Update, Konsistenthalten der Daten). Da auch in der Tabelle 8.1 die Namen der Labore vorgehalten werden, treten nicht nur Redundanzen zwischen beiden Tabellen auf, vor allem sind in der
Das relationale Datenmodell
301
Tabelle 8.1 viele Angaben mehrfach vorhanden. Bei einer Namensänderung oder bei einer Geschäftsaufgabe eines Labors müsste die Aktualisierung mehrmals durchgeführt werden, was erhebliche Fehlerquellen beinhalten kann. Dabei ist in der Tabelle 8.1 nur der Laborname überflüssig, der über eine Verknüpfung mit der Tabelle 8.2 zu erhalten ist. Häufig sind aber viel mehr Merkmale redundant vorhanden. Vor dem Hintergrund derartiger Strukturierungsprobleme wurde das Konzept der Normalformen entwickelt, mit dem eine relationale Datenbank optimiert werden kann. Ein Hauptanliegen beim Entwurf einer relationalen Datenbank ist, die Tabellen zu normalisieren und dadurch Redundanzen zu verringern. Eine Relation befindet sich in erster Normalform, wenn jedes Attribut elementar oder atomar, d.h. unzerlegbar, ist. Die Relationen bzw. Tabellen 8.1 und 8.2 befinden sich nicht in der ersten Normalform. Die Attribute „Lage“ und „BAdresse“ sowie „L-Adresse“ sind nicht atomar. Stattdessen liegen Wertelisten vor, die z.B. aus den Bestandteilen „Geogr. Länge“ und „Geogr. Breite“ bestehen. Es ist sinnvoll, dass die Attribute atomisiert werden, so dass dann z.B. eine Sortierung nach der Geographischen Länge möglich ist (vgl. Tab. 8.3). Tabelle 8.3: Beispiel einer Relation in erster Normalform B-Nr.
X-Koord.
1 2 ...
10 12 ...
Y-Koord. 44 43 ...
PLZ
Stadt
Strasse
Nr.
12311 12312 ...
Astadt Astadt ...
X-weg Y-Strasse ...
1 33 ...
Tabelle 8.4: Beispiel einer Relation in erster, aber nicht in zweiter Normalform B-Nr. ... 2 2 2 ... 2 2
Datum
Wert
... 52 0,05 0,006 ... 2.5.2001 0,00017 2.5.2001 54 1.6.2000 1.6.2000 1.6.2000
ParameterName Analyseverfahren Messeinheit Grenzwert ... Nitrat Nitrit Cadmium ... PAK Nitrat
A-NO3-1 A-NO2-1 A-Cd-1
mg/l mg/l mg/l
50 0,1 0,005
A-PAK-1 A-NO3-1
mg/l mg/l
0,0002 50
Eine Relation befindet sich in zweiter Normalform, wenn sie die erste Normalform besitzt und zusätzlich jedes Attribut, das nicht selbst zum Identifikationsschlüssel gehört, voll funktional vom gesamten Identifikationsschlüssel abhängig ist. Die Tabelle 8.4 befindet sich zwar in erster, aber nicht in zweiter Normalform. Hier liegt ein zusammengesetzter Identifikationsschlüssel vor, der aus den Attributen „B-Nr.“, „Datum“ und „ParameterName“ besteht. In dieser Relation sind die Attribute „Messeinheit“ (Maßeinheit des gemessenen Parameters) und „Grenzwert“ jeweils Nicht-Schlüsselattribute, die aber nur von dem Attribut „ParameterName“ abhängen. Diese Attribute sind somit nicht voll funktional abhängig vom
302
Datenorganisation und Datenbanksysteme
(gesamten) Identifikationsschlüssel. Um die zweite Normalform zu erreichen, muss die Tabelle weiter zerlegt werden: Tabelle 8.5: Zerlegung von Tabelle 8.4 in Analysewerte B-Nr. ... 2 2 2 ... 2 2
Datum
Wert
... 52 0,05 0,006 ... 2.5.2001 0,00017 2.5.2001 54 1.6.2000 1.6.2000 1.6.2000
ParameterName ... Nitrat Nitrit Cadmium ... PAK Nitrat
Tabelle 8.6: Zerlegung von Tabelle 8.4 in Parameterbeschreibung Parameter- Mess- ParameterEinheit Beschreibung Name
Grenz- Anmerkung wert
Nitrat Nitrit Cadmium CKW
mg/l mg/l mg/l mg/l
50 0,1 0,005 0,01
PAK
mg/l
Organische Grenzwert für sämtliche Verbindungen, Chlorverbindungen Tetrachlormethan max. 0,003 mg/l Polycycl. aromatische 0,0002 Kohlenwasserstoffe
Eine Relation befindet sich in dritter Normalform, wenn sie die zweite Normalform besitzt und zusätzlich kein Attribut (außerhalb des Identifikationsschlüssels) nur transitiv von einem Identifikationsschlüssel abhängig ist. Hierdurch wird nicht zugelassen, dass lediglich indirekte oder übertragene (d.h. transitive) Abhängigkeiten eines Attributs vom Primärschlüssel bestehen. So befindet sich die Tabelle 8.1 nicht in der 3. Normalform. Das Attribut „L-Name“ gehört nicht zum Identifikationsschlüssel der Relation. Der Laborname ist nur von dem Attribut „LaborNr.“ abhängig, erst dieses Attribut ist vom Identifikationsschlüssel (B-Nr.) abhängig. Somit liegt nur eine transitive Abhängigkeit von einem Identifikationsschlüssel vor. Bei gleicher Zugehörigkeit mehrerer Brunnen zu einem Labor werden die Bezeichnungen wiederholt. Die transitive Abhängigkeit weist also auf Redundanzen hin. Um die Tabelle 8.1 zu optimieren und um die dritte Normalform zu erreichen, muss sie neben der Atomisierung der Attribute weiter zerlegt werden. Die Lösung liefert bereits die Tabelle 8.2 (bis auf die Atomisierung der Adresse), wobei aus der Tabelle 8.1 das Attribut „L-Name“ herausgenommen wird. Über die dritte Normalform hinaus gibt es weitere Normalformen, die als Optimierungskriterien für relationale Datenbanken zu benutzen sind. Zusammenfassend gilt folgende Kette von Inklusionen: 5. NF 4. NF BCNF 3. NF 2. NF 1. NF
Das relationale Datenmodell
303
Interessant ist die hinreichende Bedingung, die das Vorliegen der 5. Normalform garantiert (vgl. Vossen 2000 S. 270): Ist eine Relation in der 3. Normalform und ist jeder Schlüssel einfach (d.h. er besteht nur aus einem Attribut), dann befindet sich diese Relation in der 5. Normalform. In der praktischen Anwendung werden meistens nur die ersten drei Normalformen beachtet. Insgesamt stellen die Normalformen Kriterien dar, die zur Beurteilung eines relationalen Datenbanksystems herangezogen werden können. Allerdings entstehen durch die Auftrennungen viele kleine Tabellen, so dass letztlich das Datenmodell recht unübersichtlich werden kann. Der Anwender sollte aber gar nicht auf die Tabelle selbst schauen müssen. Ein Zugriff bzw. eine Auswertung sollte mit Hilfe einer komfortablen Abfragesprache erfolgen, so dass die Art der Speicherung für den Anwender unerheblich sein sollte (vgl. Kap. 8.4.3). 8.3.3
Transformation eines ER-Diagramms in das Relationenmodell
Die Tabelle 8.7 verdeutlicht eine Relation, wie sie leider häufig anzutreffen ist, die aber aus der Sicht der Datenmodellierung von relationalen Datenbanken völlig unsinnig ist! Sie zeigt die Analysewerte für die verschiedenen Brunnen, jede Analyse wird durch ein Attribut wiedergegeben. Hierbei bleiben manche Zellen in der Tabelle leer, da nicht immer sämtliche Analyseverfahren durchgeführt werden und für verschiedene Brunnen der jeweilige Untersuchungsumfang recht unterschiedlich ist. Ferner sind nur wenige Attribute zur Speicherung der Analysewerte vorgesehen. Sind an einem Brunnen weitere Parameter zu analysieren, muss das Datenmodell geändert werden. Auch wird Speicherplatz verschenkt, wenn für viele Brunnen nur wenige Parameter zu messen sind. Die Probleme vervielfachen sich, wenn Analysewerte aus mehreren Analysekampagnen zu speichern sind. Die unterschiedlichen Messreihen durch Ziffern in den Attributnamen zu verdeutlichen, stellt keine Lösung dar (Verquickung von Datenstruktur und Inhalt). So muss festgehalten werden, auf welches Datum sich z.B. die dritte Messreihe beim vierten Brunnen bezieht. Vor allem kann eine Tabelle in Datenbankmanagementsystemen nicht um beliebig viele Attribute nach rechts erweitert werden. Zudem sind Datenbankabfragen umständlich zu realisieren. Falls z.B. ermittelt werden soll, ob an einem bestimmten Brunnen ein Parameter erhoben wird, müssen jeweils sämtliche (Attribut-)Felder der Datenbank nach Werten durchsucht werden. Tabelle 8.7: Beispiel einer ungünstig strukturierten Tabelle B-Nr.
Nitrat1
Nitrit1
Cadmium1
PAK1
Nitrat2
Nitrit2
1 2 3 4 5 6 7
52 50 51 50 52 49 52
0,05 0,051
0,006
0,00017 0,00012 0,00009
54 49 55
0,05 0,05
0,001
0,00015 0,00017
304
Datenorganisation und Datenbanksysteme
Eine derartige Tabelle ist in der Regel nicht das Ergebnis einer konzeptuellen Datenmodellierung mit einem Entity-Relationship-Diagramm, das eine m:nBeziehung zwischen den Brunnen und den zu analysierenden Parametern darstellen würde. Eine m:n-Beziehung lässt sich nicht sinnvoll durch eine einfache Erweiterung der Attributliste für einen Entity-Typ umsetzen. Das Entity-Relationship-Diagramm zum Brunnenkataster (vgl. Abb. 8.9) soll (in Teilen) in ein relationales Datenbanksystem transformiert werden. Dabei werden jeder Entity-Typ und jede Beziehung in eine Tabelle transformiert, da im Relationenmodell grundsätzlich nur das Konzept der Tabellen zur Verfügung steht. Während die Umsetzung der Entity-Typen in Tabellen bereits mehrfach erläutert wurde (vgl. Kap. 8.3.1 u. 8.3.2), steht jetzt die Transformation der Beziehungs-Typen im Mittelpunkt: Eine 1:1-Beziehung ist einfach zu realisieren. In dem vorliegenden Anwendungsbeispiel könnte nachträglich die 1:1-Beziehung „hat Merkmale“ zwischen dem Entity-Typ „Brunnen“ und einem neuen Entity-Typ „Brunneneigenschaften“ eingefügt werden. Jede Zeile in der Tabelle „Brunnen“ (vgl. Tab. 8.3) entspricht dann genau einer Zeile in der neuen Tabelle „Brunneneigenschaften“, die Verknüpfung vollzieht sich über das Attribut „B-Nr.“. Zwar könnte das Ziel auch dadurch erreicht werden, dass die Tabelle „Brunnen“ um zusätzliche Attribute wie z.B. „Art der Entnahmestelle“ oder „Mächtigkeit der Filterlage“ ergänzt wird. Auf der konzeptuellen Seite des Datenbankentwurfs ist aber zu überlegen, ob zeitabhängige von den zeitunabhängigen Merkmalen wie z.B. der Standortdefinition zu trennen und in verschiedenen Tabellen vorzuhalten sind. Tabelle 8.8: Darstellung einer 1:n Relation in dritter Normalform für die Analysewerte Kennnummer B-Nr. LaborID Datum
ParameterName
... 51 52 53 ... 70 71
... Nitrat Nitrit Cadmium ... PAK Nitrat
... 2 2 2 ... 2 2
... 10 10 10
... 27.01.96 27.01.96 27.01.96 ... 10.10.96 08.12.96
10 10
Wert ... 52 0,05 0,006 ... 0,00017 54
Tabelle 8.9: Darstellung einer 1:n Beziehung mit Beschreibung durch Attribute B-Nr. LaborID von
bis
1 2 2 3 4 5 6 6 7
31.12.97 31.12.96 31.12.97 31.12.97 31.12.97 31.12.96 31.12.96 31.12.97 31.12.97
10 10 30 30 20 20 10 20 30
01.01.96 01.01.96 01.01.97 01.01.96 01.01.96 01.01.96 01.01.96 01.01.97 01.01.96
Das relationale Datenmodell
305
Tabelle 8.10: Darstellung einer m:n-Beziehung und Definition des Analyseumfangs B-Nr.
ParameterName
AnalyseMethode
1 1 1 1 1 ... 7 7 7
Cadmium CKW Nitrat Nitrit PAK
A-Cd-1 A-CKW-1 A-NO3-1 A-NO2-1 A-PAK-1
Cadmium CKW Nitrat
A-Cd-1 A-CKW-1 A-NO3-2
Im vorliegenden Anwendungsbeispiel kommt der 1:n-Beziehung „besitzen“ zwischen den Entity-Typen „Brunnen“ und „Analysewerte“ eine zentrale Bedeutung zu. Jeder Brunnen hat eine unterschiedliche Anzahl von Analyseergebnissen. Eine Umsetzung, bei der genau eine Zeile für jeden Brunnen steht und bei der die Spalten die Analysewerte aufnehmen, stellt keine Lösung dar (vgl. Tab. 8.7). Dies ist vor allem darauf zurückzuführen, dass völlig unklar ist, wie viele Analyseereignisse erwartet werden. Daher wird im vorliegenden Anwendungsbeispiel der EntityTyp „Analysewerte“ einzig sinnvoll in eine Tabelle umgesetzt, die nach „unten“ unbegrenzt ist (vgl. Tab. 8.5 u. 8.8)! Durch das Attribut „B-Nr.“ wird die Beziehung „besitzen“ zwischen den Entity-Typen „Brunnen“ und „Analysewerte“ realisiert (Verknüpfung zwischen Tab. 8.3 u. 8.8). Ebenso wird durch Aufnahme des Attributs „LaborID“ eine Verknüpfung zwischen den Analysewerten und den Laboren möglich (Verknüpfung zwischen Tab. 8.2 u. 8.8). Über den Parameternamen kann eine Verknüpfung mit der Tabelle hergestellt werden, die die Analyseverfahren näher definiert. Die Tabelle 8.8 besitzt einen eigenen Primärschlüssel (Kennnummer). Ein Identifikationsschlüssel hätte auch aus den Attributen „B-Br.“, „Datum“, „ParameterName“ und „Wert“ gebildet werden können. Auch die Beziehung „prüfen“ (Zuständigkeit) zwischen den Entity-Typen „Brunnen“ und „Labore“ ist eine 1:n-Beziehung. Allerdings liegt hier ein besonderer Beziehungstyp vor. Die Beziehung „prüfen“ wird durch Attribute näher beschrieben, die kennzeichnen, in welchem Zeitraum Labore für einzelne Brunnen zuständig sind oder waren. Somit muss hierfür wieder eine neue Relation erstellt werden (vgl. Tab. 8.9). Für diese Tabelle setzt sich der Primärschlüssel aus den Attributen „B-Nr.“ und „LaborID“ zusammen. Vorausgesetzt wird dabei, dass kein Labor nach einer zeitlichen Unterbrechung irgendwann wieder einmal für denselben Brunnen zuständig wird. Falls dies berücksichtigt werden muss, ist der Primärschlüssel um die Zeitangaben zu erweitern, oder es ist ein eigener (künstlicher) Identifikationsschlüssel zu vergeben. Eine m:n-Beziehung besteht zwischen den Entity-Typen „Brunnen“ und „Analyseverfahren“, die mit dem Namen „erfordern“ umschrieben wurde. Hierdurch wird der für einen Brunnen jeweils unterschiedliche Umfang von Analyseverfahren definiert (vgl. Tab. 8.10). Zur Umsetzung dieser Beziehung wird aus beiden
306
Datenorganisation und Datenbanksysteme
Entity-Sets eine neue Tabelle gebildet, wobei sich der Primärschlüssel dieser neuen Tabelle aus den beiden Primärschlüsseln der Tabellen „Brunnen“ und „Analyseverfahren“ zusammensetzt. Der Primärschlüssel der Tabelle 8.10 ist sogar aus den drei Attributen „B-Nr.“, „ParameterName“ und „AnalyseMethode“ zusammengesetzt, wobei hiermit berücksichtigt ist, dass zur Ermittlung eines Inhaltsstoffes mehrere Analysemethoden bestehen können. Insgesamt kann ein ER-Diagramm recht einfach in eine relationale Datenstruktur umgesetzt werden, die letztlich mehrere miteinander verknüpfte Tabellen darstellt. Bei derartigen Verknüpfungen muss aber darauf geachtet werden, dass zwischen den verknüpften Dateien und insbesondere zwischen den die Verknüpfung realisierenden Schlüsselfeldern eine logische Datenkonsistenz besteht! Diese Eigenschaft wird als referentielle Integrität bezeichnet (vgl. Kap. 8.5.2). 8.3.4
Relationale Datenstrukturen in Geoinformationssystemen
In (kommerziellen) Geoinformationssystemen ist zumeist ein relationales Datenbankmanagementsystem integriert. Zwar bleibt die Funktionsvielfalt deutlich hinter der von selbstständigen Datenbanksystemen zurück, zumeist bestehen herstellertypische Formen der Datenverwaltung und Datenabfrage, eine normierte Datenbanksprache ist nicht vorhanden (vgl. Kap. 8.4.3). Jedoch sind die allgemeinen Konzepte relationaler Datenbanksysteme umgesetzt. So werden insbesondere die Sachdaten zu den Geoobjekten standardmäßig in Form von Tabellen vorgehalten. So kann z.B. die Tabelle 8.3, die jeden einzelnen Brunnen kennzeichnet, auch zu einem Geoinformationssystem gehören, das ein Brunnenkataster beschreibt und visualisiert. Ein einzelnes Geoobjekt wird mit genau einer Zeile einer derartigen Attributtabelle referenziert. Das Geoobjekt wird über ein Schlüsselattribut bzw. einen Schlüsselattributwert identifiziert, das zumeist vom Geoinformationssystem automatisch vergeben wird. Vor allem sind dann die aufgezeigten relationalen Datenstrukturen, die über Verknüpfungen mehrerer Tabellen realisiert sind, auch in Geoinformationssystemen darzustellen. Gerade dieser Aspekt unterstreicht letztlich die Relevanz von relationalen Datenbankmanagementsystemen in der Geoinformatik. Häufig lassen sich zudem Geoinformationssysteme und Datenbanksysteme koppeln.
8.4 8.4.1
Arbeiten mit einem relationalen Datenbanksystem Datendefinition und Verwaltungsfunktionen
Neben den Auswertefunktionen besitzen relationale Datenbankmanagementsysteme umfangreiche Werkzeuge zur Definition von Tabellen bzw. zum Verändern einer Tabellenstruktur oder zum Löschen von Tabellen. Diese Datendefinitionsfunktionen setzen auf einer höheren, konzeptuellen Ebene der Arbeit mit Datenbanksystemen an und erfordern besondere Zugriffsrechte. So besitzen Datenbank-
Arbeiten mit einem relationalen Datenbanksystem
307
verwaltungsprogramme Kontrollfunktionen, mit denen Benutzersichten und Zugriffsrechte festgelegt und verwaltet werden können. Standardisierte Datenschnittstellen ermöglichen einen leichten Datenaustausch. Vor allem im Bereich kommerzieller Datenbanksoftware für Personal Computer bieten Datenbankverwaltungssysteme häufig benutzerfreundliche Benutzerumgebungen, die eine relativ einfache Handhabung gestatten. Softwareassistenten unterstützen das Erstellen von Formularen, Berichten oder Abfragen. 8.4.2
Datenmanipulation und Datenauswertung
Zur Datenmanipulation gehören vor allem Funktionen zum Einfügen, Verändern oder Löschen bestehender (Einzel-)Daten und Datensätze, wobei dem Anwender zur Datenmanipulation entsprechende Zugriffsrechte erteilt sein müssen. Auch zum einfachen Sichten bzw. zur Visualisierung der Datenbestände, d.h. zum NurLese-Zugriff, müssen Zugriffsrechte eingeräumt sein. Von zentraler Bedeutung sind die Funktionen, die eine gezielte Abfrage auf einzelne Daten oder Datensätze des gesamten Datenbestands ermöglichen. Jede Auswertung des Datenbestands einer relationalen Datenbank führt zu einer Teilmenge des Datenbestandes, so dass das Ergebnis wieder eine Relation ist. Im Extremfall ergibt sich eine Tabelle mit genau einer Spalte und einer Zeile. Relationale Datenbanksysteme verfügen hierzu über drei Standardfunktionen: Die Projektion (engl.: projection) liefert nur ausgewählte Spalten (d.h. Attribute) einer Tabelle bzw. von Tabellen, die aber hinsichtlich der Zeilen vollständig ist. So werden z.B. nur die gerade interessierenden Attribute ausgewählt (z.B. nur Laborname und Telefonnummern sämtlicher Labore). Die Selektion (engl.: selection) liefert nur ausgewählte Zeilen (d.h. Entities) einer Tabelle, die aber hinsichtlich der Attribute vollständig ist. Der Anwender definiert bestimmte Auswahlkriterien (z.B. sämtliche Brunnen einer bestimmten Stadt). Vom Datenbankmanagementsystem wird dann eine Teilmenge der Zeilen der Tabelle gebildet. Durch die Verknüpfung (engl.: join) werden die Relationen über geeignete Schlüsselfelder miteinander verbunden. Die Optimierung einer Datenbasis (vgl. Normalformen) führt in der Regel zu mehreren Relationen (Tabellen). Dies sollte allerdings keine Auswirkungen auf die Handlichkeit einer relationalen Datenbasis haben, deren Effizienz gerade hierdurch gesteigert wird. Die Tabellen werden zumeist nur temporär miteinander verknüpft. Am häufigsten ist eine gleichzeitige Durchführung von Projektion und Selektion oder eine Verknüpfung mit Selektion und Projektion aufgrund von Bedingungen an die Attribute mehrerer Tabellen. Gesucht werden z.B. die Adressen sämtlicher Brunnen, deren Wasserproben zwischen dem 1.3.1996 und dem 28.2.1997 einen Nitratgehalt oberhalb des Grenzwerts von 50 mg/l aufwiesen. Derartig recht komplex anmutende Abfragen lassen sich mit geeigneten Abfragesprachen relativ einfach realisieren (vgl. Beispiele in Kap. 8.4.3). Bei der Auswertung von Tabellen stehen ferner Funktionen wie z.B. Rechenoperationen (z.B. Bilden von Summen) oder komplexe Sortiermöglichkeiten zur Verfügung.
308
8.4.3
Datenorganisation und Datenbanksysteme
Der Sprachstandard SQL einer Datenmanipulationssprache für relationale Datenbanksysteme
Mit Hilfe einer Datenmanipulationssprache eines Datenbankmanagementsystems können Daten einer Datenbank vereinfacht eingegeben, ergänzt, geändert oder abgefragt werden. Den Sprachstandard für relationale Datenbanksysteme stellt die Datenbanksprache Standard Query Language (SQL) dar. Diese standardisierte Datenbanksprache wurde inzwischen von vielen Entwicklern kommerzieller Datenbankmanagementsysteme implementiert (z.B. in Access oder dBASE bzw. DB2 oder Oracle) und wird daher vielfach benutzt. Die Entwicklung wurde zunächst ausschließlich von IBM bereits seit Beginn der 70er Jahre betrieben. 1981 war mit SQL/Data System von IBM ein erstes kommerzielles System verfügbar, welches diese Sprache „öffentlich“ bereitstellte (vgl. Vossen 2000 S. 221). Das Akronym stand damals für Structured Query Language. In den achtziger Jahren erfolgte eine allgemeine Standardisierung dieser Sprache: 1986 unter dem Namen SQL1 bzw. SQL86 (von der International Standards Organization ISO), 1989 Ergänzungen zu SQL 89, 1992 zu SQL2 oder SQL92, jüngste Version ist SQL99 (vormals SQL3) u.a. mit Aufnahme objektorientierter Konzepte. Der Sprachstandard SQL besteht aus nur relativ wenigen Befehlen, die interaktiv bzw. dialogorientiert eingegeben werden können. SQL-Befehle können auch in integrierter Form, d.h. als Teil einer Programmiersprache, auftreten. Somit können SQL-Abfragen auch innerhalb von komplexen Anwenderprogrammen verwendet werden. Generell bezieht sich der SQL-Standard auf drei Ebenen: Zur Ebene der Datenbeschreibung (DDL, Data Definition Language) gehören vor allem Sprachelemente zur Definition von Tabellen, von Attributen (mit Festlegen von Schlüsseln) oder von Verknüpfungen. Die zugehörigen zentralen SQLBefehle sind: CREATE, ALTER, DROP und JOIN. Die Ebene der Datenmanipulation (DML, Data Manipulation Language) umfasst sowohl die Verwaltung als auch die Abfrage von Daten. Hierzu gehören vor allem Sprachelemente zum Einfügen oder Löschen von Daten sowie zur Aktualisierung von Tabellen (d.h. Löschen und Ändern von Tupeln). Die zugehörigen wichtigsten SQL-Befehle sind: INSERT, DELETE, UPDATE. Von zentraler Bedeutung sind ferner Datenbankabfragen, wobei SQL mit dem SELECT-Befehl nur ein einziges, aber sehr mächtiges Kommando zur Formulierung von Abfragen besitzt. Die Ebene der Programmiersprachen-Einbettung bezieht sich auf Programmiersprachen, die SQL-Befehle integrieren. Sämtliche SQL-Befehle zur Datenmanipulation haben folgende Grundstruktur:
FROM WHERE
Bezeichnet die Art der vorzunehmenden Manipulation (z.B. SELECT). Bezeichnet die betroffenen Relationen. Bezeichnet die betroffenen Attribute der angegebenen Relation.
Hier soll nur der wichtige SELECT-Befehl erläutert werden, wobei ferner eine starke Vereinfachung durch eine Beschränkung auf nur wenige Optionen erfolgt:
Arbeiten mit einem relationalen Datenbanksystem SELECT FROM WHERE
309
Attributliste (Anstelle einer Attributliste werden durch * sämtliche Attribute spezifiziert.) Relationen (d.h. Tabellen) Logische Bedingung
Die Darstellung erfolgt am Anwendungsbeispiel des bereits erarbeiteten relationalen Datenbanksystems eines Brunnenkatasters (vgl. Abb. 8.9): Suche alle Brunnen in „A-Stadt“: SELECT FROM Where
* BRUNNEN Brunnen.Stadt = „A-Stadt“
Da das Attribut „Stadt“ in mehreren Tabellen auftritt, muss es bei der Angabe der Bedingung mit der zugehörigen Tabelle spezifiziert werden. Suche alle Brunnen in einem bestimmten Raumausschnitt (Selektion): SELECT FROM WHERE
* BRUNNEN Brunnen.X-Koordinate > 9 AND Brunnen.X-Koordinate < 12 AND Brunnen.Y-Koordinate > 40 AND Brunnen.Y-Koordinate < 50
Das nachstehende Beispiel zeigt, wie komplexe Abfragen über mehrere Relationen durch die Datenmanipulationssprache SQL gestaltet werden können. Gesucht werden die Brunnen, deren Wasserproben einen Nitratgehalt größer 55 mg/l aufweisen. Hier ist jetzt eine Abfrage über mehrere Relationen notwendig (Verknüpfung mit Join, Selektion und Projektion): SELECT DISTINCTROW FROM WHERE
Brunnen.BrunnenName, Brunnen.BrunnenID, Analysewerte.BrunnenID, Analysewerte.ParameterName, Analysewerte.Wert, Brunnen INNER JOIN Analysewerte ON Brunnen.BrunnenID = Analysewerte.BrunnenID [[[Analysewerte.ParameterName] = „Nitrat“ AND [[Analysewerte.Wert]>55]]
Die SQL-Anweisung ist beinahe direkt lesbar. Zwischen den Tabellen „Brunnen“ und „Analysewerte“ wird eine Verknüpfung aufgebaut, die über das Attribut „BrunnenID“ geht, wobei dieses Attribut in der einen Tabelle einen Primär- und in der anderen Tabelle einen Fremdschlüssel darstellt. Somit kann in der Tabelle „Analysewerte“ die Auswertung der Bedingung erfolgen. Für die derart ausgewählten Wasserproben liegen in der Tabelle „Analysewerte“ zwar keine Brunnennamen vor, die sich aber sofort aufgrund der Verknüpfung mit der Tabelle „Brunnen“ ergeben. Für diese Aufgabe bestehen (wie üblich) verschiedene Realisierungsmöglichkeiten. So ist mit SQL auch eine geschachtelte Abfrage möglich: SELECT DISTINCTROW FROM WHERE
Brunnen.BrunnenID, Brunnen.BrunnenName Brunnen BrunnenID IN (SELECT BrunnenID FROM Analysewerte WHERE Analysewerte.ParameterName = „Nitrat“ AND Analysewerte.Wert > 55)
310
8.5 8.5.1
Datenorganisation und Datenbanksysteme
Datenkonsistenzen Begriff und Bedeutung von Datenkonsistenzen
Ein Datenbankmanagementsystem hat neben der Speicherung, Verwaltung und Verarbeitung von Daten die wichtige Aufgabe, die Konsistenz der Daten zu gewährleisten. Diese sehr vielschichtige Aufgabe umfasst: - Zugriffskontrollen - Erhaltung der physischen Datenintegrität - Erhaltung der logischen oder semantischen Datenintegrität. Die Zugriffskontrollen, die einzeln für ein Datenobjekt oder für verschiedene Zugriffsarten vergeben werden können, betreffen den Datenschutz vor unbefugtem Einsehen oder Manipulationen. Ferner muss eine Sicherheit des Datenträgers gegeben sein (u.a. Absicherung durch Sicherheitskopien, vgl. Kap. 4.6.3). Demgegenüber bezeichnen Integritätsbedingungen allgemein Bedingungen für die Zulässigkeit oder Korrektheit von Datenbankzuständen (sog. statische Integritätsbedingungen) und von Zustandsübergängen (sog. dynamische Integritätsbedingungen z.B. bei Veränderungen des Datenbestandes). In einem Brunnenkataster liegen entweder Rohrbrunnen oder Schachtbrunnen vor (statische Bedingung). Die Wasserproben eines Brunnens dürfen von einem neuen Labor übernommen werden, der Brunnen darf aber nicht aus der Betreuung der Labore herausfallen (dynamische Bedingung bei Änderung der Relation „Betreuung“). Im Relationenmodell sind bereits implizit mehrere (statische) Integritätsbedingungen enthalten: - Die Definition von Schlüsseln verhindert, dass zwei Entities gleiche Werte in ihren Schlüsselattributen besitzen. - Die Festlegung der Kardinalität der Beziehungen verhindert unzulässige Beziehungen. Im Beispiel des Brunnenkatasters wird durch die 1:n Beziehung zwischen den Relationen (Tabellen) „Brunnen“ und „Labore“ gewährleistet, dass ein Brunnen nicht von zwei Laboren untersucht wird. - Durch Vorgabe einer Domäne (eines Wertebereiches) für ein Attribut wird verhindert, dass unzulässige Attributwerte aufgenommen werden. So müssen z.B. für eine Postleitzahl in Deutschland 5 Ziffern bestimmt werden. Mit der Datenintegrität bei Systemfehlern und im Mehrbenutzerbetrieb ist das Transaktionenkonzept verbunden, das Grundlage für die Fehlertoleranz und für die parallele Verarbeitung in Datenbankmanagementsystemen ist (vgl. Kap. 8.5.4). Semantische Integritätsbedingungen lassen sich aus den Eigenschaften der modellierten Welt ableiten. Derartige Bedingungen werden auch durch die Festlegung von Bereichsbeschränkungen für Attribute, die Einhaltung der referentiellen Integrität (vgl. Kap. 8.5.2) sowie durch Trigger gesichert (vgl. Kap. 8.5.3). Hierzu bestehen in SQL geeignete Sprachkonstrukte (vgl. Kemper u. Eickler 1999 S. 135ff.).
Datenkonsistenzen
8.5.2
311
Referentielle Integrität
Die referentielle Integrität stellt sicher, dass eine Datenkonsistenz zwischen zwei verknüpften, d.h. referenzierten Relationen (Tabellen) besteht und beim Einfügen, Löschen oder Verändern erhalten bleibt. Die referentielle Integrität kennzeichnet eine Eigenschaft der Beziehung zwischen dem Primärschlüssel einer Relation (Tabelle) R1 und dem Fremdschlüssel in einer weiteren Relation (Tabelle) R2. Der Fremdschlüssel von R2 besitzt die gleiche Anzahl von Attributen wie der Primärschlüssel der Relation R1, auf die der Fremdschlüssel verweist. Im Beispiel des Brunnenkatasters besteht zwischen der Tabelle „Analysewerte“ mit dem Fremdschlüssel „Laborkennung“ und der Tabelle „Labore“ mit dem Primärschlüssel „LaborID“ referentielle Integrität, wenn sämtliche Attributwerte des Fremdschlüssels der Tabelle „Analysewerte“ als Primärschlüssel in der Tabelle „Labore“ vorkommen. Durch Beachtung der referentiellen Integrität wird hier gewährleistet, dass beim Einfügen einer neuer oder beim Ändern einer bestehenden Zeile in der Tabelle „Analysewerte“ der Fremdschlüssel auf eine existierende Laborkennung in der Tabelle „Labore“ verweisen muss. Ferner ist eine Änderung eines Primärschlüssels nur zulässig, falls kein Fremdschlüssel auf ihn verwiesen hat. Hierzu gehört auch ein Löschen einer Zeile in der Tabelle „Labore“. 8.5.3
Trigger
Ein Trigger ist eine Prozedur (d.h. ein Programm), das vom Anwender definiert und entwickelt wird und das automatisch vom Datenbankmanagementsystem gestartet wird, falls eine bestimmte Bedingung erfüllt ist. Trigger werden vor allem dann sinnvoll eingesetzt, wenn bereits gespeicherte Daten nachträglich verändert werden sollen. So kann im Beispiel des Brunnenkatasters verhindert werden, dass bei Änderung des Analyseumfangs für einen Brunnen die Bestimmung des PH-Wertes entfällt, wenn dies generell nicht möglich sein soll. Durch einen Trigger wäre zu gewährleisten, dass Eintragungen in die Tabelle „Analysewerte“ nur mit Datumsangaben möglich sind, die aktueller als die bisher gespeicherten Werte bzw. deren Datumsangaben sind. Hierdurch könnte verhindert werden, dass zwar ein allgemein gültiges Datum wie z.B. 25.6.2004 eingegeben wird, das aber (wahrscheinlich) falsch ist, da auch schon Analysewerte für 2005 abgespeichert sind. Dieses Problem könnte durch Einschränkung des Wertebereichs, der bei jeder Eingabe neu zu definieren wäre, nicht gelöst werden. 8.5.4
Transaktionen
Unter einer Transaktion wird eine Zusammenfassung von mehreren Datenbankoperationen zu einer Gruppe verstanden, die hinsichtlich der Integritätsüberwachung eine Einheit bildet und geschlossen fehlerfrei ausgeführt werden muss. Ein Datenbanksystem muss durch eine Transaktion von einem konsistenten wieder in einen konsistenten Zustand überführt werden.
312
Datenorganisation und Datenbanksysteme
Systemabsturz
T1
T2 Zeitachse t1
t2
t3
Abb. 8.10: Verlauf von Transaktionen
Transaktionen setzen sich aus einer Folge von elementaren Operationen zusammen. Falls sich im Beispiel des Brunnenkatasters die Betreuungen durch die Labore ändern, darf für einen Brunnen die Betreuung durch ein Labor nicht gelöscht werden (Befehl 1), ohne dass für diesen Brunnen eine neue Betreuung definiert wird (Befehl 2). Ebenso darf bei einer Umbuchung kein Betrag einer Kostenstelle gutgeschrieben werden (Befehl 1), ohne dass eine andere Kostenstelle um den gleichen Betrag belastet wird (Befehl 2). Beide Befehle bilden hierbei eine Transaktion, die (als Einheit) vier Eigenschaften erfüllen muss (sog. ACIDPrinzip): - Atomarität (atomicity): Eine Transaktion wird entweder vollständig oder gar nicht ausgeführt. Nach einem vorzeitigen Abbruch bestehen keine Zwischenergebnisse von teilweise ausgeführten Transaktionen. - Konsistenz (consistency): Eine Transaktion führt von einem konsistenten Datenbankzustand zu einem anderen konsistenten Datenbankzustand. Die Transaktion wird abgebrochen und die Datenbank im Anfangszustand belassen, falls durch eine Transaktion Integritätsbedingungen verletzt werden. - Isolation (isolation): Parallel ausgeführte Transaktionen sind voneinander isoliert und beeinflussen sich nicht. Jede Transaktion hat den Effekt, den sie verursacht hätte, als wäre sie allein im System. - Dauerhaftigkeit (durability): Der von einer Transaktion bewirkte (neue) Zustand des Datenbanksystems ist dauerhaft und ist nur durch eine neue Transaktion mit gegenteiliger Wirkung rückgängig zu machen („Rückbuchung“). Die Transaktionsverwaltung besteht aus zwei zentralen Komponenten: - Behebung von Fehlersituationen: Diese sog. Recoveryfunktion muss Atomarität und Dauerhaftigkeit gewährleisten. Falls z.B. ein Systemabsturz eintritt, obschon die Transaktion noch nicht abgeschlossen ist (vgl. Transaktion T2 zum Zeitpunkt t3 in Abb. 8.10), müssen nach Wiedereinsetzen des Systems der Anfangszustand der Transaktion wiederhergestellt und Wirkungen der teilweisen Ausführung vollständig entfernt sein. - Koordination von mehreren gleichzeitigen Benutzerprozessen bzw. Transaktionen: Diese sog. Mehrbenutzersynchronisation muss die Isolation von parallel ablaufenden Transaktionen gewährleisten.
Objektorientierung in Datenbanksystemen
8.6 8.6.1
313
Objektorientierung in Datenbanksystemen Ansatz objektorientierter Datenbanksysteme
In sämtlichen Anwendungsbereichen der (Geo-) Informatik sind relationale Datenbanksysteme marktbeherrschend. Die Strukturierung der Daten in Tabellen ist übersichtlich und einfach nachvollziehbar und somit benutzerfreundlich. Demgegenüber sind die jüngeren Entwicklungen von Datenbanksystemen vor dem Hintergrund zu sehen, dass die Objektorientierung zum zentralen Merkmal höherer Programmiersprachen geworden ist. Mit diesem Ansatz verbindet sich der Anspruch, dass die Objektorientierung eine realistischere Modellierung der realen Welt erlaubt. Naheliegend ist daher, die Konzepte der Objektorientierung mit Datenbankkonzepten zusammenzuführen und objektorientierte Datenmodelle und Datenbanksysteme zu entwickeln. Somit gelten generell die Prinzipien der Objektorientierung wie Bildung komplexer Objekte mit eigener Objektidentität, Typen und Klassen, Vererbung, Kapselung, Polymorphismus und spätes Binden (vgl. Kap. 3.2.4.3) auch für objektorientierte Datenbanksysteme. Ferner wird die sog. Vollständigkeit, die eine Sprache mit Ausdrucksmöglichkeiten vergleichbar zu einer Programmiersprache fordert, zu den wichtigsten Eigenschaften objektorientierter Datenbanksysteme gezählt (vgl. Atkinson u.a. 1989). Die Weiterentwicklungen werden häufig damit begründet, Defizite relationaler Datenbanksysteme zu beheben und um den Anforderungen komplexer Fragestellungen besser zu begegnen. Die Schwächen relationaler Systeme sind vor allem: - begrenzte Zahl vorhandener Datentypen und begrenzte Möglichkeiten zur Modellierung komplexer Objekte, - umständliche Aufteilung eines Objektes über mehrere Relationen (Segmentierung) und rechenzeitintensives Zusammenführen, - künstliche Schlüsselattribute, - keine Modellierung von objekt- bzw. typspezifischen Operationen (Verhalten) auf den Strukturen. Allerdings kann das relationale Modell durchaus mit den Problemen umgehen, für die von objektorientierten Datenmodellen Lösungen angeboten werden. Manche der theoretischen Schwachstellen ergeben sich nicht in der Realität. So haben gerade viele Entities bzw. Objekte in der Geoinformatik eindeutige Identifikatoren (vgl. z.B. Flurstücksnummern), die sich zu Schlüsselattributen eignen. Auch bieten objektorientierte Datenbanksysteme nicht nur Vorteile. Im Gegensatz zu relationalen Datenbanksystemen weisen objektorientierte Systeme verschiedener Hersteller große Unterschiede auf. So besteht kein einheitliches Datenmodell, eine deklarative Abfragesprache für objektorientierte Datenbanksysteme fehlte lange Zeit und ist nicht in allen Systemen implementiert. Mit dem Ziel einer stärkeren Vereinheitlichung wurde daher die Object Database Management Group (ODMG) gegründet, die 1993 den ersten Object Database Standard herausbrachte (vgl. Kap. 8.6.3). Die Standardisierungsbemühungen der ODMG haben allerdings bisher nicht dazu geführt, den derzeitigen Standard von Datenbankmanagementsystemen
314
Datenorganisation und Datenbanksysteme
zu verändern. Dies ist auf die noch recht geringe Leistungsfähigkeit und schwache Verbreitung von ausgereiften objektorientierten Datenbankmanagementsystemen auf dem kommerziellen Markt (insbesondere im Hinblick auf PC-Systeme) zurückzuführen (zu einem Überblick vgl. Heuer 1997 S. 557ff.). Noch gewichtiger ist, dass ein erheblicher Aufwand für einen Umstieg notwendig wird, der in der Regel betriebswirtschaftlich nicht zu rechtfertigen ist. So haben viele Anwender gerade erst relationale Datenbanksysteme eingeführt oder auf relationale Datenbanksysteme umgestellt. Ein Interesse, in eine (erneute) Umstellung bei durchaus skeptisch zu beurteilender Performance zu investieren, ist kaum vorhanden. 8.6.2
Merkmale objektorientierter Datenbanksysteme
Objektorientierte Datenbanksysteme unterscheiden sich von relationalen Datenbanksystemen dadurch, dass Objekte anstatt Tabellen gespeichert werden. Die Identifizierung von Entities erfolgt im relationalen Modell über eindeutige Schlüsselattribute, die häufig zusätzliche, künstliche Attribute darstellen, die mit den Sachdaten nichts zu tun haben. Demgegenüber werden in objektorientierten Datenbanksystemen Objekte über persistente Identifikatoren (PIDS) referenziert, die für jedes in der Datenbank vorhandene Objekt vom System vergeben werden. Diese sind eindeutig, während der Lebensdauer eines Objekts unveränderbar und für den Benutzer unsichtbar. Während relationale Datenbanksysteme nur eine begrenzte Zahl von Datentypen besitzen, erlauben objektorientierte Datenbanksysteme die Modellierung komplexer Objekte und Datentypen. So ist schon die Realisierung des recht einfachen Datentyps einer Menge bei relationalen Datenbanksystemen nicht bzw. nur umständlich möglich. Um z.B. die Menge von Analysen darzustellen, die für einen Brunnen erforderlich ist (d.h. das Analyseprogramm), ist ein recht großer Aufwand zu betreiben und eine eigene Relation „Analyseverfahren“ zu bilden, die von den eigentlichen Daten der Brunnenobjekte getrennt war (vgl. Tab. 8.10). In objektorientierten Datenbanken erfolgt entsprechend dem Grundprinzip der Objektorientierung die Beschreibung komplexer Strukturen mit Hilfe von Datentypen. Das Typsystem umfasst Basistypen, aus denen komplexe Typen gebildet werden. Ohne auf den Formalismus näher einzugehen, soll das Konzept der Modellierung eines Datentyps an einem Beispiel verdeutlicht werden, das nur den Tupelund Mengen-Konstruktor zeigt. In Anlehnung an das Beispiel im Kapitel 8.2.4 wird eine Klasse Brunnen definiert, die den Namen, den Standort (bestehend aus X- und Y-Koordinate), das Jahr der Inbetriebnahme, die Menge der Analysewerte (bestehend aus einer Menge von Wertetupeln) und das jeweilige Analyseprogramm (bestehend jeweils aus einer Menge von Werten) umfasst. Die Notation erfolgt in Anlehnung an die Object Definition Language des ODMG-Standards (vgl. Heuer 1997 S. 436ff. u. Heuer u. Saake 2000 S. 280ff., benutzerspezifische Angaben kursiv):
Objektorientierung in Datenbanksystemen
315
class Brunnen { attribute string Name; attribute integer Jahr; attribute struct {real X-Koordinate, real Y-Koordinate} Standort; attribute set Analyseprogramm; attribute set Analysewerte; };
Ein weiteres Merkmal objektorientierter Modellierung ist die Vererbung. Die Struktur und das Verhalten der Oberklasse werden an die Unterklasse vererbt: class Schachtbrunnen extends Brunnen { attribute struct {real Laenge, real Breite, real Tiefe} Groesse; attribute string Auskleidung; };
Abfragesprachen in relationalen Datenbanksystemen bieten keine Möglichkeit, komplexe Werte wie Mengen zu selektieren. So ist eine Auswertung nach Teilmengen wie z.B. „Suche sämtliche Brunnen, für die sowohl AnalyseA wie AnalyseB durchzuführen sind.“ sehr umständlich zu realisieren. Da die objektorientierten Datenbanksysteme komplexe Werte und Mengen direkt unterstützen, sind derartige Abfragen problemlos möglich. Neben der Modellierung der Struktur ist vor allem die Modellierung des Verhaltens eines Objektes zentral für den objektorientierten Ansatz (zu weiteren Aspekten wie z.B. Mehrfachvererbung oder Modellierung von Beziehungen vgl. Heuer 1997 S. 515ff. u. Kemper u. Eickler 1999 S. 340ff.). Unter dem Verhalten einer Klasse sind Methoden zu verstehen, die auf den zugehörigen Objekten definiert sind. Im nachstehenden Beispiel wird dem Objekttyp „Brunnen“ die Methode „PH_Mittelwert()“ hinzugefügt, die den Mittelwert der PH-Werte der Wasserproben ermittelt und das Ergebnis als Gleitkommazahl weitergibt. Die Definition dieser Methode selbst wird hier nicht dargestellt. Falls noch keine Werte vorliegen, wird eine Ausnahmebehandlung angestoßen. class Brunnen { exception NochkeineWerte ... float PH_Mittelwert() raises NochkeineWerte ... end;
Durch nachstehenden Aufruf wird der Mittelwert der Wasserproben des Brunnens „Blauwasser“ ermittelt (Notation in Anlehnung an die Object Query Language OQL, vgl. Kap. 8.6.3). Die Variable b wird an die Extension „AlleBrunnen“ gebunden. Dabei bezeichnet eine Extension die Menge der aktuell erzeugten Objekte (Instanzen) eines Objekttyps (hier „Brunnen“). select b.PH_Mittelwert() from b in AlleBrunnen where b.Name = „Blauwasser”
Die dargestellten Beispiele, die vereinfacht ausgewählte Anwendungsprinzipien objektorientierter Datenbanksysteme aufzeigen, sollen die Vorteile andeuten, die sich aus dem neuen Ansatz ergeben. So ist eine flexible und auch einfache Be-
316
Datenorganisation und Datenbanksysteme
schreibung möglich, die sich insbesondere stark aus der Realität ableitet. Obschon die angeführten Konzepte überzeugen, ist in absehbarer Zeit nicht mit einer größeren Anwendung zu rechnen (vgl. Kap. 8.6.1). 8.6.3
Standardisierungen
Die wichtigen kommerziellen Anbieter objektorientierter Datenbanksysteme haben sich zur Object Database Management Group (ODMG) zusammengeschlossen und 1993 als Antwort auf SQL den sog. ODMG-93 Standard veröffentlicht. Nach mehreren Überarbeitungen (u.a. Standard ODMG-97 gleich Version 2.0) liegt seit Anfang 2000 die aktuellste Version als Standard ODMG 3.0 vor (zur Einführung vgl. Heuer 1997 S. 431ff. u. Heuer u. Saake 2000 S. 138ff., vgl. Object Data Mangement Group (ODMG) - Weblink). Das Objektmodell beschreibt Konzepte des zugehörigen objektorientierten Datenmodells, das große Ähnlichkeit zur „C++“-Welt hat. ODMG-Spezifikationen umfassen eine Object Manipulation Language (OML), mit deren Hilfe Abfragen und Transaktionen unterstützt werden, und als Datendefinitionssprache eine allgemeine Object Definition Language (ODL). Die Object Query Language (OQL) stellt eine SQL-ähnliche deklarative Sprache zum Abfragen und Aktualisieren von Datenbankobjekten dar. Die Standardisierungen beinhalten ferner die Spracheinbettung für C++, Smalltalk und Java. Dabei wird die am häufigsten benutzte SQL-Struktur „select“ unterstützt. Insgesamt sind aber alle Standardisierungsbemühungen noch nicht so weit wie beim relationalen Modell fortgeschritten. Die Standardisierungsbemühungen vollziehen sich in einem größeren Rahmen. So ist die Object Database Management Group ein unabhängiger Teil der Object Management Group, die sich u.a. mit der Schaffung einer Object Management Architecture für verteilte Objektsysteme befasst, in der u.a. Anwendungsobjekte (Server oder Clients) definiert werden und als Vermittler zwischen Objekten ein Object Request Broker eingerichtet wird. Diese Komponente wurde 1992 mit dem Namen CORBA (Common Object Request Broker Architecture) standardisiert (vgl. Object Mangement Group (OMG) - Weblink u. Common Object Request Broker Architecture (CORBA) - Weblink).
8.7 8.7.1
Erweiterte relationale Datenmodelle Generalisierung und Vererbung
Das einfache Entity-Relationship-Modell kann um mehrere Konzepte erweitert werden. Die daraus resultierenden Datenbankmodelle werden Erweiterte EntityRelationship-Modelle genannt (EER-Modelle, vgl. Heuer u. Saake 2000 S. 73ff.). So lässt sich mit den bisherigen Konstrukten eine besondere Beziehung noch nicht modellieren, die man mit Spezialisierung bzw. in umgekehrter Sicht mit Generali-
Erweiterte relationale Datenmodelle
317
sierung umschreiben könnte (Ist-Beziehung oder is-a-relationship). In dem vorliegenden Beispiel ist der Entitytyp „Brunnen“ durch mehrere Attribute definiert: Brunnen
=
{Name, Lage-Koordinaten, Adresse}.
Daneben sind für einzelne Brunnen noch weitere, zusätzliche Angaben notwendig. So könnten z.B. städtische und private Brunnen mit zusätzlichen Attributen unterschieden werden. Für die städtischen Brunnen sind verschiedene Wartungsteams zuständig, für die unterschiedliche Verwaltungsschlüssel (Kostenstellen) vorliegen. Die privaten Brunnen sind einem Besitzer (mit Adresse) zugeordnet und weisen eine Lizenznummer des Wasserversorgungsunternehmens auf. Daher ist es sinnvoll, eigene Entity-Typen zu bilden: städtische Brunnen private Brunnen
= =
{Kostenstelle, VerwaltungsKennziffer} {Besitzer, LizenzNr.}
Beide Entity-Typen sind Spezialisierungen des Entity-Typs „Brunnen“, der Obertyp ist eine Generalisierung der Untertypen. Die Attribute von „Brunnen“ haben auch für die städtischen und privaten Brunnen Gültigkeit, sie werden an die Spezialisierungen vererbt. In der graphischen Darstellung werden Ist-Beziehungen wie die (sonstigen) Beziehungen durch eine Raute veranschaulicht, in die die Bezeichnung „IST“ eingetragen wird (vgl. Abb. 8.11). Die Ist-Beziehung ist total (Gegenteil: partiell), wenn neben der Zerlegung in die angegebenen Entity-Typen keine weiteren Entity-Typen bestehen. Im vorliegenden Fall soll die Ist-Beziehung total sein, was bedeutet, dass es keine weiteren Brunnen gibt, die z.B. im Besitz einer Versorgungsgesellschaft sind und die gesondert mit eigenen Attributen zu modellieren sind. Diese Beziehung soll zudem disjunkt (Gegenteil: nicht disjunkt), sein, da entweder städtische oder private Brunnen bestehen und kein Brunnen sowohl im städtischen wie auch im privaten Besitz sein soll.
Koordinaten
Name
Adresse
Brunnen
ist
Privater Brunnen
Städtischer Brunnen KO-Stelle
VerwID
Besitzer
LizenzID
Abb. 8.11: ER-Diagramm mit Entities, Attributen und einer IST-Beziehung
Während die Generalisierung bzw. Spezialisierung gleichartige Entity-Typen betrachtet, werden durch einen weiteren Beziehungstyp, die Aggregation, unterschiedliche Entity-Typen in Beziehung gesetzt, die zusammen einen Obertyp
318
Datenorganisation und Datenbanksysteme
definieren. Hierbei werden also (auch) mehrere untergeordnete Entity-Typen einem übergeordneten Entity-Typ zugeordnet, wobei aber die untergeordneten Entities Teile (d.h. Komponenten) der übergeordneten (d.h. zusammengesetzten) Entities sind. Diese Beziehung wird somit als Teil von (engl. part-of) bezeichnet. So setzt sich z.B. der Entity-Typ „Rohrbrunnen“ aus dem Rohr und der oberen Kappe zusammen, wobei für diese Komponenten im Hinblick auf eine Wartung verschiedene Eigenschaften vorzuhalten sind. 8.7.2
Geschachtelte relationale Datenbankmodelle
Ein besonderes Problem relationaler Datenbanken ist, dass tupel- oder mengenwertige Attributwerte nicht modelliert werden. Derartige Strukturen müssen im Relationenmodell recht umständlich simuliert werden (vgl. im Beispiel des Brunnenkatasters die Definition des Analyseumfangs zu einem Brunnen, vgl. Tab. 8.10). Im einfachen Relationenmodell liegen die Relationen in der ersten Normalform (1 NF) vor, die Attributwerte sind atomar. Durch Erweiterung auf das Modell der geschachtelten Relationen kann diese Einschränkung behoben werden (nested relations oder NF2 relations für non first normal form (NFNF)). NF2Relationen gestatten komplexe Attributwerte, Attribute können selbst auch wieder Relationen, d.h. Tabellen, sein (vgl. Heuer u. Saake 2000 S. 124ff.). 8.7.3
Objektrelationale Datenbankmodelle
Das wohl noch immer wichtigste Datenbankmodell - das klassische relationale Modell - wird funktional zum sog. objektrelationalen Modell erweitert, indem bestimmte Konzepte der Objektorientierung in das relationale Modell integriert werden (vgl. Kap. 8.7.1 u. 8.7.2). Die Erweiterungen betreffen u.a. mengenwertige Attribute, die Bildung anwendungsspezifischer Attribute, die Objektidentität (künstlich erzeugte Objektidentifikatoren anstelle von aus Attributen erstellten Schlüsseln), Vererbung und Klassenhierarchie. Der neue SQL-Standard SQL-99 (ehemals SQL 3) dokumentiert diese Entwicklungen. Hierbei handelt es sich um Konzepte der Objektorientierung, die mit dem bisherigen Konzept des Relationenmodells verträglich sind und die die bisherige SQL-Welt erhalten (vgl. Heuer u. Saake 2000 S. 141ff.). Voraussichtlich werden sich auch objektrelationale Datenbankmanagementsysteme (ORDBMS) kommerziell durchsetzen, da sie die Vorteile beider Ansätze verbinden. Vor allem werden durch die Kompatibilität zum älteren relationalen Datenbankmodell die hohen Investitionskosten gesichert bzw. nicht gefährdet (vgl. Kap. 8.6.1). Führende Softwareprodukte wie Oracle, Informix und DB2 besitzen inzwischen objektrelationale Erweiterungen. Im Bereich der freien Software ist PostgreSQL eines der ältesten und am weitesten fortgeschrittenen objektrelationalen Datenbankmanagementsysteme. PostGIS ist die räumliche Erweiterung zur Speicherung und Verwaltung von Geodaten in der Open Source-Serverdatenbank PostgreSQL (vgl. PostgreSQL- u. PostGIS-Weblink).
9 Geoinformationssysteme
9.1
9.1.1
Digitale Informationssysteme und Geoinformationssysteme Informationssysteme
Ein System, das auf einen Datenbestand zurückgreift und Auswertungen dieser Daten zulässt, so dass Informationen abgeleitet und wiedergegeben werden können, kann allgemein als ein Informationssystem bezeichnet werden. In dieser ersten Definition kommt zwar schon die Gesamtheit von Daten und Verarbeitung der Daten zum Ausdruck, allerdings werden Datenspeicherung und vor allem Datenerfassung noch nicht näher thematisiert bzw. eingeschlossen. So werden reine Auskunftssysteme, die nur eine (u.U. auch komplexe) Verarbeitung von bereits vorhandenen Daten zulassen, hier nicht zu den Informationssystemen gerechnet, die auch eine Datenaufnahme, d.h. Neuaufnahme und Aktualisierung, gestatten müssen. Somit gehören zu einem Informationssystem Aufnahme, Speicherung, Aktualisierung, Verarbeitung und Auswertung von Informationen sowie deren Wiedergabe. Diese sehr umfassende Begriffsbildung schließt auch analoge Informationssysteme ein. Nach der Art der (irgendwie) gespeicherten Informationen, die dann auch spezielle Verarbeitungsmethoden bedingen, können Informationssysteme (alpha-)numerischer, textlicher, bildhafter oder multimedialer Art unterschieden werden. Hierfür lassen sich vielfältige Beispiele angeben: Informationssysteme in Banken (u.a. Verwaltung von Kundenstamm und Kontenführung), in Reisebüros (u.a. Informationen über Verkehrsverbindungen, Hotelbelegungen, Buchungen) oder in Bibliotheken (u.a. Verwaltung von Benutzerdaten, Buchreservierungen, Suchoptionen im Bibliotheksbestand). Im Mittelpunkt der Geoinformatik stehen mit den Geoinformationssystemen raumbezogene Informationssysteme, die im Gegensatz zu den übrigen Informationssystemen Geoobjekte der realen Welt modellieren und diese in ein digitales Informationssystem abbilden (vgl. Kap. 9.2). Die Gegenstände eines Geoinformationssystems besitzen wie auch bei allen anderen Informationssystemen eine Thematik (und Dynamik). Das Besondere bei Geoinformationssystemen ist, dass Geoobjekte darüber hinaus Geometrie und Topologie als implizite und untrennbare Bestandteile aufweisen! Die Verarbeitung derartiger raumbezogener Informationen erfordert spezielle Werkzeuge bzw. Funktionen, die von den übrigen Informationssystemen nicht bereitgestellt werden (vgl. Kap. 9.3 u. 9.4).
320
9.1.2
Geoinformationssysteme
Vierkomponentenmodelle eines Informationssystems
Bereits die sehr allgemeine Begriffsbildung enthält die beiden fundamentalen Sichtweisen, nach denen ein Informationssystem unter strukturellen und unter funktionalen Gesichtspunkten zu betrachten ist. Nach strukturellen Aspekten sind die Art und (physikalische) Beschaffenheit des Systems und der Speichermedien, die Verarbeitungsmöglichkeiten, die vorhandenen und in irgendeiner Form gespeicherten Informationen oder Daten sowie die Anwendungen, Einsatzbereiche und die Nutzer zu unterscheiden. Werden diese Sichtweisen auf digitale Informationssysteme eingeengt, so ergeben sich vier strukturelle Komponenten: Hardware
-
Software
-
Daten
-
Anwender
-
Computersystem einschl. Prozessor, Speichermedien, Peripheriegeräte und Vernetzung Programmsysteme einschl. Softwarewerkzeuge zur Erfassung, Verwaltung, Analyse und Präsentation der Informationen quantitative und qualitative Informationen, die zusammen einen (fachbezogenen) Ausschnitt der realen Welt darstellen Benutzer mit ihren Anforderungen und Fragestellungen bzw. Anwendungen und Einsatzmöglichkeiten.
Nach funktionalen Aspekten sind vier Funktionen zu unterscheiden: Erfassung Verwaltung Analyse Präsentation
-
Daten- oder Informationserfassung und -speicherung (d.h. Input) Datenverwaltung (d.h. Management) Datenauswertung und Datenanalyse (d.h. Analysis) Wiedergabe der Information (d.h. Output bzw. Presentation).
Dabei sind einzelne Funktionsgruppen verschieden umfangreich ausgeprägt und vor allem nicht scharf voneinander zu trennen. So kann die Datenverwaltung auch eine Aktualisierung u.a. mit einer Ergänzung oder Neuerfassung von Daten bedeuten. Das Sortieren oder Selektieren von Datensätzen kann als Verwaltungsfunktion, aber auch schon als Auswertefunktion gesehen werden, die eigentlich erst mit der Auswertung bzw. mit der Analyse der Informationen einsetzt. 9.1.3 9.1.3.1
Begriff und Bedeutung von Geoinformationssystemen Definitionen
Geoinformationssysteme gehören zu den raumbezogenen, digitalen Informationssystemen. Die zentralen Gegenstände dieser Informationssysteme sind Informationen über Geoobjekte (zum Begriff Geoobjekt vgl. Kap. 5.1): Ein Geoinformationssystem ist ein rechnergestütztes System, das aus Hardware, Software, Daten und den Anwendungen besteht. Mit ihm können raumbezogene Daten digital erfasst, gespeichert, verwaltet, aktualisiert, analysiert und modelliert sowie alphanumerisch und graphisch präsentiert werden.
Digitale Informationssysteme und Geoinformationssysteme
321
Diese Begriffsbestimmung erfolgt in Anlehnung an die nicht nur im deutschsprachigen Raum bereits weitgehend etablierte Definition von Bill u. Fritsch 1991 (vgl. Bill u. Fritsch 1991 S. 4). Daneben bestehen vielfältige Definitionen mit häufig nur geringfügigen Unterschieden (vgl. Antenucci u.a. 1991 S. 7, Bartelme 2001 S. 13, Burrough 1986 S. 4, DeMers 1997 S. 7, ESRI 1995 S. 1-2, Göpfert 1991 S. 3, Goodchild 1993 S. 8, Goodchild 1997, Longley u.a. 1999 S. 5ff., Saurer u. Behr 1997 S. 6, Worboys 1995 S. 1). Im deutschen Sprachraum werden die Bezeichnungen Geographisches Informationssystem, Geoinformationssystem und GIS fast durchgängig synonym benutzt. Im englischen Sprachraum sind die Bezeichnungen Geographic bzw. Geographical Information System und GIS üblich. Die allgemeine Definition eines Geoinformationssystems enthält bewusst keine genauen Aussagen hinsichtlich der Art der (raumbezogenen) Daten bzw. Geodaten. Die weitere Festlegung der Aufgaben und Einsatzgebiete sowie die genauere Bestimmung der Dateninhalte führen zu weiteren Begriffen: Die Fédération Internationale des Géomètres (1974) liefert eine Definition für ein Landinformationssystem (LIS): „Ein Landinformationssystem ist ein Instrument zur Entscheidungsfindung in Recht, Verwaltung und Wirtschaft sowie ein Hilfsmittel für Planung und Entwicklung. Es besteht einerseits aus einer Datensammlung, welche auf Grund und Boden bezogene Daten einer bestimmten Region enthält, andererseits aus Verfahren und Methoden für die systematische Erfassung, Aktualisierung, Verarbeitung und Umsetzung dieser Daten. Die Grundlage eines LIS bildet ein einheitliches, räumliches Bezugssystem für die gespeicherten Daten, welches eine Verknüpfung der im System gespeicherten Daten mit anderen bodenbezogenen Daten erleichtert.“ Diese recht alte Begriffsbestimmung kennzeichnet allerdings eher ein Grundstücksinformationssystem. Landinformationssysteme basieren auf einer rein vektororientierten Darstellung (vgl. Kap. 5.1.2 u. 9.2.2), die eine hohe geometrische Genauigkeit der Geoobjekte zulässt, so dass ein Einsatz im Vermessungs- und Katasterwesen möglich ist, die ebenfalls zu wichtigen Anwendungsgebieten zählen. Hierbei sind zumeist räumliche Analysefunktionen gering ausgeprägt. Häufiger wird inzwischen die Abkürzung LIS für Landschaftsinformationssysteme benutzt, die (primär) naturräumlich und nicht administrativ abgegrenzte Raumeinheiten mit Informationen hauptsächlich zur naturräumlichen Ausstattung verwalten und die vornehmlich im Naturschutz und in der Landschaftsplanung eingesetzt werden. Ein Umweltinformationssystem kann allgemein als eine Spezialform eines Geoinformationssystems verstanden werden, in dem Umweltinformationen verarbeitet werden. Darüber hinaus bestehen mehrere Begriffsbestimmungen von Umweltinformationssystemen, die sich zum Teil stark von dieser Definition abheben (vgl. Zusammenstellung in Fürst u.a. 1996 S. 3). So steht für Page u.a. (1993, S. 83) ein globales Informationssystem einer Umweltbehörde im Mittelpunkt ihrer Definition: „Ein Umweltinformationssystem (UIS) ist ein Informationssystem, das Umweltinformationen bereitstellt. Ein UIS besteht in der Regel aus mehreren Umweltdatenbanken mit verschiedenen Umweltdatenbeständen. Es bietet leistungsfähige Zugriffs- und Auswertemethoden zur Ableitung von Umweltinformationen. Aufgrund der Vielfalt der potentiellen Nutzer eines UIS bestehen unterschiedlichste, teilweise divergierende Anforderungen an die Charakteristika eines
322
Geoinformationssysteme
UIS.“ Jesorsky u. Nohuys (1991) vertreten eine noch weitergehende Auffassung: „Ein Umweltinformationssystem (UIS) dient zur Umsetzung umweltpolitischer Ziele auf allen staatlichen Planungs- und Verwaltungsebenen. Seine Einsatzschwerpunkte (Planung, Forschung etc.) und seine Anwendungsgebiete (Datenanalyse, Bereitstellen von Daten etc.) sind völlig unterschiedlich. Aus diesem Grund kann es auch als das übergeordnetste und weitgreifendste aller umweltbezogenen Informationssysteme angesehen werden. Von seinen Betreibern wird das Umweltinformationssystem in der Regel als ein medienübergreifendes Instrumentarium bezeichnet. Ein Geographisches Informationssystem kann, muss jedoch nicht Bestandteil eines Umweltinformationssystems ein.“ Auf der Basis der angeführten Begriffe und der dadurch verbundenen inhaltlichen Festlegungen und Konzeptionen finden sich weitere Wortkonstruktionen und Begriffszusammensetzungen wie Kommunales oder Regionales Informationssystem (KIS, RIS), Kommunales oder Regionales Rauminformationssystem (KRIS, RRIS), Kommunales oder Regionales Umweltinformationssystem (KUIS, RUIS). Hierdurch werden keine grundsätzlich neuen Begriffsinhalte ausgedrückt, sondern lediglich Einsatzgebiet und Zweckbestimmung eingeengt. Diese Systeme, die u.a. fachübergreifende Informationen über (sämtliche) kommunalen bzw. regionalen Planungs- und Verwaltungsaufgaben beinhalten, verfügen häufig, aber nicht immer über ein Geoinformationssystem als Teilkomponente u.a. neben reinen Auskunftssystemen z.B. basierend auf (alpha-)numerischen Datenbanken. Die Rauminformationssysteme stellen zumeist raumbezogene Informationen zur Bevölkerungs-, Wirtschafts- und Siedlungsentwicklung für (größere) administrative Einheiten (z.B. statistische Bezirke, Gemeinden, Regierungsbezirke) zur Verfügung. In den raumbezogen arbeitenden Fachdisziplinen werden weiter raumbezogene Fachinformationssysteme wie z.B. Altlasten-, Leitungs- oder Verkehrsinformationssysteme unterschieden. Auch hier gilt, dass zumeist, aber nicht zwingend ein Geoinformationssystem den Kern derartiger Fachinformationssysteme bildet. Jedoch hat sich auf dem Markt der kommerziellen GIS-Produkte ein eindeutiger Trend durchgesetzt. So werden die Standard-Geoinformationssysteme als Plattform für fachspezifische Erweiterungen oder benutzerspezifische Anpassungen benutzt. Je nach Umfang der zusätzlichen Anwendungsmodule und Ergänzungen spricht man von einer Fachapplikation oder einer Fachschale. Inzwischen ist das Angebot unüberschaubar geworden. 9.1.3.2
Vierkomponentenmodelle von Geoinformationssystemen
Aus struktureller Sicht besteht ein Geoinformationssystem wie jedes andere Informationssystem aus den vier Komponenten Hardware, Software, Daten und Anwendern: An Hardwareausstattung sind aufgrund der aufwändigen Rechenoperationen leistungsfähige Arbeitsplatzrechner mit schnellem Prozessor (vgl. Kap. 4.3), mit umfangreichem Arbeitsspeicher (vgl. Kap. 4.4) und aufgrund der großen Datenmengen mit umfangreichen Festplattenkapazitäten und (externen) Speichermöglichkeiten erforderlich (vgl. Kap. 4.6). Vor allem kommt den graphischen Periphe-
Digitale Informationssysteme und Geoinformationssysteme
323
riegeräten einschließlich leistungsfähiger Graphikkarte (vgl. Kap. 4.5) und großformatigem Monitor (vgl. Kap. 4.8) eine zentrale Bedeutung zu. Hierzu zählen auch die graphischen Eingabegeräte wie Digitalisiertablett oder Scanner (vgl. Kap. 4.7.2) und die graphischen Ausgabegeräte wie vor allem großformatige Plotter (vgl. Kap. 4.8.4). In einer längerfristigen und umfassenden Bilanz, die sämtliche Komponenten berücksichtigt, ist aber die Hardware der weniger kostenintensive Bestandteil eines Informationssystems, obschon durch Beschaffung der Hardware zumeist der erste und anscheinend aufwändigste Schritt zum Aufbau eines digitalen Informationssystems getan wird. Während Prozessoren einen relativ kurzen Lebenszyklus von ca. 3 bis 5 Jahren besitzen, können manche Peripheriegeräte wie z.B. Drucker oder Digitalisiertabletts mehrere Computersysteme überdauern. Die Software muss als generelle Aufgabe gewährleisten, die Geoobjekte der realen Welt zu modellieren und in ein digitales Informationssystem abzubilden. Dies betrifft Geometrie, Topologie und Thematik von Geoobjekten sowohl auf einer konzeptionellen Ebene (vgl. Kap. 5 sowie zur Modellierung vgl. Kap. 9.2), als auch auf einer praktischen Ebene. Dabei gibt die Fragestellung die Art der Modellierung z.B. als Vektor- oder Rastermodell, als Netzwerkmodell oder als 3DModell auf der Basis von Dreiecksvermaschungen vor. So muss die Software die vier Funktionsbereiche Datenerfassung, Verwaltung, Analyse und Präsentation von Geoobjekten abdecken, wobei diese vier Funktionsbereiche jeweils für Geometrie- und Topologiedaten als auch für Sachdaten entwickelt sein müssen. Über die für Geoinformationssysteme spezifischen Funktionen zur Bearbeitung und raumbezogenen Analyse von Geoobjekten hinaus (vgl. eingehend Kap. 9.3 u. 9.4) ist zur Verwaltung der Sachdaten ein Datenbankmanagementsystem notwendig und in die GIS-Software integriert. Zu den vielfältigen Funktionen gehören einfache Auswertefunktionen wie Suchoperationen im Sachdatenbestand, Umklassifizierungen, Sortierungen, Errechnung neuer Attribute aus vorhandenen Attributen oder Aufbereiten von Ergebnistabellen und Bestimmen von sog. Häufigkeitsauszählungen. Somit bietet in der Regel ein Geoinformationssystem viele Funktionen eines vollständigen Datenbankmanagementsystems, wobei sich in der Praxis relationale Datenbanksysteme durchgesetzt haben (vgl. Kap. 8.3.4). Hierbei sind relationale Datenstrukturen mit einem eindeutigen Schlüsselattribut an Geoobjekte geknüpft. Die jüngsten Versionen von GIS-Software erweitern das standardmäßige georelationale zu einem objektorientierten Datenmodell. Allerdings kann derzeit nicht abschließend beurteilt werden, wie dieser neue Ansatz von der Praxis angenommen wird. Vielmehr ist von einer eher zögerlichen Umsetzung auszugehen, wobei Parallelen zum Einsatz objektorientierter Datenbanksysteme zu erkennen sind (vgl. Kap. 8.6.1). Ein Geoinformationssystem umfasst ferner vielfältige Funktionen zur graphischen Darstellung der Geoobjekte und deren Informationen, wobei zunächst der Datenbestand am Monitor präsentiert wird: Anzeigen, Verschieben, Vergrößern und Verkleinern von Kartenausschnitten, Ein- und Ausschalten oder in den Vordergrund holen von verschiedenen thematischen Ebenen, (visuelle) Überlagerung verschiedener thematischer Schichten, gemeinsame Darstellung von Vektor- und Rasterkarten und insbesondere von Luftbildern. Dabei sind Darstellung und generell das Vorgehen mit einem GIS kartenorientiert. Bei Bedarf werden zu einem
324
Geoinformationssysteme
Geoobjekt die zugehörigen Sachdaten angezeigt. Ebenso werden am Monitor Tabellen oder Diagramme wie inzwischen auch Bilder, Ton und Videosequenzen präsentiert. Neben der Präsentation in Form von zweidimensionalen Darstellungen besitzt ein Geoinformationssystem im Allgemeinen auch Funktionen, die perspektivische, pseudo-dreidimensionale Ansichten wie z.B. Blockbilder (u.a. mit Veränderung der Beleuchtungs- bzw. Besonnungsrichtung) ermöglichen und Drehungen des Gesamtbildes gestatten. Die Präsentation bedeutet auch die Ausgabe auf einem analogen zweidimensionalen Datenträger, d.h. zumeist die Erstellung einer (Papier-)Karte (mit automatisch generierter Legende und Maßstabsleiste) oder eines Posters, das Karten, Diagramme, Bilder, Tabellen und Texte enthalten kann. Für die Präsentation am Monitor wie auch für die Erstellung einer analogen Karte gelten die aufgezeigten graphischen Gestaltungsgrundsätze (vgl. Kap. 7.3 u. 7.4). Insgesamt stellen Geoinformationssysteme sehr komplexe Softwareprodukte dar, die sehr unterschiedliche Funktionsbereiche abdecken müssen. Die Software kostet inzwischen deutlich mehr als die Hardware. Vor allem wird durch Einführung einer Software eine langfristige Systementscheidung getroffen. So kann die Lebensdauer einer Software nur sehr schwer spezifiziert werden, da allgemein in unregelmäßigen, zumeist aber in selten länger als zwei Jahre auseinanderliegenden Zeitabständen (kostenpflichtige) Aktualisierungen angeboten werden. Die digital erfassten und zu pflegenden Daten (Geometrie-, Topologie- und Sachdaten) machen den eigentlich wertvollen Bestandteil eines Informationssystems aus! Der Aufbau eines Informationssystems führt u.a. dazu, die bisher verstreut oder sogar nur unvollständig vorliegenden Daten zu systematisieren, zu vervollständigen und sie einer größeren Zahl von Nutzern (erstmalig) zur Verfügung zu stellen. Die Daten können mehrere Generationen von Software wie auch von Mitarbeitern überdauern. Hieraus ergibt sich die zwingende, aber leider häufig nicht umgesetzte Notwendigkeit, die Daten eindeutig zu dokumentieren und deren Qualität und Einsatzmöglichkeiten zu beschreiben (vgl. Kap. 6.3). Besondere Bedeutung kommt dem Datenaustausch und der Mehrfachnutzung der Daten zu. Dabei geht es hier weniger um Datenschnittstellen, also um das Vermögen der Software, Daten unterschiedlicher Softwarehersteller zu importieren oder eigene Daten in andere Datenformate zu transformieren und auch zu exportieren. Vielmehr sind einheitliche Datenstandards zu fordern, die sich auf formale Datenstrukturen, aber auch auf die Datenqualität beziehen. Sofern dies nicht verkaufs- oder absatzfördernd ist, haben Softwarehersteller nicht immer ein Interesse, eigene Standards aufzugeben oder sich an andere Softwarehersteller anzunähern, was u.U. einen Verlust an eigener Identität bzw. spezifischer Funktionalität bedeuten kann (zur Interoperabilität von Geodaten vgl. Kap. 9.4). Die Mehrfachnutzung der Daten geht aber über die formale, rein technische Benutzbarkeit weit hinaus. Die Bedeutung der Daten, die insbesondere durch Metadaten zu beschreiben ist, muss den Einsatz in unterschiedlichen Kontexten gestatten! So werden Geoobjekte in der Regel zu einem bestimmten Zweck modelliert und die entsprechend zugehörigen Daten erfasst. Zu gewährleisten ist, dass diese Daten auch zu einem anderen Zweck einzusetzen sind. Selbst die Verwendung gleicher Namen wie z.B. Grünland oder Gehölz als Objektarten der ALK und von ATKIS garantiert keine übereinstimmende Bedeutung. So erfolgt die Klassifizierung der
Digitale Informationssysteme und Geoinformationssysteme
325
ALK-Objekte überwiegend aufgrund der dominierenden Nutzung von Flurstücken, in denen sich Eigentumsverhältnisse ausdrücken. Die ATKIS-Objekte sind hingegen nicht flurstücksbezogen, sondern werden im Hinblick auf eine kartographische Verwendung modelliert (vgl. Kap. 6.6.3). ATKIS-Objekte orientieren sich an der topographischen Ausbreitung. So kann eine Fläche, die in der ALK als Grünland ausgewiesen ist, in ATKIS als Grünland eine völlig andere räumliche Abgrenzung aufweisen. Im Einzelfall ist also zu prüfen, ob sich Daten auch zur Verwendung in unterschiedlichen Kontexten eignen. Die Software wie auch die Daten werden erst durch Anwender zur Lösung konkreter Fragestellungen in Wert gesetzt. Anwender und Anwendungen sind untrennbar verknüpft. Die Nutzer benötigen und verarbeiten die Daten im Hinblick auf spezifische Einsatzbereiche und verwenden die vorhandenen, abgeleiteten oder neugewonnenen Informationen zur Lösung ihrer Aufgaben. Geoinformationssysteme sind aber aufgrund ihrer Komplexität aufwändig zu handhaben. Von den Nutzern werden umfangreiche Kenntnisse aus verschiedenen Bereichen der Geoinformatik erwartet. Dies impliziert (ständige) Schulungs- und Weiterbildungsmaßnahmen. Vor allem setzt ein erfolgreicher Einsatz neuer Technologien die Akzeptanz der Mitarbeiter voraus. 9.1.3.3
Geoinformationssysteme und verwandte Systeme
Neben Geoinformationssystemen arbeiten mehrere Typen von Softwaresystemen mit räumlichen Bezugseinheiten wie vor allem Datenbanksysteme, Kartographiesysteme und CAD-Systeme. Derartige Softwareprodukte stellen keine Geoinformationssysteme dar, da sie in der Regel keine topologischen Beziehungen und damit keine Geoobjekte verwalten sowie keine oder nur (sehr) eingeschränkte Analysefunktionen besitzen. Allerdings muss deutlich herausgestellt werden, dass die Grenzen zwischen Kartographiesystemen und Geoinformationssystemen bzw. zwischen CAD-Systemen und Geoinformationssystemen zunehmend durchlässiger werden: - Datenbanksysteme (vgl. Kap. 8) besitzen keine Kopplung der Sachdaten mit einer graphischen Darstellung. Ein räumlicher Bezug der Objekte wird nur über Attribute hergestellt (z.B. Zuordnung von Datensätzen mit Informationen über Flurstücke zu Gemeinden, Regionen oder Bundesländern über Namen oder Kennziffern). Somit sind auch räumliche Abfragen nur über die Attributwerte möglich. Die Datenanalyse beschränkt sich auf statistische Auswertungen der Attribute, die (nur) durch Tabellen oder Diagramme veranschaulicht werden. - Kartographiesysteme wie z.B. DTM-Systeme bieten Möglichkeiten der graphischen Datenerfassung, der Bearbeitung und Verwaltung graphischer Objekte und der Präsentation. Sie zeichnen sich u.a. dadurch aus, dass sie über vielfältige Möglichkeiten der graphischen Gestaltung verfügen und differenzierte Signaturen für Punkte, Linien und Flächen anbieten (vgl. Kap. 7.5). Die graphischen Objekte müssen aber keine Merkmale besitzen, die in Attributtabellen zu den graphischen Objekten vorgehalten werden. Allerdings bestehen Kartographiesysteme, in denen die graphischen Objekte mit Attributen gekoppelt sind
326
Geoinformationssysteme
und über die die kartographische Gestaltung gesteuert wird. So können z.B. sämtliche Linienelemente mit dem Attributwert „1“ als gestrichelte Linie in der Farbe Gelb erscheinen. Hierbei werden also die Attributwerte in kartographische Signaturen „übersetzt". Ein derartiges System kann als ein (einfaches) digitales Informationssystem angesehen werden, in dem Attribute sichtbar gemacht sowie editiert werden und in dem erste Abfrage- bzw. Auswertemöglichkeiten realisiert sind. Im Vergleich zu einem Geoinformationssystem ist aber der Funktionsumfang sehr eingeschränkt. - CAD-Systeme dienen dem interaktiven (technischen) Zeichnen und Konstruieren in zwei- und dreidimensionaler Darstellung (CAD, Computer Aided Design, sog. rechnergestütztes Entwerfen). Hauptanwendungsgebiete von CADSystemen bestehen im Maschinen- und Anlagenbau, in der Elektrotechnik, in der Architektur und im Vermessungswesen. CAD-Systeme bieten vielfältige Möglichkeiten der Erfassung, Bearbeitung und Präsentation graphischer Objekte in Konstruktionszeichnungen (u.a. auch Zeichnen bzw. Konstruieren von Bögen, Drehen oder Spiegeln von (Teil-)Zeichnungen, Bemaßen von Zeichnungen). CAD-Systeme sind vektororientiert und zeichnen sich durch eine hohe Interaktivität aus. Besondere Funktionen werden zur graphischen Darstellung angeboten wie z.B. das Generieren von Volumenmodellen oder die dreidimensionale Darstellung eines Werkstücks oder eines Baukörpers mit Drehmöglichkeit oder mit Veränderung von Licht- und Schattenwirkung. Allerdings sind bei den CAD-Systemen die Kopplungsmöglichkeiten von graphischen Objekten mit Attributen gering(er) entwickelt, so dass sich auch nur schwache Analysefunktionen der Sachdaten ergeben (z.B. Erstellung von Stücklisten). 9.1.3.4
Entwicklung von Geoinformationssystemen
Die Entstehungsgeschichte von Geoinformationssystemen setzte in den 1960er Jahren ein (zum Überblick über die historische Entwicklung von Geoinformationssystemen vgl. Goodchild u. Kemp 1990 Unit 23 u. Dickmann u. Zehner 1999 S. 23ff.). Sie wurde vor allem durch vielfältige hardware- und softwaretechnische Entwicklungen in den 90er Jahren begünstigt und beschleunigt: - Verbreitung leistungsfähiger und relativ kostengünstiger Personal Computer mit schnellen Prozessoren, - Steigerung von Festplattenkapazitäten und rapider Verfall der Kosten für Speichermedien, - Entwicklung und Verbreitung relativ kostengünstiger graphischer Peripheriegeräte wie großformatige Farbmonitore, Plotter, Digitalisiertabletts und Scanner, - Etablieren von Graphikstandards wie z.B. OpenGL und von graphischen Benutzeroberflächen. Durch die Übernahme der GIS-Technologie von vielen kommerziellen Anwendern wie z.B. Kommunen, Versorgungsunternehmen, Verkehrs- und Telekommunikationsunternehmen entstand ein größerer kommerzieller Markt. Diese Entwicklung dokumentiert sich darin, dass im Jahre 2001 erstmals eine eigene Ausstel-
Modellierung von Geoobjekten in einem Geoinformationssystem
327
lungshalle für GIS-Technologie auf der Computermesse CEBIT bestand. Die steigende Nachfrage und die Anforderungen der Anwender führten zu mehr Leistung und Benutzerfreundlichkeit und somit zu einer größeren Verbreitung. Die Konkurrenz der GIS-Softwarehersteller verbesserte das Kosten-Leistungs-Verhältnis.
9.2
9.2.1
Modellierung von Geoobjekten in einem Geoinformationssystem Geoinformationssystem als Modell der realen Welt
Ein Geoinformationssystem ist als Modell der realen Welt zu sehen, das raumbezogene Daten digital erfasst, speichert, verwaltet, aktualisiert, analysiert und modelliert sowie alphanumerisch und graphisch präsentiert. Die Abbildung 9.1 zeigt ein Geoinformationssystem. Der Bildschirmausdruck verdeutlicht die Software, die die Präsentation am Monitor und die Handhabung des Systems ermöglicht und die über die graphische Benutzeroberfläche vielfältige Funktionen zur Verfügung stellt (vgl. Kap. 9.3).
Abb. 9.1: Ein Geoinformationssystem als Modell der realen Welt
328
Geoinformationssysteme
In der Abbildung 9.1, die einen Ausschnitt aus einem Umweltinformationssystem wiedergibt, werden mehrere Datenebenen sichtbar. So sind die schützenswerten Biotope nach § 28a NNatG, die Flächen der tatsächlichen Nutzung (Folie 21 der ALK, vgl. Tab. 6.4, hier nur Umrisse) sowie die Altlastenverdachtsflächen dargestellt, wobei letztere hier nicht aktiviert und visualisiert sind. Die verschiedenen thematischen Schichten liegen übereinander und überdecken sich, wobei sie in der Schwarz-Weiß-Darstellung schwieriger zu identifizieren sind. Allerdings erleichtert die Farbdifferenzierung der einzelnen Schichten die Orientierung am Monitor. Daneben sind für zwei thematische Schichten die Attributtabellen dargestellt. Mit Hilfe der Funktionen eines Geoinformationssystems sind vielfältige Auswertungen möglich, wobei von den Attributdaten in den Tabellen oder von der graphischen Präsentation der Geoobjekte ausgegangen werden kann. Ein Geoinformationssystem ermöglicht verschiedene fachliche Sichten auf den Datenbestand. So könnte die Abbildung 9.1 die Sicht eines Mitarbeiters im Umweltamt veranschaulichen, der eine Anfrage zur Ausweitung eines Gewerbegebietes beantworten muss. Hierzu ist weniger die derzeitige Nutzung der vorhandenen Gewerbeflächen von Interesse, als vielmehr die Darstellung von möglichen Flächenkonflikten. Ein Wirtschaftsförderer hingegen benötigt u.a. die Parzellierung der Gewerbeflächen nach Flurstücken, die Lage von Versorgungsleitungen, Angaben des Bebauungsplanes und vor allem Informationen über die derzeitige Nutzung sowie zur leichteren Orientierung eine Stadtkarte im Hintergrund. Ein komplexes kommunales Informationssystem integriert die verschiedenen Datenebenen wie z.B. ein Liegenschafts-, Leitungs-, Altlasten-, Grünflächen- und Baumkataster. Für unterschiedliche Anwender sind dabei vielschichtige Fragen von Interesse wie z.B.: - Liegenschaftsverwaltung im Grundbuchamt, Erhebung von Grundsteuern, von Straßenanliegerkosten und von sonstigen kommunalen Gebühren, - Verwaltung von Stromkabeln und Stromanschlüssen der Versorgungswerke, Wartung des Leitungsnetzes, - Verwaltung schützenswerter Bäume durch das Umweltamt, Pflegemaßnahmen, - Ausweisung von Flächennutzungskategorien für die vorbereitende Bauleitplanung, Standortpflege und Standortvorsorge von Gewerbebetrieben. Häufig ist ein derartiges Informationssystem durch mehrere digitale Fachkataster in Form einzelner Geoinformationssysteme realisiert. Zuweilen können die Fachkataster z.B. über einen sog. Geodatenserver auf einen gemeinsamen Datenbestand zugreifen, wodurch eine Mehrfachnutzung der Daten möglich ist. 9.2.2
Geometrisch-Topologische Modellierung von Geoobjekten im Vektormodell
Im Vektormodell wird die Geometrie eines Geoobjektes durch Koordinaten auf der Basis eines eindeutigen räumlichen Bezugssystems angegeben (Lagekoordinaten in einem metrischen Bezugskoordinatensystem, vgl. Kap. 5.1.2 u. 5.2). Die Koordinaten kennzeichnen Einzelpunkte sowie Anfangs- und Endpunkte von gerichte-
Modellierung von Geoobjekten in einem Geoinformationssystem
329
ten Strecken, d.h. von Vektoren. Auch die Einzelpunkte sind als Vektoren zu verstehen, deren Anfangspunkt im Ursprung des Koordinatensystems liegt (vgl. Abb. 5.1). Bei Darstellung von Geoobjekten in diesem sog. Vektormodell werden letztlich nur Punkte erfasst! Die gesamte geometrische Information basiert auf Vektoren bzw. Koordinatenangaben in einem (kartesischen) Koordinatensystem. Linien- und flächenhafte Strukturen müssen aus Punkten bzw. Vektoren aufgebaut werden. Hierdurch werden sämtliche Geometrien diskretisiert (vgl. Kap. 6.2.1). Ein Linienzug besteht im Vektormodell aus einer Folge von gerichteten Strecken (d.h. von Vektoren). Dabei werden Linienbögen durch eine Folge von geraden Linienstücken angenähert (vgl. Kap. 6.2.1 u. Abb. 6.2 bzw. 9.2). Flächen werden im Vektormodell durch die sie begrenzenden Linien beschrieben. Die wesentlichen Prinzipien sollen an einem einfachen Beispiel aufgezeigt werden, das die Modellierung verdeutlicht, die der GIS-Software Arc/Info zugrunde liegt (Speicherung als Vektordaten in sog. coverages). 250 200 Nadelwald
150
Wiese 100 Nadelwald
Laubwald 50 0
0
50
100
150
200
250
300
350
Abb. 9.2: Geoobjekte der realen Welt: geometrische Modellierung im Vektormodell
Tabelle 9.1: Darstellung der Geometrie der Geoobjekte in Abbildung 9.2 durch Koordinatenfolgen Punkt 1 Punkt 2 Punkt 3 Linie 1 Linie 2 Linie 3 Linie 4 Linie 5 Linie 6 Linie 7 Linie 8 Linie 9 Linie 10 Linie 11 Linie 12 Linie 13 Linie 14
(75,250) (50,200) (100,200) (250,175) (300,175) (300,200) (350,200) (350,100) (250,175) (200,175) (200,150) (100,150) (100,150) (50,150) (50,50) (250,50) (250,50) (350,50) (350,100) (250,175) (250,125) (250,125) (200,125) (200,100) (100,150) (100,100) (200,100) (250,50) (250,100) (200,100) (350,100) (300,100) (300,125) (250,125) (300,250) (300,225) (250,225) (250,250) (250,225) (250,225) (200,225) (200,200) (150,200) (150,250) (150,200) (150,200) (150,175)
330
Geoinformationssysteme
Die Geometrie der in der Abbildung 9.2 dargestellten Geoobjekte wird ausschließlich durch die Koordinaten der Tabelle 9.1 dargestellt. Dies hat zur Konsequenz, dass zur Darstellung von (linienhaften und flächenhaften) Geoobjekten im Vektormodell explizit topologische Beziehungen der Koordinaten erfasst, modelliert und gespeichert werden müssen! So muss zusätzlich vorgehalten werden, welche Koordinaten hintereinander folgen, also benachbart sind und eine bestimmte Linie definieren, und welche Linien eine spezielle Fläche begrenzen. Erst die Tabellen 9.2 und 9.3 stellen das im Geoinformationssystem abgebildete und gespeicherte (topologische) Modell der Ausgangssituation dar (vgl. Abb. 9.3). Die Außenfläche, d.h. die „unendliche“ Fläche außerhalb der zusammenhängenden Teilflächen, wird hierbei als Fläche mit der Flächennummer „1“ bezeichnet.
2
1
1
1 2
5
2
5 3
7
9
6
5
4
1 3
4
8
6
1
1
3
4
Abb. 9.3: Geometrisch-topologische Modellierung der Flächen aus Abb. 9.2
Tabelle 9.2: Knoten-Kanten-Knoten Modellierung für die flächenhaften Geoobjekte in Abb. 9.2 u. 9.3 Kante
von Knoten
zu Knoten
Polygon links
Polygon rechts
1 2 3 4 5 6 7 8 9
1 1 2 3 1 5 2 3 4
4 2 3 4 5 6 6 6 5
1 3 5 4 2 4 3 5 4
2 1 1 1 3 3 5 4 2
Tabelle 9.3: Polygon-Kanten-Modellierung für die flächenhaften Geoobjekte in Abb. 9.2 u. 9.3 Polygon
Kanten
2 3 4 5
-1, 5, -9 2, 7, -6, -5 9, 6, -8, 4 3, 8, -7
Modellierung von Geoobjekten in einem Geoinformationssystem
331
Bei dieser klassischen Knoten-Kanten-Knoten-Topologie wird also eine Fläche (bzw. ein Polygon) durch die Folge ihrer Kanten definiert. Herauszustellen ist somit, dass im Vektormodell die flächenhaften Geoobjekte als Substruktur modelliert werden und nicht direkt wie im Rastermodell vorliegen. So ist eine Außenkante dadurch definiert, dass in der Polygon-Kanten-Liste (vgl. Tab. 9.3) diese Kante nur einmal vorkommt. Eine Innenkante muss genau zweimal mit entsprechend der Orientierung jeweils anderem Vorzeichen auftreten. Vorab muss gewährleistet sein, dass z.B. der Endknoten von Kante 2 numerisch exakt mit dem Anfangsknoten von Kante 3 übereinstimmt. Diese Regeln, die bei einer genauen Modellierung der Topologie erfüllt sind, erlauben eine Konsistenzprüfung. Hierzu stellt die Graphentheorie geeignete Instrumente bereit (vgl. Kap. 3.5.2). In topologischer Sicht wird streng zwischen Knoten und Punkten, ferner zwischen Kanten und Linien, Polygonen und Flächen sowie Polyeder und Körpern unterschieden, wobei die jeweilige topologische Entsprechung des geometrischen Begriffs benannt ist. Ein Knoten (engl. node) ist der Anfangs- oder der Endpunkt einer Kante und somit der Treffpunkt mehrerer Kanten. Eine Kante (engl. arc) verbindet zwei benachbarte Knoten, die geometrisch Anfangs- und Endpunkt eines Linienzugs sind. Für die Topologie ist der exakte Linienverlauf zwischen Anfangs- und Endknoten ohne Bedeutung. Die zwischenliegenden Punkte, die den genauen Verlauf der Linie oder des Bogens definieren, werden Stützstellen oder einfach Punkte (engl. vertex, plural vertices) genannt. Topologisch wird von der genauen geometrischen Gestalt einer Fläche abstrahiert und ein Polygon (engl. polygon) betrachtet, das durch Kanten definiert wird. Das aufgezeigte relationale Datenmodell (d.h. die Tabellen 9.1 bis 9.3) ermöglicht, allein durch numerische Auswertungen graphische bzw. topologische Eigenschaften der Geoobjekte abzulesen. Mit Hilfe der entwickelten Datenbasis können topologische Fragen beantwortet werden: - Welche Polygone grenzen an Polygon 3 an? Lösung: Suche der Kanten, die Polygon 3 definieren (2, 7, -6, -5). Suche der Polygone, bei deren Bildung diese Kanten mit hierzu inverser Orientierung beteiligt sind (hier: Polygon 5,4,2). - Was ist der kürzeste Weg von Knoten 2 zu Knoten 4? Lösung: Bestimmen der Kantenlängen auf der Basis der definierenden Koordinatenfolgen und Aufbau einer bewerteten Adjazenzmatrix, Anwenden eines Wegealgorithmus (vgl. Kap. 3.5.2). - Welches Polygon grenzt direkt an Polygon 3 entlang der Kante 7? Lösung: Suche des Polygons, das u.a. durch die Kante -7 gebildet wird. Das hier dargelegte Beispiel basiert auf dem relationalen Datenbankmodell, das zur Modellierung allgemeiner Datenstrukturen, aber nicht für Geoobjekte entwickelt wurde. Besondere Funktionen für Verwaltung von Geoobjekten fehlen und müssen recht umständlich implementiert werden (vgl. vor allem raumbezogene bzw. topologische Abfragen zu Nachbarschafts-, Überlagerungs- oder Enthaltenseinbeziehungen). In jüngerer Zeit erfolgt eine Weiterentwicklung im Hinblick auf objektrelationale Datenbankmanagementsysteme, die besser auf Anforderungen von Geoobjekten ausgerichtet sind (u.a. Aufheben der getrennten Modellierung von Geometrien und Attributdaten).
332
9.2.3
Geoinformationssysteme
Geometrisch-Topologische Modellierung von Geoobjekten im Rastermodell
Das Rastermodell ist gegenüber dem Vektormodell wesentlich einfacher aufgebaut (vgl. Kap. 5.1.2 u. 6.2.3 u. Abb. 9.5). Grundlage ist die Rasterung des Raumes in ein regelmäßiges Raster fester Rasterweite (Maschengröße) sowie vereinbarter Orientierung und Lage des Ursprungs. Geoobjekte werden hierbei durch Angabe der sie ausfüllenden Maschen bzw. Pixel beschrieben, wobei ein Pixel durch Zeilen- und Spaltenindex im Raster identifiziert wird. Durch diese Vereinfachungen und insbesondere durch die starre Größe und Form der Maschen ergeben sich mehrere Nachteile, die letztlich auf eine vergröbernde Auflösung der Geoobjekte und nicht eindeutige Identifizierung von Punkt, Linie und Flächen hinausgehen (vgl. Kap. 5.1.2), aber auch Vorteile. So lassen sich Rechnungen mit ganzzahligen Indexwerten wie beim Rastermodell einfacher durchführen als mit reellen Koordinatenwerten wie beim Vektormodell (vgl. die Komplexität der Analysefunktionen in Kap. 9.3.4 u. 9.4.3). Im Rastermodell ist fast natürlich die City-Block-Metrik oder ManhattanMetrik vorgegeben (vgl. Kap. 5.2.1), die sich sehr leicht aus den Indizes der Pixel ergibt. So haben die Pixel PA(i,j) und PB(m,n) die Distanz dAB = | i - m | + | j - n |, die noch mit der Maschenweite zu multiplizieren wäre. Dies ist beinahe überflüssig, da dann alle Distanzen diesen Faktor aufweisen. Auch hier wird die Euklidische Metrik benutzt, wobei diese Metrik auf die Mittelpunkte der Rasterzellen angewandt wird (vgl. Abb. 9.4).
City-BlockMetrik
Euklidische Distanz
N.4 Nachbarschaft
N.8 Nachbarschaft
Abb. 9.4: Metriken und Nachbarschaften im Rastermodell
Von großem Vorteil ist, dass bei der Darstellung von Geoobjekten im Rastermodell die Topologie nicht eigens angegeben werden muss. Die Topologie ist bereits direkt durch Angabe der Geometrie definiert. Nachbarschaften werden relativ einfach auf der Basis eines regelmäßigen Rasters definiert (vgl. Abb. 9.4). So sind zwei Rasterzellen benachbart, wenn sie eine gemeinsame Zellkante besitzen (Kanten-Kanten-Topologie, sog. N.4-Nachbarn) oder wenn sie mindestens eine gemeinsame Zellecke (Ecken-Kanten-Topologie, sog. N.8-Nachbarn) besitzen. Die Nachbarschaft errechnet sich dabei direkt aus den Pixelkoordinaten. So sind PA(i,j) und PB(m,n) N.4-Nachbarn, falls gilt (i=m und (j=n-1 oder j=n oder j=n+1)) oder falls (j=n und (i=m-1 oder i=m oder i=m+1)).
Modellierung von Geoobjekten in einem Geoinformationssystem
9.2.4
333
Speicherung von Geometrien im Rastermodell
Das Rastermodell basiert im Normalfall auf regelmäßigen Quadrat-Maschen (vgl. Abb. 9.5). Konsequent stellen dann Matrizen das Standard-Datenmodell für Rasterdaten dar. Der Vergleich der Tabelle 9.1 und der Abbildung 9.5, die mit der zugehörigen Datentabelle im Prinzip identisch ist, zeigt einen erheblich höheren Speicheraufwand (Vektormodell 47 Koordinatenpaare, Rastermodell 383 Pixel). Der Speicherbedarf steigt bei zunehmender Auflösung erheblich an. Deshalb sind effiziente Algorithmen entwickelt worden, um den Speicherplatzproblemen bei Rasterdaten zu begegnen. Sie reduzieren den Datenumfang immer dann, wenn die Rastermatrizen größere homogene Bereiche mit gleichen Attributwerten besitzen. 2-0, 1Pa, 5-0, 1-L, 6-0, 1-L, 3-0,1-L, 4-0 8-0,1-L,2-0,9-L,4-0 8-0,1-L,2-0,1-L,12-0 1-Pb,3-0,1-Pc,3-0,4-L,12-0 8-0,1-L,11-0,4-Fa 8-0,1-L,11-0,4-Fa 8-0,1-L,3-0,4-Fb,8-Fa 12-0,4-Fb,8-Fa 4-Fc,12-Fb,8-Fa 4-Fc,12-Fb,8-Fa 4-Fc,8-Fb,8-Fd,4-Fa 4-Fc,8-Fb,8-Fd,4-Fa 16-Fc,8-Fd 16-Fc,8-Fd 16-Fc,8-Fd 16-Fc,8-Fd
Abb. 9.5: Geoobjekte in Rasterdarstellung und Angabe der Lauflängencodierung (mit Thematik)
Bei der Lauflängencodierung (engl. run length encoding) wird die Matrix zeilenweise nach gleichen, benachbarten Pixeln abgetastet. Dabei werden nur noch der Pixelwert und die Zahl der gleichen Nachbarn als Wertepaar gespeichert (vgl. Abb. 9.5). Ähnlich geht die Kettencodierung (engl. chain encoding) vor, die sich gerade für die Speicherung von Linien im Rastermodell eignet. Eine Linie wird hierbei durch Zeilen- und Spaltenindizes des Anfangspixels und dann weiter durch die Richtungen R1 bis Rn zu den n Folgepixeln beschrieben. Die Richtungen kennzeichnen dabei die N.8- oder N.4-Nachbarn, die hier durch Himmelsrichtungen angegeben sind. Für die lange Linie in Abbildung 9.5 gilt z.B.: Startpixel (9,7), weiterer Verlauf: Nord 3, Ost 3, Nord 2, Ost 8, Nord 1 Die Nachteile des Raster-Datenmodells bestehen vor allem in der geringen Flexibilität der fest vorgegebenen Maschengröße, mit der Geoobjekte nur mangelhaft mit einer hinreichenden Genauigkeit zu erfassen sind. Eine beliebige Feinkörnigkeit des Rasters ist aufgrund des rasch ansteigenden Speicherbedarfs schwierig. Somit liegt die Idee nahe, bei homogenen Flächenelementen relativ grobe Maschen zu verwenden und nur dort die Maschengröße zu verfeinern, wo es die geometrische Datenlage erfordert. Dieser Gedanke wird von dem Quad-Tree-Modell umgesetzt.
334
Geoinformationssysteme
sw
sw
nw
nw no
no
so
so
aus Platzgründen nicht entwickelt
Reihenfolge 2 3 1 4
1 234
Abb. 9.6: Darstellung von Rasterdaten als Quad-Tree
Der Darstellung von Rasterdaten als Quad-Tree liegt eine rekursive Teilung eines nicht-homogenen Quadrats in vier gleich große Quadranten zugrunde. Jeder Quadrant hat also vier Söhne. Die Viertelung wird aber nur solange fortgesetzt, bis ein Quadrant homogen ist. Somit sind an der Darstellung eines Gebietes häufig Quadranten unterschiedlicher Größe beteiligt. Die Abbildung 9.6 verdeutlicht diese sukzessive Viertelung für den südwestlichen Quadranten. Bei dieser rekursiven Verfeinerung sind auch sehr kleinteilige Strukturen (praktisch beliebig) genau darstellbar, wobei der Speicherbedarf gegenüber dem einfachen Raster-Datenmodell deutlich geringer ist. Hinsichtlich der Genauigkeit kann das QuadtreeModell an die Genauigkeit des Vektor-Modells heranreichen. Ein Quadtree kann rechentechnisch optimal durch sog. Bäume umgesetzt werden (vgl. Kap. 3.3.4.4). 9.2.5
Thematik von Geoobjekten
Ein Geoobjekt besitzt immer eine Thematik, die im Allgemeinen durch mehrere Attribute (Merkmale, Variablen) mit verschiedenen Skalenniveaus gekennzeichnet wird. Die Beschreibung, Bearbeitung und Speicherung der verschiedenen Thematiken von Geoobjekten kann durch zwei grundlegende Prinzipien erfolgen, durch das Ebenenprinzip und durch das Objektklassenprinzip (vgl. Abb. 9.7). Die Geometriedaten der Objekte und deren Attribute werden beim Ebenenprinzip streng nach den verschiedenen thematischen Bedeutungen getrennt und in verschiedenen Ebenen (engl.: layer, daher auch Layerprinzip) vorgehalten. Dieses älteste Prinzip der Darstellung von unterschiedlichen Thematiken leitet sich direkt aus dem Folienprinzip der klassischen Kartographie ab. Verschiedene Folien mit unterschiedlichen thematischen Inhalten (z.B. Gewässerfolie bzw. Gewässerdecker, Grünflächenfolie, Schriftfolie) werden während der Kartenerstellung „übereinandergelegt“. Dabei müssen natürlich hinsichtlich der Gemeinsamkeiten identische Geometrien vorliegen (z.B. die auf verschiedenen Ebenen liegenden Begrenzungen von Bachläufen und angrenzenden Grünflächen). Zumeist erfolgt nicht nur
Modellierung von Geoobjekten in einem Geoinformationssystem
335
eine Trennung nach den verschiedenen Thematiken, sondern auch nach punkt-, linien- und flächenhaften Geoobjekten. Die Modellierung nach dem Ebenenprinzip besitzt keine Hierarchisierung, sämtliche Ebenen sind formal gleichberechtigt. Die Integration der Zeit in einem Geoinformationssystem erfolgt zumeist auch nach dem Ebenenprinzip. Zeitliche Angaben können zwar auch durch Einführen weiterer Attribute und Metadaten aufgenommen werden. Standardmäßig werden zeitliche Prozesse aber durch Zeitschnitte diskretisiert, die einzelne Ebenen in einem Geoinformationssystem bilden. Dann können u.a. durch räumliche Überlagerungsfunktionen (vgl. Kap. 9.3.4 u. 9.4.3) zeitliche Veränderungen analysiert werden (zur Integration von Zeit in GIS vgl. ausführlich Ott u. Swiaczny 2001).
Verkehrswege
Haltestellen
Flächennutzung
Verkehrsweg Strasse Anliegerstrasse, max. 30 km/h Siedlungsfläche Grünfläche Scherrasen
Abb. 9.7: Darstellung von Geoobjekten: Vektor- u. Rasterprinzip sowie Layer- u. Objektprinzip
Das Objektklassenprinzip geht von einer hierarchischen Anordnung verschiedener Thematiken mit Teilmengenbeziehungen der Themen aus: z.B. Hyperklasse, Superklasse, Klasse, Subklasse (vgl. Abb. 9.7 u. eingehender Kap. 5.1.1). Dabei werden Geoobjekte mit gemeinsamer Thematik (und Methoden) im Allgemeinen zu Objektklassen zusammengefasst. Die unterschiedlichen Konzepte des ebenen- und des objektorientierten Ansatzes können sowohl in vektororientierten als auch in rasterorientierten Geoinformationssystemen angewandt werden. Dabei ist die Darstellung von Geoobjekten nach dem Ebenenprinzip leicht realisierbar. Sie ist (immer noch) die Standardform in einem Geoinformationssystem. 9.2.6
Vergleich von Vektor- und Rastermodell
Eine knappe, vergleichende Gegenüberstellung von Vektor- und Rastermodell zeigt keine eindeutigen Vor- und Nachteile (vgl. Tab. 9.4). Grundsätzlich können Fragestellungen sowohl mit dem Vektor- als auch mit dem Rastermodell bearbeitet werden, wobei aber jeweils spezifische Vor- und Nachteile bestehen, die mit der Auflösung der Objekte (vgl. kleinste Pixelgröße), mit dem Aufwand zur Datenspeicherung oder mit dem Aufwand der Analysetechniken zusammenhängen. Das Vektormodell eignet sich aufgrund der höheren Genauigkeit und Eindeutigkeit für das Vermessungs- und Katasterwesen bzw. in der Infrastrukturplanung
336
Geoinformationssysteme
sowie generell für großmaßstäbige Untersuchungen. Gerade in der Umweltplanung sind Geoinformationssysteme (auf Vektorbasis) inzwischen Standardwerkzeuge geworden (z.B. Altlasten- oder Biotopkataster). Demgegenüber ist das Rastermodell zum Standard für kleinmaßstäbige Anwendungen und für großräumige Überblicke sowie für Anwendungen der digitalen Bildverarbeitung geworden, was sich aufgrund der Datenbasis in Form von Rasterdaten beinahe zwangsläufig ergibt. Das Rastermodell ist ferner besonders für Probleme geeignet, die die Modellierung von räumlichen Ausbreitungsprozessen betreffen. Wichtige Anwendungsgebiete sind z.B. die Modellierung von Emissionen von punktförmigen Emittenten (Punktquellen wie Schornsteine) oder die Modellierung von Wasserabflüssen (auf einer Oberfläche), die Darstellung und Berechnungen von Erosionserscheinungen oder die Ausbreitungsmodellierung von Umweltgiften in Boden oder Wasser. Aufgrund einer einheitlichen Raumbezugsbasis und leicht zu handhabender Nachbarschaftsbeziehungen lassen sich Ausbreitungsrechnungen leichter durchführen, bei denen sich ein Wert für eine Rasterzelle aus den Werten der Nachbarzellen errechnet. Eine Bewertung der beiden Modellvarianten ist somit nur vor dem Hintergrund des jeweiligen Einsatzbereiches zu sehen, der die Eignung des einen oder des anderen Modells bestimmt, sowie der im jeweiligen Modell bereitgestellten Funktionen. Hybride Geoinformationssysteme stellen Methoden zur Datenerfassung, Datenverwaltung, Datenanalyse und Visualisierung für beide Modelle zur Verfügung. Allerdings ist eine Konvertierung zwischen beiden Modellen nur mit gewissen Einschränkungen möglich (vgl. Kap. 6.2.3). Tabelle 9.4: Vergleichende Gegenüberstellung von Vektor- und Rastermodell
Vorteile
Vektormodell
Rastermodell
x x x x
x x
hohe geometrische Genauigkeit eindeutige Objektbeschreibung geringe Datenmengen größere Ähnlichkeit der graphischen Präsentation mit traditionellen Karten
x x x
Nachteile
x x x
x
komplexere Datenstrukturen aufwändige Erfassung von Geometrie und Topologie aufwändige und rechenintensive logische und algebraische Operationen (u.a. Überlagerung und Verschneidung) parallele geometrische und topologische Beschreibung der Geoobjekte
x x x x x
einfache Datenstrukturen geringer Aufwand bei Erfassung der Geometrie und Topologie kompatibel mit Fernerkundungs- und Scannerdaten einfaches Überlagern und Verschneiden von Geoobjekten einfache logische und algebraische Operationen keine Form- und Lagetreue der Geoobjekte höherer Speicheraufwand kleine Pixelgröße mit explodierenden Datenmengen für höhere Genauigkeitsanforderungen weniger zufrieden stellende graphische Präsentation (abhängig von der Pixelgröße) aufwändige Koordinatentransformationen
Bearbeitung und Analyse von Geoobjekten im Vektormodell
9.3
9.3.1
337
Bearbeitung und Analyse von Geoobjekten im Vektormodell Erfassen und Editieren raumbezogener Daten
Für die Erfassung der Geometriedaten stehen verschiedene technische Geräte wie z.B. Digitalisiertablett oder GPS-Geräte zur Verfügung (vgl. Kap. 4.7.2 u. 6.2). Von besonderer Bedeutung ist dabei die interaktive Datenerfassung von Koordinaten über ein Digitalisiertablett (vgl. Kap. 6.2.1). Das Geoinformationssystem verfügt über Funktionen zur Kalibrierung der Digitalisiervorlage und zur nachträglichen Georeferenzierung von Geometrien. Dabei sind in der Regel viele Kartennetzentwürfe implementiert, so dass die Datenerfassung von Vorlagenkarten mit beinahe beliebigem Netzentwurf sowie auch eine Transformation in fast beliebige Koordinatensysteme möglich sind. Zum Verständnis sind somit Grundkenntnisse von Koordinatensystemen und Netzentwürfen unerlässlich (vgl. Kap. 5.3 u. 5.5). Vor allem sind sehr vielfältige Funktionen zur Erfassung von Geometrien vorhanden (z.B. Standardfunktionen wie Kopieren oder Löschen von Geometrien sowie „Fangen“ von Koordinatenwerten vgl. Kap. 6.2.1, aber auch spezielle Funktionen wie z.B. Erzeugen einer parallelen oder lotrechten Linie zu einer vorhandenen Linie). Das Geoinformationssystem stellt Datenschnittstellen bereit, um externe Daten zu übernehmen. Hierzu gehört auch die Übernahme von Vermessungsdaten oder von Lagekoordinaten eines GPS-Gerätes. Besondere Bedeutung kommt dabei dem Datenaustausch zu, also dem Vermögen der Software, Daten unterschiedlicher Softwarehersteller zu importieren oder eigene Daten in andere Datenformate zu transformieren und auch zu exportieren (z.B. hinsichtlich der amtlichen Geobasisdaten die Einheitliche Datenbankschnittstelle EDBS vgl. Kap. 6.6). Für reine Geometriedaten ist das Datenaustauschformat des CAD-Herstellers AutoCAD zum Industriestandard geworden (sog. dxf-Format, data exchange format), das allerdings nur Geometriedaten und sehr eingeschränkt Attributdaten, aber keine topologischen Informationen weitergibt. Inzwischen sind die modernen Geoinformationssysteme in der Lage, die häufigsten Formate von CAD-, Bild-, Vektoroder Rasterdaten sowie von Datenbanksystemen ohne Konvertierung direkt zu lesen, zu verarbeiten und eine entsprechende Ausgabe zu erstellen. Im Anschluss an die Datenerfassung der Geometrien erfolgt eine Aufbereitung und Modellierung der raumbezogenen Daten. Das Geoinformationssystem muss bei Vektordaten selbstständig in der Lage sein, topologische Informationen aufzubauen, aus den Koordinatenfolgen Linien zu definieren und aus geschlossenen Linien Flächen zu generieren (Polygonisierung). Dabei müssen Erfassungsfehler angezeigt (vgl. Abb. 9.8) und Funktionen zur Fehlerbehebung bereitgestellt werden. Hier zeigt sich die Leistungsfähigkeit der Software, umfangreiche und komfortabel zu bedienende Werkzeuge zur Verfügung zu stellen.
338
Geoinformationssysteme
Zu den Werkzeugen zum Editieren von Geometrien gehören vor allem: -
Entfernen überflüssiger oder Hinzufügen neuer Punkte, Linien oder Flächen, Ausdünnen und Glätten von Linien, Auftrennen von Linien und Flächen, Geometrieausgleich wie z.B. Erstellen der Rechtwinkligkeit, Parallelität oder Geradlinigkeit, Auflösen einer Spaghetti-Digitalisierung (vgl. Kap. 6.2.1), Auflösen von Überständen (engl. overshoots) und zu kurzen Linien (engl. undershoots), Verschieben und Kopieren von Objekten, Aufbau einer fehlerfreien Topologie.
Abb. 9.8: Erfassungsfehler: Lücken, Überstände, zu kurze Linien
Die Geoobjekte müssen nicht nur geometrisch, sondern auch durch Sachdaten definiert werden. Zur Modellierung der Thematik stellt das Geoinformationssystem Funktionen eines Datenbankmanagementsystems bereit. Die Koppelung mit Geoobjekten erfolgt bei relationalen Datenstrukturen über Schlüsselattribute (vgl. Kap. 8.1.1). Über das integrierte Datenbankmanagementsystem sind auch Änderungen von Attributstruktur sowie der Attributwerte selbst möglich: Löschen und Hinzufügen, Kopieren, Umbenennen von Attributen wie auch von einzelnen Attributwerten, Veränderung der Typdefinition von Attributen (z.B. von Real zu Integer bzw. Verringerung der Zahl der Nachkommastellen), Zusammenfügen verschiedener Tabellen über gemeinsame Schlüsselattribute. 9.3.2
Verwaltung raumbezogener Daten: Datenabfragen und Suchoperationen
In einem Geoinformationssystem bestehen vielfältige Varianten, verschiedene Sichten auf den Datenbestand zu geben und Abfragen zu formulieren. Dabei stellen reine graphische Veranschaulichungen und einfache interaktive Abfragen durch Anklicken der Geoobjekte am Monitor die häufigsten Formen von Datenabfragen dar. Daneben können wie in jedem Datenbanksystem rein attributive Such-
Bearbeitung und Analyse von Geoobjekten im Vektormodell
339
bedingungen gebildet werden. Ausgehend von den Abfrage- und Suchfunktionen des integrierten Datenbankmanagementsystems werden über die Attributwerte auch von mehreren Datenebenen Geoobjekte identifiziert und anschließend am Monitor z.B. durch eine auffällige Farbe markiert. Zumeist wird ein intuitiv zu bedienender Abfragemanager angeboten. Die Darstellung der Objekte am Monitor ermöglicht eine erste räumliche Orientierung, an die sich häufig ein gezieltes graphisch-interaktives Abfragen der Attributinformationen von Einzelobjekten anschließt (Anklicken eines einzelnen Objektes mit der Maus und Anzeigen der zugehörigen Attributwerte). Geometrische Suchbedingungen können durch Angabe eines geometrischen Suchbereichs formuliert werden. Der Suchbereich wird z.B. durch Angabe eines Suchfensters, eines Suchkreises oder eines beliebigen Suchpolygons gebildet. Der Suchbereich wird dabei nicht berechnet, sondern graphisch am Monitor mit der Maus konstruiert (z.B. „Aufziehen“ eines Fensters). 9.3.3
Fortführung und Aktualisierung raumbezogener Daten
Ein Geoinformationssystem besitzt zur Aktualisierung viele Möglichkeiten, verschiedene Dateioperationen (u.a. Kopieren u. Löschen) auszuführen, Daten zu modifizieren (u.a. Einfügen oder Löschen sowie vor allem Aktualisieren von Geometrie und Attributwerten der Geoobjekte) sowie Daten zu im- oder exportieren. Diese Aufgaben betreffen zum einen nur die Funktionen des integrierten Datenbankmanagementsystems. Zum anderen sind für ein Geoinformationssystem die Modifizierungen typisch, die Veränderungen der Geometrien beinhalten, die dann eine Aktualisierung der Topologie nach sich ziehen. Hierzu gehören das einfache Hinzufügen einer Grenzlinie, wodurch eine alte Fläche geteilt wird, oder das Löschen einer Grenzlinie, wodurch zwei Flächen zusammengelegt werden. Aber auch schon einfache Veränderungen der Sachdaten können Veränderungen der Geometrien und dann weiter eine Aktualisierung der Topologie erfordern. Hierzu gehören vor allem die Umklassifizierungen von Geoobjekten (z.B. Zusammenfassen von feiner definierten und dann zwangsläufig auch kleinräumig differenzierteren Untereinheiten zu gröberen Haupteinheiten).
Abb. 9.9: Zusammenlegen von Flächen
340
Geoinformationssysteme
An dem einfachen Beispiel des Zusammenlegens benachbarter Flächen kann sehr gut das Besondere der Verwaltung von Geoobjekten in einem Geoinformationssystem verdeutlicht werden (vgl. Abb. 9.9). Durch das Zusammenlegen entfällt die gemeinsame Grenzlinie. Eine neue Fläche mit vollständig neuer Form (d.h. Geometrie) entsteht, wodurch neue topologische Beziehungen der Grenzlinien im Vektormodell aufgebaut werden müssen, sich aber auch Nachbarschaften zu den umliegenden Flächen verändern. Die Sachdatensätze, die zu benachbarten Ursprungsflächen gehören, müssen, da nur noch eine Fläche vorliegt, zu einem Datensatz zusammengefasst werden. Gerade diese Zusammenfassung und Aktualisierung ist keineswegs trivial. Insbesondere muss vorab gewährleistet sein, dass eine inhaltliche, von einer Fragestellung vorbestimmte Ähnlichkeit vorliegt, die eine Zusammenlegung benachbarter Flächen gestattet. Während in einem Geoinformationssystem auf Vektorbasis derartige Operationen aufwändig sind, sind sie auf Rasterbasis sehr leicht auszuführen. Besondere Bedeutung besitzen Funktionen zur Anpassung von Karten und zur Kartenrandbehandlung. Nicht selten tritt die Aufgabe auf, dass zwei Datenbestände aus benachbarten Kartenblättern zusammengeführt werden müssen. Falls die Daten in unterschiedlichen Koordinatensystemen erfasst wurden, müssen vorher die Koordinaten transformiert werden, so dass beide Datenbestände in einem einheitlichen Bezugssystem zwar noch getrennt, aber schon „nebeneinander“ vorliegen. Beide Datenbestände können dann sofort zusammengeführt werden, wenn jeweils exakte Kartenvorlagen bestanden, die Datenerfassung mit dem Digitalisiertablett fehlerfrei und die Transformationen in das gemeinsame Bezugssystem verzerrungsfrei erfolgten. Falls allerdings ein Datensatz auf der Grundlage einer verzerrten Karte erfasst wurde (z.B. aufgrund von Alterungsprozessen des Papiers), bestehen erhebliche Probleme, da die benachbarten Datensätze nicht passgenau nebeneinander liegen. Zumeist besitzt ein Geoinformationssystem Funktionen, die Geometrien ähnlich wie ein Gummituch zu „stauchen“ und zu „zerren“, um somit eine Anpassung zu erreichen. Diese Leistung wird häufig mit dem Begriff „rubber sheeting“ umschrieben. Zur Durchführung müssen in beiden Datenbeständen eindeutige Anknüpfungs- bzw. Bezugspunkte vorhanden sein (vgl. Abb. 9.10).
Abb. 9.10: Aneinanderfügen von Datensätzen aus benachbarten Kartenblättern mit Anpassung der Geometrie
Bearbeitung und Analyse von Geoobjekten im Vektormodell
341
In den nächsten Arbeitsschritten werden die beiden noch getrennten Datenbestände zu einem einzigen Datenbestand zusammengeführt. Hierbei muss u.a. die Topologie aktualisiert werden, da die Flächen am ehemaligen Kartenrand neue Nachbarflächen erhalten haben. Im Anschluss werden die Teilungen, die zwischen gleichen Ausprägungen am ehemaligen Kartenrand bestehen, aufgehoben, so dass „durchgängige“ Flächen und ein blattschnittfreier Datenbestand hinsichtlich der Geometrie- wie auch der Sachdaten vorliegen. 9.3.4
Räumliche Überlagerungen und geometrisch-topologische Analysefunktionen
Die räumlichen Analysefunktionen lassen sich grob in drei große Gruppen einteilen: - Generierung von Zonen (sog. Buffer-Funktionen), - Räumliche Überlagerungen und Verschneidungen (sog. Overlay-Funktionen), - Verarbeitung von Grenzen (sog. Boundary-Funktionen). Bei der Generierung von Zonen wird um die ausgewählten Geoobjekte eine Fläche generiert (vgl. Abb. 9.11). Die alte Datenebene bleibt unverändert, das Ergebnis des sog. Bufferns ist somit immer eine neue Fläche, die allerdings außer Flächengröße und Umfang der Zone keine Attribute hat. Die Berechnung von Pufferzonen erfolgt (starr) nach geometrischen Bedingungen. Für die Breite der Zonen um die ausgewählten Geoobjekte können ein konstanter Wert oder ein numerisches Attribut der ausgewählten Geoobjekte bestimmt werden, das dann die Breite definiert.
Brunnen
Punktbuffer
Einzugsgebiete
Flußsystem
Linienbuffer
Einzugsgebiet
Gewerbefläche
Flächenbuffer
Einzugsbereich
Abb. 9.11: Generieren von Pufferzonen
Ein Anwendungsbeispiel liefert der sog. Abstandserlass im Rahmen der Bauleitplanung (in Nordrhein-Westfalen), der u.a. bei Neuausweisung eines Gewerbebzw. Industriegebietes einen Abstand von 200 m zwischen einer Möbelfabrik und einem Wohngebiet vorschreibt. Ein Geoinformationssystem ist somit in der Lage,
342
Geoinformationssysteme
bei der Planung eines Gewerbegebiets eine Abstandszone auszuweisen, und kann helfen, Konflikte zu vermeiden. Ein weiteres Anwendungsbeispiel liefern die als Linien modellierten Straßenobjekte im Amtlichen Topographisch Kartographischen Informationssystem. Über eine Zonengenerierung, die das Attribut „Breite des Verkehrsweges“ benutzt (vgl. Attribut BRV in Abb. 6.19), kann ein Straßensystem mit Straßenflächen generiert werden. Herauszustellen ist, dass die Zonengenerierung relativ starr ist und sich nicht aufgrund einer Modellierung errechnet (wie z.B. bei der Berechnung der Lärmausbreitung in Abhängigkeit der Topographie).
Zusammenführen von Geometrien
+
=
Herausstanzen von Gebieten
+
=
Aufteilen in mehrere kleine Gebiete
+
=
Herausschneiden von Teilen aus dem Innern eines Gebietes
+
=
Abb. 9.12: Verarbeitung von Grenzen
Auch bei der Verarbeitung von Grenzen werden die Attribute und Attributwerte nicht verändert. Diese Funktionen modifizieren ausschließlich die Geometrien einer Datenebene, indem z.B. Teilbereiche aus dem Innern ausgestanzt werden (vgl. Abb. 9.12). Die zugehörigen Attributwerte bleiben erhalten. Lediglich Flächeninhalt und Umfang der Teilflächen werden neu berechnet.
Überlagerung und Vereinigung (sämtliche Gebiete bleiben erhalten)
+
=
Überlagerung und Identifizierung sämtlicher Gebiete des Input-Themas
+
=
Überlagerung und Bilden des gemeinsamen Durchschnitts der Gebiete
+
=
Abb. 9.13: Räumliche Überlagerungs- oder Verschneidungsfunktionen
Bearbeitung und Analyse von Geoobjekten im Vektormodell
343
Im Gegensatz zu reinen graphischen sind die geometrisch-topologischen Überlagerungen von besonderer Bedeutung. Hierbei werden die Datensätze der Ausgangsdatenebenen miteinander verknüpft und bilden eine (neue) Datenebene mit Geometrien und Sachdaten. Die Attribute und Attributwerte dieser neuen Datenschicht werden aus den beteiligten Ebenen übernommen, d.h. „vererbt“. Lediglich der Flächeninhalt und der Flächenumfang der neuen flächenhaften Geoobjekte werden neu berechnet. Die Ausgangsebenen bleiben unverändert. Die Abbildung 9.14 belegt die Art der „Vererbung“, wie sie in der GISSoftware Arc/Info realisiert ist. In diesem Beispiel sollen Nutzungsinformationen mit Besitzinformationen verschnitten werden. Hierbei wird generell von qualitativen Merkmalen ausgegangen. Die Ergebnisfläche besitzt auch noch nach der Verschneidung die Eigenschaften „WL“ und „X“ der beiden Ausgangsdatenebenen (Biotoptyp WL und Besitzer X). In der Attributtabelle der Ergebnisdatenebene werden einfach die Attribute der Eingangstabellen „angehängt“. Für eine neue, durch die Verschneidung entstandene Fläche werden die Attributwerte aus den zugehörigen Flächen der Eingangsdatenebenen übernommen. area 20
30 union
area
77 88 = 2
5 4
100 100
3
100 100
F-ID 1 20 30
Biotop
Baumzahl
Baumdichte
WL AS
100 20
1 0,2
F-Nr. 1 88 77
X Y
area Kenn. 1 25 2 75 3 25 4 75 5
Besitzer
F-ID Biotop Baumzahl
Baumdichte
F-Nr. Besitzer
30 30 20 20
0,2 0,2 1 1
77 88 88 77
AS AS WL WL
20 20 100 100
Y X X Y
Abb. 9.14: Verarbeitung der Attribute von Geoobjekten bei räumlichen Verschneidungen
Entsprechend werden auch die numerischen Attribute bzw. Attributwerte „vererbt“. Die Zahlenangaben werden von der GIS-Software ebenfalls als qualitative Daten interpretiert. Dieser Umstand führt leicht zu Irritationen: Die Ausgangsdatenschicht weist für das Gebiet 20 insgesamt 100 Bäume aus. Nach der Verschneidung besitzt die neue Attributtabelle ebenfalls das Attribut „Baumzahl“, das für die beiden Teilflächen in der linken Hälfte jeweils die Werte 100 ausweist. Zusammen würden im ehemaligen Gebiet 20 jetzt 200 Bäume stehen. Der Attributwert „100“ wird weitergegeben, als wäre er ein Name der Fläche. Absolute Werte werden also während der Verschneidung nicht auf die Flächenanteile umgerechnet. Dieser Tatbestand ist darauf zurückzuführen, dass die Bedingungen für eine derartige Umlegung nicht bekannt sind. Erst wenn unterstellt wird, dass sich die absoluten Daten (z.B. die Bäume) gleichmäßig auf die Fläche verteilen, kann eine elegante Lösungsstrategie angegeben werden, die mit Hilfe der GISFunktionen automatisiert umgesetzt werden kann. In den Ausgangsdaten wird nicht die absolute Baumzahl, sondern die „Baumdichte“ abgespeichert. Dieser numerische Wert wird auf die zugehörigen Teilflächen der Ergebnisdatenschicht
344
Geoinformationssysteme
richtig vererbt. Falls sich die Bäume auf die Fläche gleich verteilen, liegt nach der Verschneidung in den Teilflächen ebenfalls diese Baumdichte vor. Durch Multiplikation dieser Dichte mit der jeweiligen Flächengröße der Teilfläche, die von der Software automatisch neu berechnet wird, kann die absolute Baumzahl für diese Teilfläche geschätzt werden. Bei der Verschneidung nicht ganz deckungsgleicher Flächen, die z.B. aufgrund ungenauer Erfassung der Geoobjekte oder aufgrund stärkerer Generalisierung von Grenzlinien vorliegen, können kleine Restpolygone oder Schnipselflächen (engl. sliver-polygons) entstehen. Ein Geoinformationssystem sollte Funktionen besitzen, derartige Restflächen (automatisch) zu beseitigen. Sie können z.B. jeweils der Fläche zugeschlagen werden, mit der sie die größte gemeinsame Grenze besitzen.
projektierte Westumgehung projektierte Ostumgehung - Zone 1 - Zone 2
Siedlungen Wald Wiese Ackerland bestehende Strassen
Abb. 9.15: Anwendung geometrisch-topologischer Analysefunktionen: Zonengenerierung und Verschneidung
Die Abbildung 9.15 zeigt einen typischen Anwendungsfall von geometrischtopologischen Analysefunktionen auf. Für eine Ortsumgehung stehen zwei Trassenalternativen zur Diskussion, die im Rahmen einer Voruntersuchung gegenübergestellt werden sollen. Insbesondere sind der Landschaftsverbrauch und das Ausmaß an Veränderungen von vorhandenen Nutzungen oder Biotopen zu ermitteln. Die Abschätzung der Umweltauswirkungen erfordert, die möglichen Veränderungen in mehreren Belastungszonen entlang der beiden Trassenalternativen zu bestimmen und einander gegenüberzustellen. Hierzu werden Pufferzonen um die Trassen generiert, diese mit den vorliegenden Nutzungen verschnitten und abschließend Flächenbilanzen aufgestellt. Dieses recht einfache, in vielen Schritten
Bearbeitung und raumbezogene Analyse von Geoobjekten im Rastermodell
345
zu automatisierende Vorgehen hat den Vorteil, relativ schnell und vor allem kostengünstig eine Entscheidungshilfe zu liefern. Allerdings ist hierfür eine wesentliche Voraussetzung, dass geeignete Daten zur Verfügung stehen oder erhoben werden können. Herauszustellen ist, dass in einem Geoinformationssystem nicht nur eine rein graphische Überlagerung (wie in einem Kartographiesystem) möglich ist. Erst durch Verschneiden wird eine neue Datenebene erzeugt, die die Nutzungsdifferenzierung für Teilflächen nur in den Pufferzonen ausweist (vgl. Abb. 9.15), so dass Flächenbilanzen für diese Teilräume errechnet werden können.
9.4
9.4.1
Bearbeitung und raumbezogene Analyse von Geoobjekten im Rastermodell Aufbereiten von Rasterdaten
Die Erfassung von Rasterdaten kann direkt im Rasterformat über Scannersysteme erfolgen (vgl. Kap. 6.2.2). Die Daten werden dabei aus externen Bild- oder Rasterdaten erzeugenden Systemen (sog. Scannern) importiert: - Aufnahme von Bildern mit einer Digitalkamera und Scannen von analogen Papiervorlagen, Bildern oder Dias, - Aufnahme von Fernerkundungsdaten mit flugzeug- oder satellitengestützten Scannersystemen. Eine sehr häufige Anwendung ist, die Rasterdaten wie z.B. einen gescannten Stadtplan oder eine gescannte Topographische Karte in einem Geoinformationssystem auf Vektorbasis als Hintergrundinformation zur reinen Veranschaulichung oder Orientierung vorzuhalten. Die Rasterdaten dienen daneben vor allem als Datengrundlage zur On-Screen-Digitalisierung (vgl. Kap. 6.2.4). Im Anschluss an die Erfassung von Rasterdaten stellt sich entsprechend der Kalibrierung eines Digitalisiertabletts die Aufgabe, die Pixelkoordinaten (kartesisches Koordinatensystem, Ursprungskoordinaten (0,0) in der linken oberen Ecke) auf ein allgemeines Bezugssystem zu transformieren (sog. Georeferenzierung, zur Transformation vgl. Kap. 5.2.4 u. 10.6.1.2). Anwendungsfälle sind keineswegs selten. So ist z.B. bei Fragestellungen der kommunalen Wirtschaftsförderung zur besseren Orientierung ein Stadtplan zu hinterlegen, wobei lediglich die Gewerbeflächen als vektorielle Geoobjekte (in Gauß-Krüger- oder UTM-Koordinaten der Landesvermessung) mit Hilfe eines Digitalisiertabletts erfasst werden. Somit ergibt sich ein reduzierter Aufwand der Datenerhebung (d.h. Analog-Digital-Wandlung) bei dennoch optimaler Visualisierung der Gesamtsituation. Die Aufbereitung von Rasterdaten, die mit Methoden der Fernerkundung erhoben wurden, ist weitaus komplexer. So ist das Aufnahmebild z.B. aufgrund der Schräglage des Flugzeuges verzerrt. Die gleichgroßen Pixel geben unterschiedlich große Flächen wieder. Neben der Georeferenzierung wird eine Entzerrung notwendig (vgl. Kap. 10.6.1.2).
346
Geoinformationssysteme
Das Besondere der Rasterdatenerfassung mit Scannersystemen ist, dass die Pixel Träger von geometrischen und topologischen Informationen sowie von Sachinformationen sind. Diese sog. Grauwerte werden mit spezifischen Methoden der digitalen Bildverarbeitung ausgewertet (u.a. Verfahren zur Mustererkennung und Klassifikation, vgl. Kap. 10.6.6). Die Grauwerte eines Pixels liefern hierbei die entscheidenden Ausgangsinformationen für weitergehende Analysen, wobei Satellitenbilder in der Regel pro Pixel mehrere Grau- bzw. Kanalwerte besitzen. Gegenüber den Daten, die mit Scannersystemen erfasst wurden und die somit originär als Rasterinformationen vorliegen, können auch Sachdaten einem räumlichen Bezugsraster zugeordnet oder für ein Raster berechnet werden. Zwei Beispiele verdeutlichen typische Anwendungsfälle der Verarbeitung von Sachdaten auf Rasterbasis: In einem Emissionskataster liegen in der Regel die Geoobjekte, für die Emissionsdaten vorhanden sind oder berechnet werden können, zunächst im originären Raumbezug vor. Zumeist sind nur direkte Emissionswerte z.B. für Kraftwerke oder Industrieanlagen als Punktobjekte verfügbar. Verkehrsdaten liegen für Straßenabschnitte (d.h. Linienobjekte) vor. Für die Emittentengruppe Hausbrand und Kleingewerbe können häufig über die Stadtwerke für Baublöcke (d.h. Flächenobjekte) sog. Wärmeäquivalente bezogen werden, die den Einsatz verschiedener Energieträger zur Wärmeerzeugung quantifizieren. Über Emissionsfaktoren können für die einzelnen Emittentengruppen Emissionswerte abgeschätzt werden, die dann mit sehr unterschiedlichen räumlichen Bezügen in einem Geoinformationssystem auf Vektorbasis gespeichert sind. Die Umrechnung bzw. Konvertierung auf ein einheitliches Raumbezugssystem wird notwendig, wenn die Verbreitung eines einzelnen Luftschadstoffes für alle Emittentengruppen dargestellt werden muss, wozu sich dann ein Quadratraster nahezu anbietet. Ebenso ist die Modellierung von Schadstoffausbreitungen, d.h. von Immissionen, nur auf Rasterbasis möglich (vgl. Berlekamp u.a. 2000). Zur Beurteilung der Grundwassersituation für Planungsvorhaben und zur Eignung von Bauflächen ist für das Grundwasser eine sog. Flurabstandskarte zu erstellen, die den Abstand des Grundwassers zur Oberfläche wiedergibt. Hierbei werden die Grundwasserfläche und die Oberfläche des Geländes durch Punktdaten diskretisiert. Der Grundwasserstand liegt nur für ein unregelmäßiges Netz von Grundwassermessstellen vor. Die Höhendaten können als Digitale Geländemodelle für Raster unterschiedlicher Maschenweiten von den Landesvermessungsbehörden bezogen werden (vgl. Kap. 6.6.1). Somit ist naheliegend, beide Oberflächen durch Rasterdaten zu modellieren. Das Raster liefert die gemeinsame Raumbezugsbasis. Die Sachdaten für eine Rasterzelle sind zum einen die Geländehöhen und zum anderen die Grundwasserstände. Mit Methoden der Rasteralgebra (vgl. Kap. 9.4.3) kann paarweise für jeweils zwei Rasterzellen die Differenz aus Geländehöhe und Grundwasserstand (jeweils in m über NN) berechnet werden, die dann den Flurabstand des Grundwassers (auf Rasterbasis) darstellt. Allerdings setzt dieses Vorgehen voraus, aus den Messdaten an wenigen Bohrpunkten Grundwasserstände für sämtliche Rasterzellen im Untersuchungsgebiet zu berechnen. Hierzu bieten Geoinformationssysteme verschiedene Methoden der räumlichen Interpolation (vgl. Kap. 9.6.3).
Bearbeitung und raumbezogene Analyse von Geoobjekten im Rastermodell
347
Beiden Beispielen ist gemeinsam, dass die Ausgangsinformationen als Vektordaten vorliegen und dass die Bearbeitung der Fragestellung nur mit Methoden auf Rasterbasis möglich ist. Dabei ist aufgrund des einheitlichen, einfachen und starren Rasters weniger die Aufbereitung und das Editieren der Geometrien relevant, die bei einem vektorbasierten Geoinformationssystem große Bedeutung besitzen, als vielmehr die Verwaltung der thematischen Daten auf Rasterbasis. So müssen zum einen die zu Punkt-, Linien- oder Flächenobjekten vorhandenen Sachdaten jetzt Rasterzellen zugeordnet werden. Das Raster wird über die Vektordaten gelegt und „durchgedrückt“ (vgl. Kap. 9.4.2). Zum anderen müssen ausgehend von wenigen Sachdaten die übrigen Rasterzellen gefüllt werden (vgl. Kap. 9.6). 9.4.2
Konvertieren von Sachdaten auf Rasterbasis
Bei der Konvertierung von (Flächen-)Informationen in ein regelmäßiges Raster tritt das häufige Problem auf, dass auf eine Rasterzelle u.U. mehrere Ausgangsinformationen entfallen, da sich die allgemein unregelmäßigen Flächen nur schwer durch ein Raster annähern lassen. Diese Zuordnungsprobleme sind bei einer gröberen Zellstruktur im Allgemeinen größer, ein feineres Raster löst aber das prinzipielle Problem nicht. Die Abbildung 9.16 verdeutlicht eine Datenkonvertierung, die zeilenweise vorgeht und bei der eine Zelle die Eigenschaft der Ausgangsdatenschicht erhält, die den größten Teil der Zelle besetzt. Falls eine Zelle z.B. aus 35% Ahorn- und 45% Nadelwald besteht, wird nach dieser Methode die Zelle dem Nadelwald zugeordnet. Bei einer weiteren Methode kann die Eigenschaft bestimmt werden, die zuerst bzw. mit einem höheren Gewicht einer Zelle zugeordnet werden soll. Wenn z.B. bei einer Vegetationsaufnahme eine seltene Pflanzenart gefunden wurde, kann dieser Art bei der Konvertierung zu Rasterdaten ein Vorrang gegenüber den anderen Pflanzenarten gegeben werden.
2
1 3
5 4
1
1
2
2
2
2
3
1
1
4
4
2
3
3
5
5
4
2
3
5
5
4
2
2
5
5
5
4
4
4
5
4
4
4
4
4
3
2
5
3
2 4
5
4
4
5
Abb. 9.16: Sachdatenkonvertierung: Vektor-Raster- und Raster-Vektorkonvertierung
Auch für den umgekehrten Fall, dass für Rasterzellen Sachdaten vorliegen, denen Flächen im Vektorformat zugewiesen werden müssen, stellt ein Geoinformationssystem Funktionen zur Verfügung. So können z.B. mit einem Thermalscanner, der in einem Flugzeug eingesetzt wird und der die Strahlungstemperatur von Oberflächen misst, ein Thermalbild ermittelt und daraus für ein Stadtgebiet Ober-
348
Geoinformationssysteme
flächentemperaturen auf Rasterbasis bestimmt werden. Diese Thermaldaten können Gebäudeflächen zugewiesen werden, deren Umrisse aus der ALK stammen (vgl. Wessels 2000 S. 75ff.). Zur Lösung dieser Konvertierungsaufgabe wird in der Praxis fast ausschließlich die sog. Punktmethode angewandt, bei der die Geoobjekte mit den Mittelpunkten der Rasterzellen verschnitten werden (vgl. Abb. 9.16). Falls die Mittelpunktkoordinate einer Rasterzelle innerhalb eines flächigen Geoobjektes liegt, wird der Wert dieser Zelle zur Berechnung des Attributwertes für das Geoobjekt herangezogen (z.B. zur Ermittlung einer durchschnittlichen Oberflächentemperatur durch Mittelwertbildung der rasterbezogenen Sachdaten wie z.B. in Abb. 9.16, Mittelwert aus den Werten 2, 4, 5, 5 und 4). 9.4.3
Räumliche Analysen von Rasterdaten
Für die räumliche Analyse von Rasterdaten bestehen zum einen Methoden, die die Rastergeometrie betreffen und die mit den im Kapitel 9.3.4 behandelten räumlichen Analyseverfahren auf Vektorbasis vergleichbar sind (vgl. Abb. 9.12, 9.13 u. 9.14). Zum anderen liegen Methoden vor, die sich nur auf die Attributwerte in Matrixform beziehen und die dabei von der konkreten Form und Größe einer Rasterzelle abstrahieren. Herauszustellen ist, dass viele Funktionen für Rasterdaten aus der Bildverarbeitung stammen, woraus sich häufig die Terminologie erklärt (vgl. Filteroperationen, Bezeichnung der Attributwerte als Grauwerte). Hier stehen keine typischen Bildverarbeitungs- und Bildauswertungsfunktionen im Mittelpunkt (vgl. Kap. 10.6 u. 10.7) als vielmehr derartige Funktionen, die Methoden der räumlichen Analyse in vektorbasierten Geoinformationssystemen nachbilden. Allerdings lassen sich hierbei einzelne Funktionen nicht eindeutig auf einen Bereich beschränken. So ist z.B. die Schwellwertbildung (engl. thresholding) ein Verfahren zur Bildverbesserung, bei der Grauwerte unterhalb einer Schranke den Wert Null erhalten und als (Bild-Störungen) aufgefasst werden und oberhalb dieser Schranke einen anderen konstanten Wert zugewiesen bekommen. Die Anwendung derartiger lokaler Operatoren dient aber auch dazu, um Rasterdaten wie z.B. die räumliche Verteilung von Höhen- oder Niederschlagsdaten auf Rasterbasis zu klassifizieren. Die Generierung von Zonen erfolgt durch Verdickung (oder durch Verdünnung) von Rasterzellen. Entsprechend der Operation in einem vektorbasierten Geoinformationssystem ist dies eine primär geometrisch-topologische Funktion, bei der die Attributwerte der Rasterzellen zwar u.U. zur Steuerung der Auswahl, aber sonst nicht weiter beachtet werden. Ebenso sind räumliche Überlagerungen und Verschneidungen sowie Grenzfunktionen durch einfache logische Operationen umzusetzen. Zur Verdeutlichung dieser Funktionen sollen mehrere Vereinbarungen getroffen werden: Die Nachbarschaft von Pixeln wird über gemeinsame Kanten definiert (vgl. Kap. 9.2.3). Die Ausgangs- bzw. Ergebnisdatenschichten werden mit InGrid(i,j) bzw. OutGrid(i,j) bezeichnet. Die Attributwerte einer Rasterzelle besitzen den Wert 0 oder einen Wert t 1, denen die logischen Werte „falsch“ bzw. „wahr“ zugeordnet sind. Dann gelten:
Bearbeitung und raumbezogene Analyse von Geoobjekten im Rastermodell
Aussenbuffer (Verdickung, engl. blow): OutGrid(i,j) = InGrid(i,j) or InGrid(i+1,j) or or InGrid(i,j+1) or
349
InGrid(i-1,j) InGrid(i,j-1)
Innenbuffer (Verdünnung, engl. shrink): OutGrid(i,j) = InGrid(i,j) and InGrid(i+1,j) and InGrid(i-1,j) and InGrid(i,j+1) and InGrid(i,j-1) Falls andere Nachbarschaften zugrunde gelegt werden, sind mit geringem Mehraufwand weitere Verdickungs- und Verdünnungsoperationen zu definieren. Wie die Abbildung 9.17 zeigt, haben diese Funktionen besondere Anwendungsmöglichkeiten in der Bildverarbeitung. So können durch Verdickung und anschließender Verdünnung Lücken im Ausgangsbild geschlossen werden. Durch das umgekehrte Vorgehen (erst Verdünnung, dann Verdickung) sind Generalisierungseffekte der Geometrie zu erreichen. Hierbei sind allerdings durch geeignete Funktionen Attributwerte neu zu berechnen.
Verdickung (blow)
Verdünnung (shrink)
Verdickung (blow)
Abb. 9.17: Verdickung (blow) und Verdünnung (shrink)
Für räumliche Überlagerungen und Verschneidungen gelten: Vereinigung: OutGrid(i,j) = InGrid1(i,j)
or
InGrid2(i,j)
Gemeinsamer Durchschnitt: OutGrid(i,j) = InGrid1(i,j) and InGrid2(i,j)
or
...
and
...
350
Geoinformationssysteme
InGrid1
InGrid2
OutGrid
Abb. 9.18: Vereinigung und gemeinsamer Durchschnitt mit Hilfe der Map-Algebra
Das „Ausstanzen“ von Gebieten oder das „Abschneiden“ von thematischen Schichten am Rand (zu ähnlichen Funktionen vgl. Abb. 9.13) erfolgt über lokale logische Operatoren. Ein Raster, das als Attributwerte nur die logischen Werte „wahr“ oder „falsch“ besitzt, dient als Maske, die das Eingaberaster überdeckt (sog. Maskieren, vgl. Abb. 9.19): Maskieren: OutGrid(i,j) = InGrid(i,j) if Maske(i,j)
InGrid
Maske
OutGrid
Abb. 9.19: Maskieren
Eine weitere wichtige Funktion der Verarbeitung von Rastergeometrien ist die Bildung der Abstandstransformierten. Hierbei wird von (einer Gruppe zusammenhängender) Rasterzellen ausgegangen, die einen gleichen Grauwert haben, die also z.B. eine gleiche Thematik besitzen. Entsprechend der zugrundeliegenden Metrik wird für jede dieser Rasterzellen der Abstand zum Rand des Untersuchungsgebietes gebildet. Diese Abstandswerte werden als Attributwerte in ein zweites Raster eingetragen. Sie bilden die Abstandstransformierte, deren Grauwerte als Abstände zu interpretieren sind. Wird dieser Prozess fortgesetzt, entstehen Grauwerte, die von außen nach innen immer größer werden. Die maximalen Werte dieses Abstandsgebirges werden auch als das Skelett der Rasterstruktur bezeichnet.
Bearbeitung und raumbezogene Analyse von Geoobjekten im Rastermodell
351
Abb. 9.20: Bilden der Abstandstransformierten
Die Abstandstransformierte kann sehr einfach durch mehrere, nacheinander auszuführende logische Operationen ermittelt werden. Hierzu wird die Gruppe der Rasterzellen so lange schrittweise um jeweils eine Zellenbreite verringert, bis sie sich auflöst. Durch die logische „oder“-Verknüpfung werden anschließend die einzelnen Verdünnungen addiert. Die Abbildung 9.20 zeigt das Prinzip der Verdünnung und die Addition der Verdünnungen. Die Verarbeitung der Rasterdaten, d.h. der Attributwerte auf Rasterbasis, zeichnet sich dadurch aus, dass mehrere Datenschichten eine identische Raumbezugsbasis besitzen. Beliebige Raumausschnitte und deren Attributwerte können jetzt einfach miteinander verknüpft werden. Dabei ist ohne Bedeutung, ob Grauwerte einer Bildmatrix oder thematisch vorgegebene Attributwerte auf Rasterbasis vorliegen. Letztlich läuft die Verarbeitung dieser Rasterinformationen auf die Verarbeitung von Matrizen mit Zahlen hinaus. Auf Zahlenmatrizen werden bestimmte Operatoren (Verknüpfungen) ausgeführt, so dass als Ergebnis wieder eine Zahlenmatrix entsteht (vgl. Abb. 9.21).
22,3
15,2
24,6
13,2
11,8
18,4
9,1
3,4
6,2
16,7
9,3
37,1
5,9
6,1
15,9
10,8
3,2
21,2
13,2
8,4
21,3
9,1
6,5
16,3
4,1
1,9
5,0
InGrid 1
InGrid 2
OutGrid = Funktion (InGrid 1, InGrid 2) z.B. InGrid 1 - InGrid 2
Abb. 9.21: Prinzip der Rasterdatenverarbeitung mit der Map Algebra
Das Kalkül wird nach Tomlin (1990) in Analogie zur Zahlenalgebra Map Algebra genannt. Herauszustellen ist, dass nur eine beschränkte Zahl von Operatoren notwendig ist, um sämtliche Verarbeitungsmöglichkeiten von Rasterdaten abzudecken. Tomlin spricht von 64 Operatoren. Die Abbildung 9.21 verdeutlicht das zugrunde liegende Prinzip, wobei zwei Datenebenen mit einem arithmetischen
352
Geoinformationssysteme
Operator verknüpft sind. Ähnlich lassen sich auch logische Verknüpfungen darstellen, die z.B. Verschneidungen mehrerer Datenebenen umsetzen (vgl. Abb. 9.18). Das im Kapitel 9.4.1 genannte Beispiel, das die Erstellung einer Flurabstandskarte für das Grundwasser erläutert, zeigt einen komplexen Anwendungsfall auf. Die Operatoren der Map Algebra können verschiedenen Kategorien zugeordnet werden: - Lokale Operatoren betrachten jeweils genau eine Zelle u.U. in mehreren thematischen Schichten an derselben Stelle. Die Werte von benachbarten Zellen haben keinen Einfluss. Als Beispiele sind logische bzw. algebraische Operatoren wie Vergleiche oder Addition der Attributwerte und Umkodierungen bzw. Reklassifizierungen zu nennen (vgl. Abb. 9.21). - Fokale Operatoren beziehen sich jeweils auf eine feste Umgebung einer Zelle. Einbezogen werden z.B. die N.4-Nachbarn einer Zelle (vgl. Kap. 9.2.3). Als wichtige Beispiele sind die sog. Filterfunktionen zu nennen, die in der Bildverarbeitung eine große Rolle spielen (vgl. Kap. 10.6.4), sowie die Berechnung von Hangneigung und Exposition auf der Basis von (Gelände-)Höhendaten in Rasterform. - Zonale Operatoren berechnen innerhalb eines vorher festgelegten Gebietes (d.h. einer Zone) einer ersten thematischen Schicht Werte aus Zellen einer zweiten thematischen Schicht. Die Summierung aller Werte der Zellen der zweiten thematischen Schicht, die in einer Zone der ersten Schicht liegen, ist ein recht häufiger Anwendungsfall. - Globale Operatoren berechnen ein Outputraster, indem jeder Zellenwert prinzipiell ein Funktionswert von allen Eingabezellen sein kann. Zu unterscheiden sind zwei Hauptgruppen von globalen Operatoren, die auf der euklidischen oder gewichteten Distanzen beruhen (z.B. Berechnung von Kostenoberflächen). - Inkrementelle Operatoren gehen entlang von vorgegebenen ein-, zwei- oder dreidimensionalen Geoobjekten vor (z.B. entlang einer Kette von Zellen oder über ein Gelände hinweg). Die Berechnungen von Abflussrichtungen und Abflusswegen ausgehend vom Höhenwert eines Pixels sind wichtige Beispiele.
9.5 9.5.1
Netzwerkanalysen Das Netzwerkdatenmodell
Die Analyse von Netzwerken gehört zu den zentralen Anwendungen von Geoinformationssystemen. Netzwerke spielen bei sehr vielen Aufgaben vor allem im Transportwesen eine wichtige Rolle. Sie modellieren Verkehrssysteme wie Straßen- oder Schienennetze, aber auch Leitungsnetze wie z.B. Rohrleitungsnetze von Ver- und Entsorgungsunternehmen oder Telekommunikationsleitungsnetze. Formal definiert sind Netzwerke Mengen von Knoten und Kanten. Sie gehören zu den Graphen, wobei in der Praxis zumeist nur unsymmetrische und gewichtete (oder bewertete) Graphen vorkommen (vgl. Kap. 3.5.2). Die Modellierung und
Netzwerkanalysen
353
Analyse von Netzwerken erfolgt auf Grundlage der Graphentheorie. Netzwerke besitzen eine Knoten-Kanten-Knoten-Topologie. Sie bauen somit auf dem Vektormodell auf. Die Netzwerkkanten repräsentieren miteinander verbundene, lineare Einheiten. Sie können Straßen, Eisenbahn- oder Schifffahrtslinien für ein Transportnetzwerk ebenso wie Leiterbahnen eines elektrischen Leitungsnetzes oder die Flüsse eines Flussnetzes darstellen. Die Knoten des Netzwerkes sind z.B. Haltestellen oder allgemeine Verknüpfungsstellen wie z.B. Kreuzungen. Allen Elementen des Netzwerkes können Eigenschaften zugewiesen werden, die dann je nach Aufgabenstellung in die Analyse mit einbezogen werden. Die Bewertung der Kanten erfolgt in der Regel durch die Weglänge zwischen zwei Knoten in einer Längeneinheit, sie kann aber auch z.B. Fahrtzeiten ausdrücken. Hierdurch werden allgemein Widerstandswerte modelliert, die zwischen zwei Knoten zu überwinden sind. Den Kanten eines Netzwerkes können für beide Richtungen Widerstandswerte zugeordnet werden. Ein negativer Widerstandswert bedeutet für die Netzwerkkanten, dass diese bzw. diese Richtungen nicht durchlaufen werden dürfen (z.B. Straßensperren, Baustellen, Einbahnstraßen bzw. Modellierung der Fließrichtung). Ebenso können die Knoten je nach Fragestellung unterschiedlich modelliert werden. So können einzelne, aber nicht notwendig sämtliche Knoten als Haltestellen definiert werden, die auf einem Weg besucht werden müssen. Ferner kann wie z.B. bei Planung einer Buslinie vorgegeben werden, in welcher Reihenfolge Stops zu durchlaufen sind. Allerdings reicht es nicht aus, ein Straßen- oder Flussnetz durch eine einfache Knoten-Kanten-Knoten-Struktur zu modellieren, bei der lediglich die Kanten und Knoten bewertet sind. Generell bestehen an jedem Netzwerkknoten Übergänge von einer Netzwerkkante zu einer anderen, die ebenfalls zu modellieren sind. Herauszustellen ist, dass gerade die Modellierung dieser Übergänge sehr aufwändig, aber unabdingbar ist. So werden in einem realen Wegenetz Straßen (auch) über Brücken geführt, so dass hier kein Abbiegen möglich ist. An anderen ebenen Kreuzungen bestehen Abbiegeverbote. In einem Flussnetz treten abgesehen von Kanalüberführungen Querungen über Brücken zwar nicht auf, bei einer Flussmündung ist aber die Fließrichtung, d.h. die „Abbiegevorschrift“ nur in Fließrichtung des Wassers, vorgegeben. Insbesondere können den Übergangsmöglichkeiten zwischen den Netzwerkkanten sehr differenziert Widerstandswerte zugewiesen werden. So geht im Straßenverkehr an jedem Kreuzungspunkt am wenigsten Zeit beim Überqueren einer Kreuzung mit gegebener Vorfahrt, aber am meisten Zeit verloren, wenn eine Ampelanlage mit langer Rotzeit das Weiterfahren verzögert. An jedem Knotenpunkt sind dann n² mögliche Übergangsmöglichkeiten zu quantifizieren, wobei n die Anzahl der an einem Knotenpunkt miteinander verbundenen Netzwerkkanten darstellt (n-1 Abzweigungen und einmal Umkehren). Insgesamt bestehen in Verkehrsnetzen häufig sehr komplexe Situationen, die aufwändig zu modellieren sind: Einzelfahrbahnen von Autobahnen, die jeweils nur eine Fahrtrichtung erlauben, Straßenüberführungen, mehrspurige Straßen mit unterschiedlichen Abbiegeeigenschaften, Autobahnkreuze, Kreisverkehr.
354
9.5.2
Geoinformationssysteme
Analyse optimaler Wege in einem Netzwerk
Zu den Standardaufgaben gehören die Ermittlung kürzester Wege zwischen zwei Knoten in einem Netzwerk und die Lösung des sog. Rundreiseproblems, bei dem eine optimale Route durch mehrere Orte bestimmt wird, die wieder zum Ausgangspunkt zurückführt. Derartige Aufgaben werden auf der Basis von Algorithmen zur Wegewahl aus der Graphentheorie gelöst (vgl. Kap. 3.5.2).
Abb. 9.22: Kürzester Weg zwischen zwei Punkten
Die Abbildung 9.22 zeigt einen optimalen Weg zwischen zwei Punkten im Straßennetz der Stadt Osnabrück, der nach Fahrtzeit und (lediglich) unter Berücksichtigung von Abbiegevorschriften berechnet wurde. Grundlage der Modellierung bildete der Objektbereich 3000 „Verkehr“ des Amtlichen TopographischKartographischen Informationssystems ATKIS (vgl. Kap. 6.6.3 u. Abb. 6.19). Hierbei mussten nachträglich vor allem die Brücken und Kreuzungen mit der Autobahn beachtet werden, die keine Straßenkreuzungen und Auffahrtmöglichkeiten darstellen. Ferner wurden hier drei unterschiedlich hohe Fahrtgeschwindigkeiten berücksichtigt. Darüber hinaus kann das Netzwerkmodell noch weiter verfeinert werden. So können z.B. auch noch Einbahnstraßen oder „Tempo30-Zonen“ wie auch die Abbiegezeit modelliert werden. 9.5.3
Ermittlung von Einzugsbereichen
Mit Analysemethoden auf Netzwerken können sog. Allokationsaufgaben bearbeitet werden, die einem Knoten bestimmte Netzwerkabschnitte zuordnen, die ausgehend von diesem Knoten in einer festgelegten Distanz erreicht werden können. In einer Anwendungsaufgabe soll die Erreichbarkeit von Grundversorgungseinrichtungen mit Lebensmitteln analysiert werden.
Netzwerkanalysen
355
Abb. 9.23: Ermittlung von Versorgungsbereichen durch Netzwerkanalyse
Zu bestimmen sind zunächst die Straßen und Wege, über die ein vorgegebener Punkt im Netzwerk in weniger als 500 m Weglänge zu erreichen ist (als maximal anzunehmende Entfernung bei Vollversorgern der wohnungsnahen Grundversorgung). Dabei soll kein einfacher Kreis mit einem Radius von 500 m um einen Standort gelegt werden. Stattdessen geht es hier um die Erreichbarkeit entlang von Straßen und Wegen in einem konkreten Verkehrsnetz. Ermittelt wird für jeden Standort die Erreichbarkeit auf den Kanten des Netzwerkes (sog. Versorgungsnetz), wobei die zusammenhängenden Wege bzw. Kanten bestimmt werden, die zusammen nicht weiter als 500 m von einem Punkt wegführen. Im einfachsten Fall werden nur die Fußwege berücksichtigt, so dass die aufwändige Modellierung von Abzweigungen oder von Einbahnstraßen entfällt. Anschließend wird der flächige Einzugsbereich durch ein Polygon bestimmt, das die errechneten Zuwege umschließt. Hierzu können alle Endpunkte des Versorgungsnetzes durch gerade Linien verbunden werden (vgl. Abb. 9.23). Demgegenüber kann auch ein generalisierter Einzugsbereich bestimmt werden, bei dem die äußersten Endpunkte des Versorgungsnetzes verbunden und somit die konvexe Hülle berechnet werden. Nachdem ein Versorgungsbereich einer Grundversorgungseinrichtung bestimmt worden ist, kann in einem weiteren Schritt berechnet werden, wie groß die dort ansässige Wohnbevölkerung ist. Hierzu wird der Versorgungsbereich mit der Datenebene verschnitten, die Wohngebäude nach der Automatisierten Liegenschaftskarte (ALK) mit der zugehörigen Wohnbevölkerung ausweist. Diese Verschneidung und das Bilden eines gemeinsamen Durchschnitts beider thematischen Schichten ist eine Standardaufgabe eines Geoinformationssystems. Demgegenüber stellt die Zuweisung von Bevölkerungsdaten zu den ALK-Wohngebäuden keine triviale Aufgabe dar. So müssen die Daten des Einwohnermeldeamtes digital verfügbar sein, dem häufig Datenschutzprobleme entgegenstehen. Ferner muss die Adresscodierung der Einwohnerdaten mit den Schlüsselnummern der ALKGebäude kompatibel sein (vgl. Hackmann u. de Lange 2001).
356
9.5.4
Geoinformationssysteme
Weitere Analysemöglichkeiten in einem Netzwerk
Geoinformationssysteme bieten weitere Funktionen zur Netzwerkanalyse. So können entsprechend der Traversierung eines Baumes (vgl. Kap. 3.3.4.4) sämtliche zusammenhängende Kantenfolgen bestimmt werden, die von einem Knoten ausgehen. Eine Anwendung ergibt sich, wenn in einem Flussnetz nach Einleitung eines Schadstoffes sämtliche Flussabschnitte flussabwärts ermittelt werden sollen, in die der Schadstoff gelangen könnte. Ferner kann nicht nur die optimale Route zwischen zwei vorgegebenen Knoten errechnet werden. Mit ähnlicher Methodik kann darüber hinaus zu einem einzelnen Knoten, der z.B. einen Unfallort darstellt, der Standort eines Einsatzfahrzeugs bestimmt werden, der den Unfallort über die Netzkanten am schnellsten erreichen kann. Weitergehende Analysen sind möglich, wenn Bewertungen der Knoten berücksichtigt werden. Ein Anwendungsbeispiel ergibt sich, wenn mehrere Standorte mit unterschiedlicher Nachfrage beliefert werden müssen und eine optimale Route eines Transporters mit beschränkter Ladekapazität zu berechnen ist. Der Wert eines Knotens kann aber auch ein dort verfügbares Angebot quantifizieren. Funktionen der Netzwerkanalyse weisen einem derartigen Knoten fortlaufend Netzwerkkanten zu, die zusammenhängend sind und die somit zum Knoten führen. In jedem Schritt wird die Kante hinzugenommen, die den geringsten Distanzzuwachs vom Knoten bringt. Dieser Prozess wird solange fortgesetzt, bis die Nachfrage an den Kanten das Angebot erreicht. In einem Anwendungsbeispiel kann ein Knoten eine Grundschule mit einem Angebot an Schulplätzen darstellen. Dieser Schule werden Straßenabschnitte mit dort wohnenden Grundschülern zugewiesen, um Neuabgrenzungen von Schulbezirken zu erarbeiten.
9.6
9.6.1
Räumliche Interpolation und Modellierung von Flächen Ausgangsfragestellungen
Zum Funktionsumfang eines komplexen Geoinformationssystems gehören Verfahren zur räumlichen Interpolation und zur Modellierung von Flächen im Raum. Dabei zielen die zugehörigen Methoden im Prinzip auf ähnliche Fragestellungen ab: Ausgehend von wenigen, im Raum verteilten Punkten (xi,yi) mit Attributwerten zi (z.B. Niederschläge oder Höhenangaben) sollen für beliebige Punkte (xk,yk) Attributwerte zk bestimmt werden. Die unbekannten zk-Werte an diesen Punkten sollen aus den vorhandenen zi-Werten gewonnen werden. Hierzu werden häufig Interpolationsverfahren eingesetzt, wobei als Grundvoraussetzung zumeist implizit angenommen wird, dass diejenigen Standorte (bzw. die zugehörigen Werte) den gesuchten Wert an einem neuen Standort stärker beeinflussen, die näher zu ihm liegen. Die Interpolationsverfahren laufen auf die Bestimmung gewichteter Mittelwerte hinaus.
Räumliche Interpolation und Modellierung von Flächen
357
Den Interpolationsverfahren kommt eine wichtige Funktion im Zusammenhang mit der Rasterdatenverarbeitung zu. Ausgehend von wenigen Werten für einzelne Rasterzellen müssen häufig Attributwerte für die übrigen Rasterzellen bestimmt werden. Diese Aufgabe stellt sich immer dann, wenn nur wenige und somit diskrete Beobachtungswerte einer stetigen räumlichen Werteverteilung vorliegen, die Gesamtverteilung durch viele Rasterwerte bestimmt und letztlich auch diskretisiert werden muss. Häufige Anwendungsbeispiele sind die Berechnungen einer räumlichen Niederschlags- oder Temperaturverteilung, einer Gelände- oder Grundwasseroberfläche oder der räumlichen Verteilung von Stoffkonzentrationen im Boden (jeweils auf Rasterbasis). Diesen Beispielen ist gemeinsam, dass wenige räumliche Stichprobenwerte vorliegen, aus denen fehlende Werte errechnet werden sollen. Bei den hier vorgestellten Interpolationsverfahren werden aber keine Annahmen über das zugrunde liegende Verteilungsmodell der Daten, d.h. der zi-Werte, gemacht. Anstelle z.B. den Grundwasserstand aus wenigen Messdaten zu interpolieren, wäre alternativ ein räumliches Modell zu erarbeiten, mit dem der Grundwasserstand zu simulieren wäre. Allerdings sind derartige Verfahren sehr komplex, so dass zumeist vereinfachte Interpolationsverfahren eingesetzt werden. Die Betrachtung dieser speziellen Ansätze, die auf bestimmten fachlichen Modellierungsannahmen basieren, ist nur im jeweiligen fachlichen Kontext sinnvoll. Gegenüber diesen Verfahren kann bei einem anderen Vorgehen angenommen werden, dass sämtliche zi-Werte auf einer Fläche liegen. Dieser Ansatz liegt bei Höhenangaben auf der Hand, aus denen ein digitales Geländemodell (DGM bzw. DTM für digital terrain modell bzw. auch DHM für digitales Höhenmodell oder DEM für digital elevation model) zu erarbeiten ist. Hierbei wären Interpolationsverfahren nicht optimal. Durch Einbeziehen der Zusatzinformation, dass dreidimensionale Daten vorliegen und die zi-Werte auf einer Fläche liegen, können geeignetere Verfahren eingesetzt werden. Dieser Ansatz, eine dreidimensionale Fläche im Raum zu modellieren, kann auf andere Daten mit x,y-Lagekoordinaten und somit auf allgemeine Werteoberflächen übertragen werden: räumliche Verteilung von z.B. Niederschlägen, Grundwasserständen oder Bodenpreisen. Hierbei wird ein räumlicher Prozess zugrunde gelegt, der zu kontinuierlichen bzw. stetigen Veränderungen der Werte führt. 9.6.2
Trendflächenanalyse
Die Trendflächenanalyse berechnet ein Polynom n-ter Ordnung, das die zi-Werte an den Beobachtungsstellen bestmöglich annähert (vgl. Schönwiese 2000 S. 232ff.): f ( x, y )
a0 a1 x a 2 y a3 x y a 4 x 2 a5 y 2 a6 x 2 y a7 x y 2 a8 x 3 ...
Ein derartiges Polynom stellt eine Fläche im Raum dar, so dass bei dreidimensionaler Betrachtung der Ansatz recht anschaulich ist. Versucht wird, die Beobachtungswerte zi an den Stellen (xi,yi) durch eine Fläche anzunähern. Die Koeffizienten werden derart bestimmt, dass die Summe der Abweichungsquadrate
358
Geoinformationssysteme
zwischen den Beobachtungs- und den Funktionswerten an den Beobachtungsstellen minimal wird (zur Ausgleichsrechnung vgl. Kap. 5.2.4.5): f ( xi , y i )
zˆi | z i
wobei
¦ zˆ z i
i
2
minimal
Der einfachste Fall einer linearen Trendfläche, bei der anschaulich beschrieben eine Ebene durch die Punkte gelegt wird, ist gleichbedeutend mit der linearen Regression mit zwei Prädiktorvariablen (hier: x,y Koordinaten). Bei Polynomen hoher Ordnung wird die Summe der Abweichungsquadrate zwar kleiner, diese Polynome (bzw. die Flächen) neigen aber dazu, zwischen den Beobachtungs- oder Messpunkten zu oszillieren. Somit werden zumeist nur Trendflächen bis zur dritten Ordnung eingesetzt. Die Trendflächenanalyse basiert auf der Annahme, dass bei Beobachtungswerten zufallsbedingte Schwankungen oder Messfehler auftreten, die durch eine flächige Annäherung ausgeglichen werden können. Durch Einsetzen von Koordinatenwerten beliebiger Punkte (xk,yk) in die Gleichung können zwar zk-Werte errechnet werden. Die Trendflächenanalyse dient aber weniger der Interpolation. Vielmehr soll ein allgemeiner Zusammenhang zwischen der Lage und den Beobachtungswerten bestimmt werden, um ähnlich zur Analyse der Residuen im Rahmen einer Regressionsanalyse lokale Besonderheiten herauszuarbeiten (z.B. räumliche Niederschlagsanomalien). 9.6.3
Räumliche Interpolation durch Mittelwertbildung
Große praktische Bedeutung haben die Interpolationsmethoden, die einen gesuchten Wert für einen Punkt Pk durch einen gewichteten Mittelwert aus den Messoder Beobachtungswerten an den nächstgelegenen Punkten Pi schätzen: zk
¦ f (d ) z ¦ f (d ) ki
i
ki
mit zk zi dki f
Wert für den Punkt Pk = (xk,yk) Wert für Beobachtungspunkt Pi = (xi,yi) Distanz zwischen Pk und Pi Gewichtungsfunktion
Die räumlichen Interpolationsansätze durch Mittelwertbildung unterscheiden sich hinsichtlich der Bestimmung der Gewichte und der Auswahl der benachbarten bzw. der zu berücksichtigenden Punkte. In der Regel werden zur Mittelwertbildung nicht sämtliche Ausgangswerte hinzugezogen, sondern nur die Werte in einem vorab festzulegenden Umkreis zum Punkt Pk. Hierdurch können räumlich weit entfernte Ausreißer ausgeschlossen werden. Die Gewichte werden aus den Distanzen zu den Mess- oder Beobachtungspunkten bestimmt. Die gebräuchlichsten Gewichtsfunktionen sind:
Räumliche Interpolation und Modellierung von Flächen
f (d) f (d)
= d-Į = e-Į*d*d
359
reziproke oder inverse Distanz Glockenkurve nach Gauß
Die Gewichtsfunktion sowie die Werte für den Koeffizienten Į im Exponenten ebenso wie die Anzahl der Einflusswerte oder die Größe des Einzugsbereiches werden geschätzt oder aufgrund der Fragestellung vorgegeben. Leicht einzusehen ist, dass bei größer werdendem Į der Einfluss der weiter entfernt liegenden Punkte geringer und der benachbarter Punkte größer wird. Im einfachsten Fall werden als Gewichte die inversen Distanzen der Beobachtungs- oder Messpunkte zur Schätzstelle genommen (engl.: inverse distance weighting, idw-interpolation). Die weiter entfernt liegenden Punkte, also die Punkte mit der größten Distanz, erhalten somit ein kleineres Gewicht. Dabei wird davon ausgegangen, dass jeder Eingabepunkt einen lokalen Einfluss hat, der sich mit zunehmender Entfernung verringert. Somit wird unterstellt, dass eine Ähnlichkeit räumlich benachbarter Punkte besteht. Diese Verfahren machen daher nur Sinn, falls dieser Basisannahme zugestimmt werden kann. Ein Rechenbeispiel, das von vier Beobachtungswerten und einem zu suchenden Wert an der Stelle P0 = (5,4) ausgeht, verdeutlicht dieses Verfahren:
Pi 1 2 3 4
xi 1 3 6 8
yi zi d(Po,Pj) d-1(Po,Pj) zi * d-1(Po,Pj) 4 0,2 1 20 5 2,77 0,277 7 10 3,61 15,61 0,446 2 35 2,24 14,22 0,316 5 45 3,16 36,6 1,259 110
arithmetisches Mittel für Po(5,4) = 110/4 = 27,5 gewichtetes Mittel für Po(5,4) = 36,6/1,259 = 29,1
7 6 5 4 3 2 1 0
P2 P4
P0
P1
P3
1 2 3 4 5 6 7 8
Abb. 9.24: Räumliche Interpolation durch Gewichtung mit inversen (reziproken) Distanzen
Bei diesen Interpolationsverfahren, denen keine geostatistischen Modelle zugrunde liegen, erfolgt die Operationalisierung des räumlichen Zusammenhangs bzw. der Ähnlichkeit in gewisser Weise unabhängig von den Daten. Zwar wird die Gewichtungsfunktion in Abhängigkeit der Fragestellung bestimmt, nicht weiter wird aber der tatsächliche räumliche Zusammenhang der zi-Werte berücksichtigt, der z.B. bei verschiedenen Niederschlagsereignissen unterschiedlich ausfallen kann. Ferner wird im Standardfall angenommen, dass die Distanzabhängigkeit zu allen Richtungen gleich ist. Demgegenüber stellt die Interpolation nach dem Krigingkonzept eine komplexe Weiterentwicklung dar. Auch hier werden gewichtete arithmetische Mittelwerte berechnet, wobei aber die Gewichte für jeden Interpolationspunkt mit Hilfe der zi-Werte bestimmt werden, so dass der räumliche Zusammenhang der Daten berücksichtigt wird. Insbesondere sind hierbei statistische Aussagen über den Schätzfehler möglich (vgl. Armstrong 1998 u. Wackernagel 1998).
360
9.6.4
Geoinformationssysteme
Dreiecksvermaschung und Thiessen-Polygone
Die Polygonmethode geht bei der Zuweisung von Werten an unbekannten Stellen von einem grundsätzlich anderen Ansatz als die übrigen Interpolationsmethoden aus. Hierbei werden aus vorhandenen Werten an wenigen Mess- oder Beobachtungspunkten keine neuen Schätzwerte für unbekannte Punkte errechnet. Falls n Mess- oder Beobachtungsstellen vorliegen, wird vielmehr das Untersuchungsgebiet auch in n Polygone aufgeteilt bzw. zerlegt, so dass jeder Punkt in einem Polygon dem zugehörigen Mess- oder Beobachtungspunkt am nächsten liegt. Sämtliche Punkte in diesem Polygon erhalten dessen Mess- oder Beobachtungswert. Hierdurch entsteht innerhalb der Polygone eine homogene Werteverteilung, an den Kanten liegen allerdings Sprungstellen vor, die sich allein aus dieser Rechenmethode ergeben.
Hülle
Ausgangspunkte
Kreiskriterium für dieses Dreieck nicht erfüllt
Dreieckskante
ThiessenPolygone
Abb. 9.25: Triangulation und Thiessenpolygone
Zur Durchführung werden in einem ersten Schritt die Mess- oder Beobachtungspunkte trianguliert, so dass sie die Eckpunkte von Dreiecken bilden, die sich nicht überlappen. Allerdings können hierbei verschiedene Dreiecksvermaschungen entstehen. Durch Nebenbedingungen wird daher die Konstruktion der Dreiecke gesteuert. Üblich ist die sog. Delaunay-Triangulation, bei der jeweils drei Punkte ein Dreieck bilden, in dessen Umkreis kein weiterer Mess- oder Beobachtungspunkt liegt (sog. Kreiskriterium, vgl. Abb. 9.25). Diese Modellierungsvorschrift führt zur Herausbildung kleiner breiter gegenüber langen schmalen Dreiecken. Hierdurch sind Erhebungen oder Senken optimaler zu modellieren. Zudem ist die Wahrscheinlichkeit kleiner, dass diese kleinen Dreiecke Geländekanten kreuzen. Die sich ergebende Dreiecksvermaschung ist eindeutig. Unabhängig von der Abarbeitungsreihenfolge ergibt sich immer wieder die selbe Dreiecksvermaschung (zu Algorithmen vgl. Worboys 1995 S. 205ff.). In einem zweiten Schritt werden die Mittelsenkrechten der Dreieckskanten bestimmt. Aufgrund der Gesetze der ebenen Geometrie schneiden sich diese Mittelsenkrechten im Umkreismittelpunkt des Dreiecks. Diese eindeutig bestimmten Umkreismittelpunkte bilden die Ecken, und die Mittelsenkrechten bilden die Kanten von sog. Voronoi- oder Thiessen-Polygonen, die somit dual zu den DelaunayDreiecken sind.
Räumliche Interpolation und Modellierung von Flächen
361
Innerhalb eines Thiessen-Polygons sind sämtliche zi-Werte gleich. Unterschiede bestehen (nur) zwischen den verschiedenen Polygonen. Dieser Ansatz unterstellt somit keinen Zusammenhang zwischen den Werten aus verschiedenen Polygonen. Allerdings sind die Sprungstellen der zi-Werte an den Kanten zumeist inhaltlich nicht zu begründen, so dass der Einsatz dieser Technik zur Interpolation eingeschränkt ist. Die Triangulation besitzt vor allem eine zentrale Bedeutung zur Bestimmung von Werteoberflächen (vgl. Kap. 9.6.5). Ferner nutzt das wohl weit verbreitete Verfahren zur Ermittlung von Gebietsniederschlägen (N) die Flächen der Thiessen-Polygone (Fi), die zu den Messstellen mit Niederschlägen Ni gehören: Gebietsniederschlag (gewichtete Niederschlagshöhe über ein Gebiet):
N
¦F N ¦F i
i
i
9.6.5
Erstellen von Höhenmodellen und Oberflächenmodellen
Die Dreiecksvermaschung bildet die Grundlage zur Berechnung von Oberflächenmodellen. Durch die Triangulation der Koordinaten (xi,yi) wird ein Netz aus Dreiecksflächen (in der xy-Ebene) gebildet. Die Attributwerte zi an den Stellen (xi,yi), also in den Ecken der ebenen Dreiecke, können dreidimensional als Höhen dargestellt werden. Naheliegend ist dann, durch jeweils drei benachbarte zi-Werte, d.h. durch die zi-Höhen in den Ecken eines Dreiecks, eine Fläche zu legen (vgl. Abb. 9.27).
Abb. 9.26: Dreidimensionales Netz unregelmäßiger Dreiecksflächen (Geländemodell)
Hierdurch entsteht dann das dreidimensionale Netz unregelmäßiger Dreiecksflächen (engl.: triangulated irregular network, tin). Bei entsprechender Darstellung am Monitor, bei der vor allem der Ort des Betrachters und der Betrachtungswinkel festgelegt und anschließend die verdeckten Linien unterdrückt werden, ergibt sich ein dreidimensionaler Eindruck eines Höhenmodells oder einer Werteoberfläche (vgl. Abb. 9.26). Die Konstruktion einer Fläche durch jeweils drei benachbarte zi-Werte bedeutet formal, jeweils für ein Delaunay-Dreieck (vgl. Kap. 9.6.4) die exakt zu bestimmende (Flächen)-Gleichung z(x,y) = a0 +a1*x + a2*y zu berechnen. Das Glei-
362
Geoinformationssysteme
chungssystem zur Bestimmung der Koeffizienten ai und den Lösungsansatz zeigt Abbildung 9.27. Die zi-Werte innerhalb des Dreiecks berechnen sich durch Einsetzen der (xi,yi)-Koordinaten in die Gleichung. Die Beobachtungs- oder Messwerte, also die zi-Werte der Ecken der Dreiecke, liegen hierbei exakt auf der Werteoberfläche und werden nicht wie bei den anderen Verfahren approximiert.
S z
T zs
zr = a0+a1*xr+a2*yr zs = a0+a1*xs+a2*ys zt = a0+a1*xt+a2*yt z
R yr
Z xt
1 1 1
( zztrs ) = (a0 a1 a2) * ( xyrr xyss xytt )
y yt s
xr
=
Z*X-1=
xs
A X * A = (a0 a1 a2)
Abb. 9.27: Konstruktion einer Dreiecksfläche in einem Oberflächenmodell
Herauszustellen ist, dass die Art der Dreiecksvermaschung sowie vor allem die Auswahl der Stützstellen, d.h. der Mess- oder Beobachtungspunkte bzw. der Punkte mit Höhenangaben, die Darstellung des Geländemodells erheblich beeinflussen. Die Abbildung 9.28 zeigt, zu welchen Unterschieden alternative Vermaschungen der gleichen Ausgangsdaten führen können. Der Draufsicht werden jeweils die perspektivische Sicht nebengestellt. Die linke Variante zeigt die Dreiecksvermaschung auf der Basis von Delaunay-Dreiecken. Sie ergibt eine spitze Pyramide, während die rechte Variante ein Tal mit zwei Hängen darstellt.
z=10
z
z=0
y
z=10 y z=0
z=10
z=10
z
z=0
y
y z=0
z=5 z=0
z=5
x
z=0 x
z=5 z=0
z=5
z=0 x
x
Abb. 9.28: Unterschiedliche Dreiecksvermaschungen
Dieses Beispiel soll verdeutlichen, dass durch die (standardmäßige) Anwendung des Delaunay-Kriteriums möglicherweise eine Oberfläche nicht getreu wiedergegeben wird. Dies kann bei einem Höhenmodell relativ schnell, allerdings z.B. bei einer Grundwasseroberfläche schwieriger überprüft und häufig nur durch Plausibilitätsüberlegungen verifiziert werden. Bei offensichtlichen Abweichungen müssen weitere Punkte mit Attributwerten in die Dreiecksvermaschung einbezo-
Räumliche Interpolation und Modellierung von Flächen
363
gen werden. Bei einem Oberflächenmodell können bzw. müssen aussagekräftige Punkte wie Hoch- und Tiefpunkte sowie Scheitelpunkte im Gelände (Wechsel von konkaven zu konvexen Formen) gewählt werden, die als Wendepunkte von Neigung und Neigungsrichtung eine bedeutende Rolle besitzen. Vorteilhaft erweist sich die Möglichkeit, Punktdaten entsprechend dem Relief zu streuen. So können in stark reliefiertem Gelände viele Punkte gewählt werden, während ebene Flächen durch wenige Punkte dargestellt werden. Die Datenmenge kann also dem Relief angepasst werden. Vor allem müssen bei Geländemodellen sog. Bruch- und Gerippelinien erhalten und durch Kanten dargestellt werden (z.B. Flüsse, Küstenlinien, Stufenränder, Grundwasserbarrieren, Talsohlen). Derartige Bruchlinien können als Kanten in der Triangulation (vor-)bestimmt werden, die unabhängig vom Delaunay-Kriterium immer beibehalten werden und Dreieckskanten bilden. Isohypsen 500
250
0
horizontale Flächen
Abb.9.29: Plateaueffekte bei der Triangulation
Bei der Dreiecksvermaschung können manchmal unerwünschte Plateaueffekte auftreten. Falls Bergsporne vorliegen, können drei Punkte entlang einer Höhenlinie einander näher liegen und dann ein Dreieck bilden, als dass ein dritter Punkt einer benachbarten Höhenlinie in die Triangulation einbezogen wird. Hierdurch entstehen ebene Flächen, wo ansteigendes Gelände vorliegt (vgl. Abb. 9.29). Ähnliche kritische Situationen sind Gipfel, Senken, Mulden, Sättel, Kämme und Täler, bei denen Dreiecke jeweils gleiche Höhen haben. Derartige Probleme können durch die zusätzliche Eingabe von einzelnen Höhenpunkten an den kritischen Geländestellen vermieden werden. Somit muss in der Regel das Modell schrittweise verbessert werden. Geoinformationssysteme bieten die Funktionalität, eine Oberfläche nicht nur durch ein Netz vermaschter Dreiecke, sondern auch durch eine Schummerung zu veranschaulichen, die mit Hilfe von Licht- und Schattenverteilung das Gelände plastisch wiedergibt (vgl. Abb. 9.26). Ferner kann die Oberfläche unter verschiedenen Betrachtungswinkeln angeschaut werden. Die visuelle Interpretation kann durch eine Überlagerung des Modells mit einer Rasterkarte wie z.B. der digitalen Version einer Topographischen Karte unterstützt werden. Durch die Betrachtung des Oberflächenmodells ergeben sich Hinweise auf seine Genauigkeit und auf Konstruktionsfehler. Ferner lassen sich auch erste Aussagen über oberflächenabhängige Parameter wie z.B. Einstrahlung oder Oberflächenabfluss abschätzen. Über derartige Visualisierungen hinaus bestehen in einem Geoinformationssystem vielfältige Analysemöglichkeiten von 3D-Modellen:
364
Geoinformationssysteme
- Schätzung von Werten, die als Punkte auf einer (Werte-)Oberfläche verstanden werden, - Generierung von Höhenlinien bzw. allgemein von Isolinien (z.B. Grundwassergleichen oder Isohyeten), - Berechnen eines Querprofils des Geländes sowie von Exposition und Neigung, - Durchführung von Sichtbarkeitsanalysen, - Flächen- und Volumenberechnung sowie Abtragungsberechnungen.
9.7
Trends
Neben den hier primär thematisierten zweidimensionalen Geoinformationssystemen bestehen inzwischen dreidimensionale Darstellungen bzw. Systeme, die 3DAnsichten und auch eine Navigation durch einen 3D-Datenbestand ermöglichen (vgl. Coors u. Zipf 2005). Viele Softwarehersteller bieten eine Technologie an, mit der die Präsentationen eines Geoinformationssystems über das Internet zur Verfügung gestellt werden kann. Zumeist bieten die Online-Informationssysteme für raumbezogene Fragestellungen bereits umfangreiche Abfrage- und Auswertemöglichkeiten (u.a. graphische Darstellung von Raster- und Vektorkarten, Navigationsmethoden u.a. mit Ein- und Ausblenden von thematischen Ebenen, Ausschnittverschieben oder Maßstabseinstellungen, graphische und attributive Abfragen von Sachdaten sowie deren Präsentationen). In einem weiteren Schritt ermöglichen Server nur noch bzw. vor allem einen Zugriff auf die komplexe Funktionalität eines Geoinformationssystems (z.B. räumliche Analysen). Bei dieser Variante stehen nicht mehr der Datenabruf, sondern die Bearbeitung eigener Daten im Vordergrund, die über das Internet an den Server geschickt werden und die mit dem dortigen Geoinformationssystem aufbereitet oder analysiert werden. Die Ergebnisse, die verschiedene Formen haben können und nicht zwingend als Karten vorliegen müssen, werden zum Client zurückgeschickt (vgl. Homepages der Softwarehersteller). Eine weitere, zu Online-Geoinformationssystemen durchaus parallel zu sehende Entwicklung betrifft die Interoperabilität von Geodaten und Funktionalitäten. Dabei geht es nicht um einen Austausch über Datenschnittstellen. Nicht der Export über eine Austauschdatei und der anschließende Import mit Konvertierung in das Datenformat eines anderen Geoinformationssystems sind angesprochen. So soll kein Daten- oder Transferstandard entwickelt werden. Vielmehr ist ein direkter Zugriff auf heterogene Geodaten und Geoprozesse, d.h. Austausch von Funktionalität, beabsichtigt. Hierzu haben sich die Softwarehersteller von Geoinformations- und Datenbanksystemen, aber auch Nutzergruppen zu einem OpenGIS Consortium (OGC) zusammengeschlossen. Fernziel ist eine Migration von traditionellen Geoinformationssystemen zu Geospatial Services, d.h. von monolithischen Systemen zu offenen Systemen: „open and interoperable geoprocessing” oder „the ability to share heterogeneous geodata and geoprocessing resources transparently in a networked environment“ (vgl. OpenGIS Consortium - Weblink u. Bartelme 2000 S.356ff.).
10 Fernerkundung und digitale Bildverarbeitung
10.1 Begriffsbestimmungen der Fernerkundung
und
Einsatzmöglichkeiten
Die Gewinnung von Informationen mit Hilfe von Fernerkundungssystemen, die auf Flugzeugen und Satelliten eingesetzt werden, hat in den letzten Jahren erheblich an Bedeutung gewonnen. Standen zunächst eindeutig militärische Anwendungen im Vordergrund, vor allem Spionagetätigkeiten, wurde bald das Potenzial dieser Systeme für die wissenschaftliche und kommerzielle Beobachtung von Prozessen auf der Erdoberfläche und in der Atmosphäre erkannt. Zu den Einsatzbereichen, in denen die Fernerkundung bereits als Standardverfahren eingesetzt wird, gehören vor allem die Wetterbeobachtung und das weite Feld des Umweltmonitoring. Ein weltweites Vertriebsnetz sorgt heute für einen nahezu problemlosen Bezug der Daten unterschiedlicher Sensoren, deren Auswertung zunehmend in Verbindung mit weiteren digitalen Geodaten innerhalb hybrider Geoinformationssysteme erfolgt. Eine sehr breite Definition des Begriffs Fernerkundung (engl.: remote sensing) liefert Hildebrandt (1996 S. 1): „Fernerkundung im umfassenden Sinne ist die Aufnahme oder Messung von Objekten, ohne mit diesen in körperlichen Kontakt zu treten, und die Auswertung dabei gewonnener Daten oder Bilder zur Gewinnung quantitativer oder qualitativer Informationen über deren Vorkommen, Zustand oder Zustandsänderung und ggf. deren natürliche oder soziale Beziehungen zueinander.“ Diese sehr breite Begriffsbildung schließt auch analoge Verfahren wie die Erstellung von analogen Luftbildern, d.h. das Photographieren mit einer Kamera auf Film, sowie auch die Messung der Strahlungstemperatur durch flugzeuggestützte Messgeräte oder sogar per Hand ein. Sämtliche Verfahren erfassen elektromagnetische Strahlung wie das sichtbare Licht, Wärmestrahlung und andere nicht sichtbare Strahlung, die von den Untersuchungsobjekten auf der Erde (z.B. Grünflächen) oder in der Atmosphäre (z.B. Wolken) emittiert oder reflektiert werden, wobei die Objekte je nach Art oder Beschaffenheit (z.B. Vegetation) und Zustand (z.B. geschädigter Waldbestand oder abgeerntete Getreidefelder) auf unterschiedliche Weise emittieren oder reflektieren. Hier werden nur solche Fernerkundungssysteme behandelt, die als Ergebnis eines Abtastprozesses der Erdoberfläche digitale Bilddaten liefern. Diese können mit elektronischen Bildverarbeitungssystemen direkt verarbeitet und gut in Geoinformationssysteme integriert werden. Somit werden auch nur solche Methoden der Bildaufbereitung und -analyse vorgestellt, die sich der digitalen Bildverarbeitung bedienen. Analoge photographische Aufnahmesysteme, analoge Bildauswertung,
366
Fernerkundung und digitale Bildverarbeitung
Verfahren der visuellen Bildinterpretation und der photogrammetrischen Auswertung werden nicht behandelt (vgl. Kap. 10.2.3). Bilddaten von zivilen Erdbeobachtungssatelliten stellen eine allgemein leicht verfügbare Informationsquelle dar, die ein großes Potenzial für eine großflächige Überwachung von Prozessen in Geosphäre und Atmosphäre birgt. Sie weisen Eigenschaften auf, die keine andere Datenquelle in dieser Form liefern kann: - Durch unterschiedliche Sensoren erfolgt eine Aufzeichnung in verschiedenen Wellenlängenbereichen des elektromagnetischen Spektrums. Dabei werden auch solche Wellenlängenbereiche erfasst, die für das menschliche Auge nicht sichtbar sind (z.B. Infrarot). - Die Fernerkundung ermöglicht eine synoptische Aufnahme großer Flächen. - Die erfassten Informationen besitzen eine hohe Aktualität (vgl. Wettersatelliten). - Die Fernerkundung durch Satelliten gestattet eine regelmäßige Wiederholung der Aufnahme eines Gebietes und liefert vergleichbare Daten in konstanter Qualität über einen längeren Zeitraum. - Die Integration in ein Geoinformationssystem ermöglicht eine vollständig digitale Verarbeitungskette. Tabelle 10.1: Einsatzmöglichkeiten der Fernerkundung (hier speziell von Satellitendaten) Meteorologie und Klimatologie Geologie Hydrologie
Forstwesen Landwirtschaft Küstenwesen, Ozeanographie Archäologie Umweltplanung Kartographie Medien Risikomanagement
Wettervorhersage, Atmosphären- und Klimaforschung Geologische Kartierung, Prospektion, Lagerstättenerschließung, Photogeologie (Schlussfolgerungen auf Gesteinstypen und tektonischen Aufbau) Erfassen von Schneebedeckung und ihr Abschmelzen, Erfassung von Eingangsparametern für hydrologische Modelle (z.B. aktuelle Landbedeckung, Abschätzung der Evapotranspiration) Waldklassifikation, Waldschadenserfassung, Ertragsschätzung, Waldbranderfassung Erfassung der Anbaukulturen sowie Ernteabschätzung auf regionaler Basis, Precision Farming, Kontrolle der Vergabe von EU-Flächenprämien Überwachung von Gewässergüte, Aufspüren von Einleitungen, Beobachtung von Küstenveränderungen sowie (insb. mit Radarmethoden) Erfassung von Wellengang und Windgeschwindigkeit Entdeckung historischer Stätten (insb. mit Radarmethoden) Erfassung der Oberflächenbedeckung, Umweltmonitoring, Wasser- und Feuchtgebietsmanagement Erfassung und Aktualisierung kartographischer Basisinformationen Tourismusmarketing, Ausbildung, visuell ansprechender Hintergrund Vulkanbeobachtung, Hochwasserschutz
Allerdings müssen auch einige Einschränkungen und Problemfelder im Hinblick auf die Anwendbarkeit von Fernerkundungsdaten genannt werden: - Einschränkungen sind mit der Wetterabhängigkeit optischer Systeme verbunden. So verringert sich aufgrund von Wolkenbedeckung, Dunst oder Aerosol-
Ansatz von Fernerkundung und digitaler Bildverarbeitung
367
gehalt der Luft der Anteil des auswertbaren Datenmaterials zum Teil beträchtlich. - Mit den bisher operationellen Satellitensystemen ist aufgrund ihrer geringen räumlichen Auflösung nur eine Bearbeitung auf Maßstabsebenen ab 1:25.000 und kleiner möglich. Allerdings erlauben die neuen kommerziellen Satellitensysteme mit einer geometrischen Auflösung von 0,61 m (panchromatisch) bzw. 2,44 m (multispektral) wie bei Quickbird Auswertungen bis zum Maßstab 1:5.000 (für panchromatische Szenen, vgl. Kap. 10.4.9). - Gegenwärtig erfolgt bei der angewandten digitalen Analyse zum größten Teil eine Beschränkung auf die spektralen Informationen. Die übrigen im digitalen Datensatz enthaltenen Informationen wie Form, Textur oder Lagebeziehungen kommen bei der rechnergestützten Auswertung in der Praxis noch weitgehend zu kurz. Hier zeichnet sich jedoch seit einiger Zeit eine Trendwende ab. Aktuelle Verfahren beziehen die genannten Informationen mit ein und erlauben z.B. eine objektorientierte Betrachtungsweise. Durch die Verbesserung der geometrischen Leistungsfähigkeit neuer Sensoren wird sich dieser Trend auch weiter fortsetzen (vgl. Tab. 10.28 u. Kap. 10.7.6). - Ein weiteres Problemfeld ist die Frage nach der Reproduzierbarkeit der Ergebnisse, die z.B. bei der mehrfachen Analyse eines Raumes zu verschiedenen Zeitpunkten im Verlauf eines Monitoringprozesses eine wichtige Rolle spielt. Generell gilt, dass eine möglicherweise erhoffte, wirklich objektive Informationsgewinnung auch mit Methoden der Fernerkundung und digitalen Bildverarbeitung nicht möglich ist. Auch hier muss der Bearbeitende nach seinem Kenntnisstand in einen komplexen Analyseprozess eingreifen und auf die jeweilige Datensituation reagieren. Als Beispiel kann die Auswahl von repräsentativen Trainingsgebieten für eine Klassifikation der Oberflächenbedeckung genannt werden (vgl. Kap.10.7.3).
10.2 Ansatz von Fernerkundung und digitaler Bildverarbeitung 10.2.1 Grundprinzip der Fernerkundung Der zentrale Ansatz der Fernerkundung beruht auf physikalischen Strahlungsvorgängen in der Atmosphäre: - Von der Sonne wird Energie abgestrahlt, die überwiegend im Wellenlängenbereich zwischen 0,1 Pm und 3,5 bis 5 Pm liegt. Hierbei handelt es sich somit hauptsächlich um kurzwellige Einstrahlung (ultraviolettes Licht, sichtbares Licht, nahes, kurzwelliges und mittleres Infrarot), die dann von den Objekten an der Erdoberfläche teilweise absorbiert und teilweise reflektiert wird. Durch die absorbierte Strahlung werden die Objekte an der Erdoberfläche erwärmt, so dass diese erwärmten Objekte langwellige Wärmestrahlung (thermales oder
368
Fernerkundung und digitale Bildverarbeitung
fernes Infrarot) wieder zurück in die Atmosphäre emittieren (vgl. Kap. 10.3.2 u. 10.3.3). - Die Objekte (bzw. die Eigenschaften und Zustände der Objekte) besitzen ein für sie charakteristisches Strahlungs- oder Reflexionsverhalten (vgl. Abb. 10.1 u. Kap. 10.3.3). - Das spezifische Strahlungs- oder Reflexionsverhalten unterschiedlicher Objekte ermöglicht letztlich ihre Identifikation. Anhand der durch die Fernerkundung erfassten elektromagnetischen Strahlung kann auf die Objekte zurückgeschlossen werden (zur Bildanalyse vgl. Kap. 10.6 u. 10.7). 50 Reflexionsgrad (%) 40
Boden
30 Kräftige Vegetation
20 10 Wasser
Wellenlänge
0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Pm
Abb. 10.1: Idealisiertes Reflexionsverhalten ausgewählter Oberflächen auf der Erde
Fernerkundungssysteme können untergliedert werden in ein Sensorsegment, in ein Bodensegment und in ein Veredlungssegment (vgl. Abb. 10.2): - Ein Sensorsegment besteht allgemein aus der Plattform (z.B. Flugzeug, Satellit) und dem eigentlichen Sensor. Zumeist wird entweder auf einem Flugzeug eine analoge Messkamera oder auf einem Satelliten ein digitaler Multispektralabtaster (Scanner) geführt, der in verschiedenen Bereichen des elektromagnetischen Spektrums die eintreffende Strahlung erfasst. Die Aufgaben eines digitalen, satellitengestützten Sensorsegments sind somit die Abtastung eines Gebietes (Scannen) sowie u.a. die Digitalisierung und Kodierung der Daten und die Zwischenspeicherung auf Band mit anschließender Übertragung zur Bodenstation. Bei den Flugzeugplattformen setzte etwa 1997 der Übergang von konventionellen, photographischen zu digitalen Aufnahmesystemen ein (vgl. Kap. 10.4.10). Nach wie vor werden auch analoge Kameras benutzt. - Die Aufgabe des Bodensegments besteht im Empfang und der Aufzeichnung (nur bei Satelliten) sowie der Aufbereitung und der Vorverarbeitung der Daten. Dabei gehören zur Aufbereitung u.a. Systemkorrekturen, Hinzufügen von Zusatzinformationen (u.a. Aufnahmezeit), geometrische Korrekturen oder Übertragen auf standardisierte Datenträger (z.B. CD-ROM). Als Ergebnis entstehen sog. systemkorrigierte Daten oder auch präzisionsverarbeitete Daten, sofern die Daten bereits georeferenziert wurden (vgl. Kap. 10.6.1.2).
Ansatz von Fernerkundung und digitaler Bildverarbeitung
369
- Im Veredlungssegment wird die eigentliche Umsetzung der erfassten Daten in interpretierbare Ausgabebilder vorgenommen, wodurch die Auswertung und Nutzung von Fernerkundungsdaten erfolgt. Hierzu werden Methoden der visuellen Interpretation und der digitalen Bildverarbeitung herangezogen.
Sonnenlicht künstliche Beleuchtung
OBJEKT Meßbare physikalisch-chemische Eigenschaften
Atmosphäre Telemetrie
SENSORSEGMENT Plattform, Sensorensystem, Orbit
Telekommando
ZUSATZINFORMATION Systemparameter Referenzen
Reflektierte / emittierte elektromagn.Strahlung
Signale BODENSEGMENT (Empfang), Aufbereitung, Archivierung Numerische Daten VEREDLUNGSSEGMENT Interpretation Darstellung
Nutzbare Informationen
Abb. 10.2: Sensor-, Boden- und Veredlungssegment in der Fernerkundung (nach Markwitz 1989 S. 3)
10.2.2 Digitale Bildverarbeitung Allgemein kann definiert werden, dass die digitale Bildverarbeitung der Extraktion von Informationen aus digitalen Bilddaten dient. Hierzu gehört u.a. das Erkennen von Bildinhalten durch geeignete Klassifizierungsverfahren. Gegenüber dieser recht globalen Begriffsbestimmung können (feingliedriger) Verfahren der Bildbearbeitung unterschieden werden, die die Bilddaten durch Überführen in eine geeignetere Form auf eine Analyse vorbereiten (Gewinnung zweckgerichteter Bilddaten). Hierzu gehören Bildkorrekturen, Kontrastverstärkung, Filterung oder Manipulation von Bildinhalten (vgl. Kap. 10.6). In einem konkreten Anwendungsfall müssen allerdings nicht immer sämtliche Verfahren der Bildbearbeitung durchgeführt werden. Die Auswahl der notwendigen Bildbearbeitungen ist immer von der vorliegenden Fragestellung abhängig. Demgegenüber sind Verfahren der Bildanalyse zu unterscheiden, die eine Analyse der Bildinhalte vornehmen und die dadurch der eigentlichen Informationsgewinnung dienen. Die Grenzen zwischen diesen beiden Methodengruppen sind jedoch in der Praxis fließend. Verfahren der Indexbildung, die häufig der Bildbearbeitung zugerechnet werden, können in der Anwendung z.B. durchaus Analysezwecke erfüllen, da aus ihnen Pflanzeneigenschaften (bzw. mit Satellitendaten eher Eigenschaften von Pflanzenbeständen) abgeleitet werden können (vgl. Kap. 10.6.3.1).
370
Fernerkundung und digitale Bildverarbeitung
10.2.3 Photogrammetrie Von dem Begriff der Fernerkundung wird zumeist der der Photogrammetrie abgegrenzt, worunter die Bildmessung, d.h. die geometrische Auswertung von Bildern zu verstehen ist mit dem Ziel, Lage, Größe und geometrische Gestalt von Objekten im Raum zu bestimmen. Hierbei sind hochgenaue Aufnahmesysteme erforderlich, die eine möglichst exakte Vermessung der aufgezeichneten Situation ermöglichen. Haupteinsatzgebiet der Photogrammetrie ist die Erstellung Topographischer Karten. Der Anwendungsbereich erstreckt sich jedoch von der Geschwindigkeitsmessung bewegter Objekte bis zur automatisierten Erstellung digitaler Höhenmodelle mit modernen digitalen photogrammetrischen Arbeitsstationen (zu Grundlagen und Anwendungen vgl. Konecny 1984, Bähr u. Vögtle 1998, Kraus 1996, 1997 u. 2000). Durch neue Entwicklungen der Sensorik sowie von Auswertemöglichkeiten nähern sich inzwischen Photogrammetrie und Fernerkundung zunehmend an (vgl. Heipke 2003 u. Kraus 2001).
10.3 Physikalische Grundlagen 10.3.1 Das elektromagnetische Spektrum Die Basis der Fernerkundung bilden elektromagnetische Strahlungsvorgänge: - Elektromagnetische Strahlung ist eine Energieabgabe von Materiekörpern. - Ein Körper, d.h. ein Objekt, absorbiert und/oder reflektiert dabei in Abhängigkeit von seinem Zustand (z.B. Erwärmung eines Körpers bzw. Wuchsstadium einer Pflanze) elektromagnetische Strahlung. Ein Teil der absorbierten Strahlung wird als Wärmestrahlung (Thermalstrahlung) emittiert. - Elektromagnetische Strahlung transportiert elektrische und magnetische Energie in Wellenform mit Lichtgeschwindigkeit. Dabei wird eine elektromagnetische Welle durch die Wellenlänge O (in m) und Frequenz X (in Hertz) beschrieben, die die physikalischen Eigenschaften der Strahlung bestimmen. - Von besonderer Bedeutung für die Erdfernerkundung sind mehrere Spektralbereiche des elektromagnetischen Spektrums im sichtbaren Licht, im Infrarot und auch im Mikrowellenbereich. Das sichtbare Licht erstreckt sich im Wellenlängenbereich etwa zwischen 400 nm und 700 nm (0,4 Pm bis 0,7 Pm), an das sich das Ultraviolett (kurzwellige Seite) und das Infrarot (längerwellige Seite) anschließen. Das Infrarot wird weiter unterteilt in das nahe Infrarot (etwa zwischen 0,7 Pm bis 1,1 Pm), in das kurzwellige Infrarot (etwa zwischen 1,1 Pm bis 3 Pm), in das mittlere Infrarot (etwa zwischen 3 Pm bis 7 Pm) und in das ferne Infrarot (etwa ab 7 Pm), das auch Thermalstrahlung genannt wird. Dabei sind die verschiedenen Bereiche nicht scharf zu trennen, sie gehen ineinander über. Die Unterbereiche des Infrarots werden von verschiedenen Autoren zuweilen auch anders definiert. Herauszustellen ist, dass die Erdfernerkundung nur Teile dieser Spektralbereiche nutzen kann (vgl. Abb. 10.4, zu den sog. atmosphärischen Fenstern vgl. Kap. 10.3.2).
Physikalische Grundlagen
371
10.3.2 Solare Einstrahlung und Einflüsse der Atmosphäre Die Sonne ist die Energiequelle für die solare Strahlung, deren Wellenlängenbereich aus der Sicht der Fernerkundung zwischen O = 0,3 Pm und etwa O = 3,5 Pm zu begrenzen ist (Wellenlängen vom ultravioletten über den sichtbaren bis zum infraroten Spektralbereich, vgl. Abb. 10.3). Die spektrale Zusammensetzung der Sonnenstrahlung entspricht in etwa der eines sog. Schwarzkörpers mit einer Temperatur von 5900 K. Ein Schwarzkörper, d.h. ein idealisierter Strahler, ist ein physikalisches Modell, auf das sich die Gesetze der Thermodynamik anwenden und spektrale Bestrahlungsstärken theoretisch ableiten lassen (zu physikalischen Grundlagen vgl. Hildebrandt 1996 S. 14ff., Mather 1999 S. 2ff., Roedel 1994 S. 15ff. u. Schowengert 1997 S. 35ff.). Im Durchschnitt werden 35% des auftreffenden Strahlungsflusses von der Erde (einschließlich Wolken und Atmosphäre) reflektiert, 17% werden von der Atmosphäre absorbiert, und 47% werden von Materialien an der Erdoberfläche absorbiert (vgl. Mather 1999 S. 12). Reflektierte Einstrahlung sowie von der Erdoberfläche nach Absorption der Einstrahlung im Infrarot emittierte Wärmestrahlung sind die Quellen der in der Fernerkundung auszuwertenden elektromagnetischen Strahlung.
0,20
Solare Einstrahlungskurve außerhalb der Atmosphäre
0,15
Solare Einstrahlungskurve auf Meeresniveau
0,10 0,05
0 0,2 0,5
1,0
1,5
2,0
2,5
3,0
Wellenlänge Pm
Abb. 10.3: Solare Einstrahlungskurven (nach Mather 1999 S. 15)
Beim Durchgang durch die Atmosphäre verringert sich die direkte Sonnenstrahlung, so dass am Boden nur noch ein Teil der Strahlung ankommt. Dabei ist die Durchlässigkeit der Atmosphäre für die elektromagnetische Strahlung stark vom Zustand der Atmosphäre (Aerosolgehalt, Feuchtegehalt, Schichtung, Wetterlage), vom zurückgelegten Weg der Strahlung durch die Atmosphäre und von der Wellenlänge der Strahlung abhängig. Die unterschiedlichen physikalischen Eigenschaften der in der Atmosphäre vorkommenden Gase sind für ein komplexes Zusammenspiel von Streuung und Absorption verantwortlich, welches sich unmittelbar auf die Nutzbarkeit der reflektierten oder emittierten Strahlung für die Fernerkundung auswirkt. Die Absorptions- und Streuungsvorgänge werden mit dem Begriff Extinktion zusammengefasst. Die Absorption ist auf die speziellen Absorptionseigenschaften der in der Atmosphäre vorkommenden Gase, Aerosolteilchen und Wolkentropfen, die Streuung ist auf Wechselwirkungen zwischen Wellenlänge und den Teilchen-
372
Fernerkundung und digitale Bildverarbeitung
größen von Aerosolen und Luftmolekülen zurückzuführen (vgl. Hildebrandt 1996 S. 14ff., Mather 1999 S. 15ff. u. Roedel 1994 S. 21ff.). So bewirken z.B. die Absorptionsbande des Wasserdampfes, also Bereiche des elektromagnetischen Spektrums, in denen die Strahlung von Wasserdampf absorbiert wird, dass diese Bereiche nicht für die optische Fernerkundung der Erdoberfläche genutzt werden können (zur Radarfernerkundung vgl. Kap. 10.4.8). Ferner wird durch Sauerstoff bzw. Ozon die ultraviolette Strahlung unter 0,3 Pm fast vollständig unterdrückt (vgl. Roedel 1994 S. 22). Dagegen gibt es Bereiche im elektromagnetischen Spektrum, für die die Atmosphäre nahezu durchsichtig ist (sog. atmosphärische Fenster). Somit ist z.B. nicht das gesamte kurzwellige Infrarot für die Fernerkundung geeignet. Die wichtigsten dieser Fenster liegen in mehreren Bereichen des elektromagnetischen Spektrums (vgl. Abb. 10.4): im sichtbaren Licht (Visible VIS) im nahen Infrarot (Near Infrared, NIR) im kurzwelligen Infrarot (Short Wave Infrared, SWIR) im mittleren Infrarot (Middle Infrared, MIR) im fernen Infrarot (Thermal Infrared, THIR) im Bereich der Mikrowellen
100
UV
VIS
NIR
SWIR
MIR
Pm Pm µm µm µm Pm µm Pm µm mm
0,4 - 0,7 0,7 - 1,1 1,1 - 1,35 1,4 - 1,8 2 - 2,5 3-4 4,5 - 5 8 - 9,5 10 - 14 >1
THIR
80 60 40 20 0 0,3
0,5
1,0
1,5 2,0 3,0 Wellenlänge Pm
5,0
10
15
20
30
Abb. 10.4:Spektrale Durchlässigkeit der Atmosphäre (verändert nach Mather 1999 S. 5)
Die diese atmosphärischen Fenster passierende Strahlung unterliegt komplexen Streuungsvorgängen, die sich wiederum wellenlängenspezifisch auswirken. So wird z.B. ein großer Teil der Strahlung des blauen Spektralbereiches bereits in der Atmosphäre an den Luftmolekülen gestreut (sog. Rayleigh-Streuung) und zum Satellitensensor zurückgestrahlt. Dieser Teil überlagert dort als „Luftlicht" (engl. path radiance) das Bodensignal und führt zu Kontrastminderungen. Deshalb wird dieser Bereich oft aus Untersuchungen herausgelassen oder erst gar nicht aufgezeichnet. So verzichtet z.B. der LISS-III-Sensor des IRS-1C und 1D (vgl. Kap. 10.4.7) auf einen Aufnahmekanal dieses Wellenlängenbereiches.
Physikalische Grundlagen Strahlung in Richtung Sensor
373 Luftlicht 1. Komponente
Sonneneinstrahlung
Luftlicht 2. Komponente Atmosphäre Diffuse Beleuchtung 2. Komponente benachbarte Pixel
Diffuse Beleuchtung 1. Komponente Pixel
Abb. 10.5: Einflüsse der Atmosphäre (nach Richards 1993 S. 40)
Die Abbildung 10.5 vermittelt einen Eindruck von der Komplexität der atmosphärischen Vorgänge, die das am Fernerkundungssensor empfangene Signal beeinflussen. So tragen sowohl die diffuse Reflexion als auch das Luftlicht von benachbarten Pixeln (Diffuse Beleuchtung 2. Komponente bzw. Luftlicht 2. Komponente) zu der Reflexion des im Zentrum der Aufnahme befindlichen Pixels bei (vgl. eingehender Popp 1993, Richards 1993 oder Richter 1996). Die Durchlässigkeit der Atmosphäre hat in der Fernerkundung eine doppelte Relevanz: zum einen für die Einstrahlung solarer Strahlung auf die Erdoberfläche und zum anderen (wichtiger) im Hinblick auf die Empfangsmöglichkeiten der von der Erdoberfläche reflektierten oder emittierten Strahlung an einem satellitengestützten Sensor. Daher sind auf die Fenster höchster atmosphärischer Durchlässigkeit die Sensoren derjenigen Satelliten ausgerichtet, deren Hauptaufgabe eine Aufzeichnung von Prozessen auf der Erdoberfläche ist. Verschiedene Systeme tragen jedoch auch solche Instrumente, die innerhalb der Spektralbereiche bestimmter Absorptionsbande operieren und dadurch Vorgänge in der Atmosphäre sichtbar und erforschbar machen. Beispiele sind der Kanal 2 des Wettersatelliten Meteosat (vgl. Kap. 10.4.4), welcher den Wasserdampfgehalt der Atmosphäre aufzeichnet, und das Total Ozone Mapping System (TOMS) an Bord von verschiedenen Missionen, welches den Gehalt der Atmosphäre an ozonabsorbierenden Aerosolen misst (vgl. TOMS-Weblink). 10.3.3 Das Reflexionsverhalten der Erdoberfläche Die Reflexion bzw. der Reflexionsgrad in Abhängigkeit von der Wellenlänge der Strahlung, die von der Oberfläche von Körpern auf der Erde ausgeht, ist entscheidend für die Identifizierung dieser Objekte. Dieses Reflexionsverhalten wird in Reflexionskurven dargestellt, die auch als Signaturkurven bezeichnet werden und die die Bedeutung „spektraler Fingerabdrücke“ besitzen. Die Abbildung 10.6 zeigt ausgewählte Signaturkurven, an denen sich einige Reflexionsunterschiede verdeutlichen lassen. Weitere Beispielen finden sich z.B. in Mather 1999 u. Swain u. Davis 1978 sowie vor allem in den Spektralbibliotheken des United States Geological Survey (vgl. United States Geological Survey Spectroscopy - Weblink) und
374
Fernerkundung und digitale Bildverarbeitung
des Jet Propulsion Laboratory (vgl. Jet Propulsion Laboratory Spectral Library Weblink). Die Spektralsignaturen gesunder grüner Vegetation weisen neben dem Chlorophyll-Reflexionsmaximum im grünen Spektralbereich einen besonders erwähnenswerten steilen Anstieg der Reflexion im nahen Infrarot auf. Dieser „Red Edge“ genannte Gradient besitzt große Bedeutung bei der Auswertung von Bilddaten für eine Vegetationsanalyse. Er kommt u.a. bei der Entwicklung von sog. Vegetationsindizes zum Tragen, die z.B. zur Identifizierung des Vitalitätsgrades von Pflanzen ausgenutzt werden (vgl. Kap. 10.6.3.1, zu Reflexionsverhalten von Pflanzenbeständen vgl. eingehend Hildebrandt 1996 S. 39ff.). 60
Reproduced from the ASTER Spectral Library through the courtesy of the Jet Propulsion Laboratory, California Institute of Technology, Pasadena, Cal. 1999 © Cal. Inst. of Technology, All rights reserved.
Laubbaum
50 40 Beton
30 Dachziegel
20 10 0 0,4 0,5 0,6
Eis 0,7
0,8 1,0
2,0
3,0
4,0
6,0 7,0
12,0 Wellenlänge Pm
Abb. 10.6: Spektralsignaturen ausgewählter natürlicher Oberflächen
Der Anwendung von Signaturkurven sind aber Grenzen gesetzt. So gibt es für eine Oberflächenart keine allgemeingültigen Signaturkurven! Die Signaturkurven von Objekten an der Erdoberfläche variieren vielmehr u.a. nach Beleuchtung, Jahreszeit, Beschaffenheit der Atmosphäre, Zustand des Oberflächenobjektes (z.B. Gesundheitszustand, Aggregatzustand, Feuchtegehalt) und Konfiguration des Aufnahmeinstrumentes. So verändert sich z.B. die Reflexion von Wasser u.a. mit dem Trübstoffanteil. Daher sind in den jeweiligen Untersuchungsgebieten sog. Trainingsgebiete notwendig, die eine aktuelle, homogene Oberfläche aufweisen und die eine Ableitung bzw. Kalibrierung von Signaturkurven erlauben (vgl. Kap. 10.7). Ein weiteres Problem stellen Mischformen dar. So lassen sich insbesondere Ausschnitte einer Kulturlandschaft (u.a. Bebauung mit Straßen, Industrieanlagen, Einzelhäuser in Gartenanlagen) nicht eindeutig aufgrund einer einzelnen Signaturkurve erfassen (zum Problem der Mischpixel vgl. Kap. 10.7.4). Die Identifizierung ist vor allem von der geometrischen und spektralen Auflösung des Aufnahmesystems abhängig (vgl. Kap. 10.4.2). In der Fernerkundung wird durch die jeweiligen Aufnahmesysteme (Scanner, Sensor) die eingehende Strahlung gemessen, wobei verschiedene Sensoren für spezielle Frequenzbereiche elektromagnetischer Strahlung eingesetzt werden. Diese Frequenzbereiche, d.h. Intervalle aus dem elektromagnetischen Spektrum bestimmter Breite, werden in der Fernerkundung als Kanäle bezeichnet (zu Aufnahmekanälen wichtiger Sensorsysteme vgl. Kap. 10.4).
Wichtige Aufnahmesysteme
375
10.4 Wichtige Aufnahmesysteme 10.4.1 Übersicht Zur Datenerfassung können primäre passive und aktive sowie sekundäre Aufnahmesysteme unterschieden werden (vgl. Abb. 10.7). Primäre passive Systeme können nur von Objekten reflektierte oder emittierte Strahlung aufzeichnen (z.B. die Multispektralscanner an Bord von Landsat 7). Demgegenüber senden primäre aktive Systeme selber Strahlung aus und zeichnen die reflektierte Strahlung auf (z.B. der Radar-Sensor Active Microwave Instrument (AMI) an Bord von ERS1/2, vgl. Kap. 10.4.9). Sekundäre Aufnahmesysteme sind hingegen Systeme, mit denen in analoger Form vorliegende Daten (z.B. analoge Luftbilder) in digitale Rasterform transformiert werden. Hierzu gehören vor allem spezielle Scanner, mit denen Luftbilder für die computergestützte Weiterverarbeitung digitalisiert werden.
Aktive Systeme
S/E
Passive Systeme
E
E
E Empfänger, Sensor S Sender Reflektierte künstl. Strahlung
Reflektierte Sonnenstrahlung
Thermalstrahlung
Abb. 10.7: Passive und aktive Aufnahmesysteme (nach Albertz 2001 S. 10)
Hier werden nur die Systeme der Satelliten-Fernerkundung sowie der Flugzeug-Fernerkundung behandelt, die eine zentrale Rolle spielen und an denen die grundlegenden Prinzipien wichtiger Aufnahmesysteme verdeutlicht werden können. Seit den siebziger Jahren gab es zunächst nur nationale oder internationale Betreiber von Satellitensystemen, d.h. mit eigenen Satelliten und zugehörigen Sensoren, für meteorologische, ressourcenorientierte und kartographische Anwendungen (vgl. Tab. 10.2). Für viele Teile der Erde liegen Aufnahmen für längere Zeitreihen vor, so dass zum Teil ein hervorragendes Datenmaterial zum Umweltmonitoring besteht. Klassische Aufnahmesysteme wie z.B. Landsat und Spot gehören immer noch zu Standards der Fernerkundung und sind aufgrund der Datenkontinuität von unschätzbarem Wert, obschon das Prinzip ihrer Aufnahmesysteme bereits vor Jahrzehnten entwickelt wurde. Seit Ende der neunziger Jahre treten mehrere, rein kommerziell orientierte Satellitenbetreiber in Erscheinung (z.B. Orbview 3 Start 2003 u. Orbview 5 geplant 2007 vgl. Orbimage - Weblink, Ikonos Start 1999 vgl. Space Imaging - Weblink, Quickbird 2 Start 2001, Quickbird 1 fehlgeschlagen, vgl. Quickbird - Weblink). Bedingt durch die hohe räumliche Auflösung dieser Systeme (vgl. Tab. 10.9) ist die Flächenabdeckung ihrer
376
Fernerkundung und digitale Bildverarbeitung
Aufzeichnungen nicht sehr hoch. Die Stärken dieser Systeme liegen aber in der auftragsgebundenen, zielgerichteten Aufnahme. Aktuelle Informationen über bedeutende Satellitensysteme bzw. Sensoren sind z.B. über die Internet-Seiten des Deutschen Zentrums für Luft- und Raumfahrt (vgl. Deutsche Zentrum für Luft- und Raumfahrt (DLR) Sensordaten - Weblink) oder über das Environmental Sensing Center der University of WisconsinMadison (vgl. Environmental Sensing Center - Weblink) zu erhalten. Dort sind u.a. die Kenndaten der bisherigen Missionen und der eingesetzten Sensoren oder auch Bezugsmöglichkeiten dargelegt (zu Informationen über geplante und erfolgte Starts vgl. Spaceflightnow - Weblink). 10.4.2 Leistungsmerkmale abbildender Fernerkundungsinstrumente Im Hinblick auf die Praxis der Bildauswertung sind vor allem vier Merkmale für die Beurteilung der Leistungsfähigkeit eines Aufnahmesystems für eine bestimmte Anwendung von großer Bedeutung: - Die räumliche Auflösung: Hierdurch werden geometrische Eigenschaften des Aufnahmesystems gekennzeichnet. Sie gibt die Größe eines Pixels in m an, d.h. die Seitenlänge der Fläche des Bodenelements, die durch ein System bei einer bestimmten Flughöhe erfasst wird. Dieser Wert wird durch den Öffnungswinkel des Sensorsystems bestimmt (für ein Pixel: Instantaneous Field of View (IFoV) gemessen zumeist in Milliradiant mrad mit 360° = 2ʌ rad). - Die spektrale Auflösung: Viele der eingesetzten Aufnahmesensoren sind multispektral angelegt, sie zeichnen die Rückstrahlung von der Erdoberfläche oder Atmosphäre in mehreren Spektralbereichen (Kanälen) auf. Die spektrale Auflösung wird durch die Anzahl der Kanäle bestimmt. Die Lage dieser Kanäle im elektromagnetischen Spektrum und ihre Breite beeinflussen unmittelbar die Unterscheidbarkeit verschiedener Oberflächentypen im Satellitenbild. Von den multispektralen sind die panchromatischen Sensoren zu unterscheiden, wobei panchromatisch die breitbandige spektrale Empfindlichkeit eines Sensors oder Filmmaterials kennzeichnet. Ein panchromatischer Sensor ist über den gesamten Bereich des menschlichen Auges empfindlich. Die Abstufung der Grauwerte ist typischen Schwarz-Weiß-Bildern vergleichbar. - Die radiometrische Auflösung: Die Erkennbarkeit von Objekten hängt auch von der Fähigkeit eines Sensors ab, die empfangene Strahlung möglichst differenziert aufzuzeichnen. Durch die Anzahl der sog. Grauwerte, die die Zahl der Intensitätsstufen kennzeichnet, die für die Wiedergabe dieser Rückstrahlung pro Kanal zur Verfügung stehen, wird die radiometrische Auflösung bestimmt. Die zurzeit gebräuchlichste Form ist die Wiedergabe in 256 Graustufen pro Kanal, zu deren Speicherung 8 Bit notwendig sind, so dass die radiometrische Auflösung mit 8 Bit angegeben wird. Allerdings ist dies eine vereinfachte Darstellung. Zur Beschreibung der radiometrischen Auflösung müsste man z.B. auch das Signal-Rausch-Verhältnis hinzuziehen (vgl. Hildebrandt 1996 S. 429). Die reine Farbtiefe (Bitzahl) wird als Signalquantität oder Grauwertauflösung bezeichnet.
Wichtige Aufnahmesysteme
377
- Die temporale Auflösung: Der zeitliche Abstand, innerhalb dessen ein Gebiet von einem bestimmten Satellitensensor wiederholt aufgezeichnet werden kann, bestimmt seine temporale Auflösung (auch Repetitionsrate genannt). Diese verkürzt sich, je breiter die Bodenspur ist und je weiter ein Gebiet in Richtung der Pole liegt (Überlappung benachbarter Bodenspuren bei polaren Satellitenorbits). 10.4.3 Bahnparameter von Fernerkundungssatelliten Die in der Erdfernerkundung gebräuchlichsten Orbitkonfigurationen sind der sonnensynchrone und der geostationäre Orbit. Für einen sonnensynchronen Orbit wird die Umlaufbahn so gewählt, dass der Satellit einen bestimmten Ort immer zur gleichen lokalen Uhrzeit überquert. Auf diese Weise können die Aufnahmen verschiedener Jahre besser miteinander verglichen werden (ähnliche Beleuchtungsbedingungen). Zur Kennzeichnung eines sonnensynchronen Orbits wird daher immer der Zeitpunkt der Äquatorüberquerung angegeben. Der Satellit befindet sich in einem gegen die Erddrehung gerichteten polnahen Orbit, der um wenige Grad gegen die Erdachse gekippt ist. Dieser Winkel wird (üblicherweise) zwischen der aufsteigenden Bewegungsrichtung des Satelliten (sog. ascending node) und der Äquatorebene entgegen dem Uhrzeigersinn gemessen und als Inklinationswinkel bezeichnet (vgl. Abb. 10.8, dort als entsprechender Winkel bei absteigender Bewegung dargestellt). Typische Werte liegen zwischen 96° und 102°. Durch die Rotation der Erde unter seiner Bahn tastet der Satellit bei jeder Umlaufbahn eine neue Bodenspur ab, bis er nach einer bestimmten Zeit (Repetitionsrate) eine Bodenspur wiederholt aufnimmt. Derartige Satelliten befinden sich in Höhen zwischen 450 und 1100 km und vollenden einen Orbit relativ schnell in etwas mehr als 90 Minuten.
Abb. 10.8: Polnaher, sonnensynchroner Orbit und geostationärer Orbit
Aufgrund der Erdrotation wandert die Erdkugel unter der Satellitenbahn hindurch, so dass die Bodenspuren zweier aufeinanderfolgender Umlaufbahnen gegeneinander versetzt sind (vgl. Abb. 10.9). Für Landsat 5 verläuft am Tag M die (benachbarte) Umlaufbahn N+1 2100 km westlich der Umlaufbahn N. Am Tag M+1 verläuft die Umlaufbahn N 120 km westlich der Umlaufbahn N am Vortag.
378
Fernerkundung und digitale Bildverarbeitung
Hierdurch entsteht eine Überlappung der Aufnahmebilder an beiden Tagen, die in höheren Breiten größer ist. Diese Sequenz wiederholt sich alle 18 bzw. 16 Tage. Geostationäre Satelliten bzw. treffender geosynchrone Satelliten befinden sich immer an einer bestimmten Position über der Erde. Die Satellitenbahn wird hierfür so gewählt, dass die Satellitenbewegung synchron zur Erdrehung erfolgt, d.h. sich der Satellit mit exakter Erdrotationsgeschwindigkeit bewegt. Dazu sind Orbithöhen um ca. 36.000 km notwendig. Derartige Satelliten sind in der Lage, eine komplette Erdhemisphäre in geringen zeitlichen Intervallen abzubilden. Bekannteste Beispiele sind Wettersatelliten (vgl. Kap. 10.4.4). Die aktuellen Positionen aller der NASA bekannten Satelliten können über das Internet verfolgt werden (vgl. NASA Satellite Tracking - Weblink). Mit der Software STS Orbit Plus ist eine Orbitsimulation auch auf dem PC möglich (vgl. STSOrbit - Weblink). orbit N+1, day M+1
orbit N, day M+1
185 km 40°N
2100 km 40°N 120 km
orbit N+1, day M orbit N, day M orbit N, day M+ 18
Abb. 10.9: Bahnparameter von Landsat (nach Drury 1990 S. 48)
10.4.4 Aufnahmesysteme von Wettersatelliten Wettersatelliten gibt es sowohl in sonnensynchroner als auch in geosynchroner Ausführung. Ein internationaler Verbund geostationärer Wettersatelliten ermöglicht Aufnahmen der gesamten Erde fast zu jeder (Tages-)Zeit. Dies bietet optimale Voraussetzungen zur Beobachtung der Wetterentwicklung. Die hohe zeitliche Auflösung muss durch den hohen Orbit mit einer geringen räumlichen Auflösung erkauft werden. Typische Wettersatelliten mit geosynchroner Umlaufbahn sind die beiden Plattformen der US National Oceanic and Atmospheric Administration (NOAA): GOES-East (GOES-E, Geostationary Operational Environmental Satellite) über dem West-Atlantik und GOES-West (GOES-W) über dem Ost-Pazifik. Diese Satelliten - inzwischen in der zweiten Generation - sind Träger mehrerer Sensoren, von denen hier das Multispectral Imaging Radiometer (Imager) erwähnt werden soll, das in insgesamt 5 Wellenlängenbereichen (1 VIS und 4 IR, davon 2 im MIR und 2 im THIR) Strahlung aufzeichnet (vgl. Kramer 1996, S. 248ff., vgl. NOAA - Weblink1 u. NOAA - Weblink2). Die Koordinierung dieser Satelliten erfolgt über die Coordination Group for Meteorological Satellites (Coordination
Wichtige Aufnahmesysteme
379
Group for Meteorological Satellites (vgl. CGMS - Weblink und World Meteorological Organisation WMO - Weblink). Für Europa liefert der geostationäre Meteosat Daten, der von der früheren European Space Research Organisation (ESRO, heute European Space Agency, ESA) entwickelt wurde. Hauptinstrument ist das Meteosat Visible and Infrared Imager (MVIRI) Radiometer, das Strahlung aus dem sichtbaren und infraroten Bereich des elektromagnetischen Spektrums in drei Kanälen aufzeichnet: 0,45 Pm - 1,0 Pm, 5,7 Pm - 7,1 Pm (Aufnahme im Wasserabsorptionsband u.a. zur Bestimmung des Wasserdampfgehaltes der Atmosphäre) und 10,5 Pm - 12,5 Pm (Thermalkanal). Alle dreißig Minuten wird ein neues Bild aufgezeichnet. Zu den wichtigsten Verbesserungen der zweiten Generation von Meteosat gehören ein neues Hauptinstrument (Spinning Enhanced Visible and IR Imager, SEVIRI), eine auf fünfzehn Minuten verkürzte Aufnahmefrequenz und eine verbesserte räumliche Auflösung (1 km VIS, sonst 3 km). Das neue SEVIRI-Instrument soll ab 2008 12 Kanäle vom sichtbaren bis in den infraroten Bereich aufzeichnen (vgl. Meteosat - Weblink1 u. Meteosat - Weblink2). Wettersatelliten in einer sonnensynchronen Umlaufbahn ermöglichen durch ihre relativ hohe Auflösung auch die Beobachtung regionaler Prozesse wie z.B. Schnee- und Eisschmelze oder Temperaturanomalien der Wasseroberfläche. Typische Wettersatelliten in niedriger, sonnensynchroner Umlaufhöhe mit Polarumlaufbahn sind die POES (Polar-Orbiting Operational Environmental Satellites) Plattformen der US National Oceanic and Atmospheric Administration (NOAA). Die derzeitigen Satelliten der POES-Serie werden einfach durchnummeriert: NOAA 15 (Start 5/1998), NOAA 16 (Start 9/2000), NOAA 17 (Start 6/2002) und NOAA 18 (Start 5/2005). Ihre wichtigsten Merkmale sind: sonnensynchrone, polare Umlaufbahn, Höhe 800-850 km, Inklination 98-99°, Periode 102 Minuten, Wiederholzyklus 12 Stunden (NOAA-Weblink2). Diese Satelliten sind Träger mehrerer Sensoren, von denen das Advanced Very High Resolution Radiometer (NOAA-AVHRR) für hydrologische, ozeanographische und meteorologische Untersuchungen eine zentrale Bedeutung besitzt. Ab NOAA-15 wird der Sensor AVHRR/3 eingesetzt, der 6 Kanäle besitzt, von denen aber nur 5 gleichzeitig Daten zur Bodenstation senden können. Dieser Sensor weist für alle Kanäle im Nadir eine Bodenauflösung von 1,09 km und ein Instantaneous Field of View (IFoV) von 1,3 milliradiant (mrad) auf. Dabei bedeuten 1.20 mrad ca. 1.1 km Auflösung im Subsatellitenpunkt (also im Nadir) bei einer Flughöhe von 833 km. Zum Rand des ca. 3.000 km breiten Aufnahmestreifens verschlechtert sich die Auflösung wegen der Erdkrümmung bis auf etwa 6 km. Tabelle 10.2: Spektralkanäle des AVHRR3 (Quelle: NOAASIS-Weblink) Kanal Wellenlänge (Pm) Typische Anwendung 1 2 3A 3B 4 5
0.58 - 0.68 0.725 - 1.10 1.58 - 1.64 3.550 - 3.93 10.300 - 11.30 11.500 - 12.50
Erfassung von Wolken und Oberflächen am Tage Abgrenzung Wasser Land Erfassung Schnee und Eis Erfassung von Wolken in der Nacht, Erfassen der Oberflächentemperatur des Meeres Erfassen der Oberflächentemperatur des Meeres
380
Fernerkundung und digitale Bildverarbeitung
Bei dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) werden aus den Kanälen 1,2 und 4 mit den Farbzuordnungen rot, grün und blau sog. Quicklooks der NOAA-AVHRR Sensordaten erstellt und im Internet angeboten. Dabei wird der Kanal 4 invertiert, so dass Wolken dann in der Farbe Weiß erscheinen. Ansonsten hätten sie im Vergleich zum Boden die geringste Temperatur und würden schwarz oder dunkel abgebildet. Die Daten sind mit Hilfe von Orbitelementen grob navigiert, einheitlich auf 6 km aufgerastert, panoramakorrigiert, kontrastverstärkt und schließlich mit Küstenlinien und geographischem Gitternetz überlagert (vgl. DLR-Quicklooks-Weblink und World Data Center for Remote Sensing of the Atmosphere - Weblink). 10.4.5 Die Aufnahmesysteme von Landsat Mit der Erkenntnis, dass mit den gängigen Methoden ein effektives und kostengünstiges Ressourcenmanagement nicht möglich war, begann in den frühen 60er Jahren eine Zusammenarbeit zwischen der NASA, dem U.S. Department of Agriculture (USDA) und dem U.S. Department of the Interior (DOI). Ziel war die Entwicklung von geeigneten Instrumenten für die Beobachtung der festen Erdoberfläche. Nach der Definition der gewünschten Anwendungsgebiete und unter Einbringung der Forschungserfahrungen der NASA mündete diese Zusammenarbeit in der Konstruktion der Instrumente für den Earth Ressources Technology Satellite (ERTS, Start am 23.07.1972), der später in Landsat 1 umbenannt wurde. Bei den Instrumenten handelte es sich um das Return Beam Vidicon System (RBV) und um den Multispectral Scanner (zu geometrischen, spektralen und radiometrischen Eigenschaften beider Instrumente vgl. Tab. 10.4). Da die geometrischen und radiometrischen Eigenschaften des RBV-Systems, das aus drei Videokameras bestand, denen des Multispectral Scanners (MSS) unterlegen waren, wurde das MSS-System das primäre Aufnahmegerät an Bord von Landsat. Die Wahl der Spektralbereiche des MSS hatte praktische Hintergründe: Hierdurch sollten Bildprodukte zur Verfügung gestellt werden können, die Ähnlichkeit mit FalschfarbInfrarotluftbildern haben, für deren Interpretation und Analyse schon ein großer Erfahrungsschatz bestand. An Bord von Landsat 2 und 3 (Start: 22.01.1975 bzw. 05.03.1978) befanden sich ähnliche Instrumente. Landsat 3 erhielt einen zusätzlichen Thermalkanal mit einer geometrischen Auflösung von 240 m, der sich als fehlerhaft herausstellte und daher kaum genutzt wurde. Die Instrumente der nächsten Landsat - Generation wurden an die steigenden Ansprüche und Bedürfnisse der verschiedenen geowissenschaftlichen Disziplinen angepasst. Das Ergebnis war der Thematic Mapper (TM), benannt nach dem Ziel, angepasste thematische Darstellungen für die verschiedenen geowissenschaftlichen Bereiche zu liefern. Sowohl die räumliche, die spektrale als auch die radiometrische Auflösung wurden stark verbessert (vgl. Tab. 10.4). Im Gegensatz zum MSS-System erfolgte die Wahl der abgebildeten Spektralbereiche des TM auf der Grundlage fundierter Untersuchungen zum Spektralverhalten verschiedener Oberflächentypen wie Vegetation und Gesteinsminerale. Außer Kanälen im sichtbaren Bereich und im nahen Infrarot wurden auch solche im kurzwelligen und thermalen
Wichtige Aufnahmesysteme
381
Infrarot implementiert, letzterer jedoch in einer relativ geringen räumlichen Auflösung (120 m). Dieses System befand sich zusammen mit dem MSS-System an Bord von Landsat 4 und 5, die am 16.07.1982 bzw. am 1.03.1984 gestartet wurden. Der Start von Landsat 6, der ein verbessertes TM-Instrument (Enhanced Thematic Mapper, ETM) und weiterhin den MSS an Bord hatte, scheiterte 1993 (vgl. Landgrebe 1997, Mika 1997 u. Lauer u.a. 1997). Tabelle 10.3: Übersicht über die Landsat-Missionen und Landsat Orbit-Parameter
Start Außerdienststellung Flughöhe (km) Bahn Inklination Umlaufrate Breite der Bodenspur Repetitionsrate Äquatorüberquerung (absteigender Pfad) Scanner
RBV MSS TM ETM+
Landsat 1
Landsat 2
Landsat 3
Landsat 4
Landsat 5
Landsat 7
1972 1978 907 Sonnensynchron 99,9° 103 Min. 185 km 18 Tage 09:30
1975 1983 908 Sonnensynchron 99,2° 103 Min. 185 km 18 Tage 09:30
1978 1983 915 Sonnensynchron 99,1° 103 Min. 185 km 18 Tage 09:30
1982 1993 705 Sonnensynchron 98,2° 99 Min. 185 km 16 Tage 09:30
1984 2001 705 Sonnensynchron 98,2° 99 Min. 185 km 16 Tage 09:30
1999 705 Sonnensynchron 98,2° 99 Min. 185 km 16 Tage 10:00
RBV MSS
RBV MSS
RBV MSS
MSS TM
MSS TM
ETM+
Multispektral Return Beam Vidicon (RBV), Multispektral Scanner mit thermischem Kanal Thematic Mapper Enhanced Thematic Mapper Plus
Die Spektralbereiche, die der RBV-Sensor auf Landsat 1 und 2 erfasste, wurden als die Kanäle 1 bis 3 bezeichnet. Die Kanäle des Multispektral Scanners (MSS) wurden in der ersten Generation von Landsat dann weiter beginnend mit 4 fortnummeriert. Der TM-Kanal 7 ist nicht in der Reihenfolge, da er als letzter hinzugenommen wurde, nachdem die anderen 6 Kanäle bereits festlagen. Nach dem Fehlschlag von Landsat 6 startete im April 1999 Landsat 7. Seine Bahndaten entsprechen denen von Landsat 4 und 5. Am 31.3.2003 ist allerdings das Scan Line Correction (SLC) Instrument ausgefallen, so dass keine Kompensation der Vorwärtsbewegung des Satelliten mehr möglich ist. Die Daten können nicht mehr automatisiert ausgewertet werden. Das ETM-Instrument erfuhr weitere Verbesserungen und Ergänzungen und wurde in Enhanced Thematic Mapper Plus (ETM+) umbenannt. So ist ein panchromatischer Kanal mit einer räumlichen Auflösung von 15 m installiert worden. Die räumliche Auflösung des Thermalkanals ist auf 60 m gesteigert worden. Eine weitere wichtige Verbesserung betrifft die radiometrische Kalibrierung der Instrumente (direkt) an Board des Satelliten, die durch 3 voneinander unabhängige Systeme erfolgt (vgl. Mika 1997). Diese Maßnahmen erlauben im Rahmen der verschiedenen Levels der Systemkorrektur eine radiometrische Korrektur mit einer absoluten Genauigkeit von 5%.
382
Fernerkundung und digitale Bildverarbeitung
Tabelle 10.4: Eigenschaften der Landsat-Instrumente Instrument (Plattform)
Geometrische Auflösung
Spektrale Auflösung
Radiometrische Auflösung
Return Beam Vidicon RBV (Landsat 1, 2 und 3)
80 m 1. 0,48 - 0,58 µm 2. 0,58 - 0,68 µm 3. 0,68 - 0,78 µm
Grün Rot NIR
Multispektral Scanner MSS (Landsat 1 bis 5)
79 m 1. 0,5 2. 0,6 3. 0,7 4. 0,8
Grün Rot NIR NIR
6 Bit
30 m 1. 0,45 - 0,52 µm Blau 2. 0,52 - 0,60 µm Grün 3. 0,63 - 0,69 µm Rot 4. 0,76 - 0,90 µm NIR 5. 1,55 - 1,75 µm SWIR1 7. 2,08 - 2,35 µm SWIR2 120 m 6. 10,4 - 12,5 µm THIR
8 Bit
30 m 1. 0,45 - 0,52 µm Blau 2. 0,52 - 0,60 µm Grün 3. 0,63 - 0,69 µm Rot 4. 0,76 - 0,90 µm NIR 5. 1,55 - 1,75 µm SWIR1 7. 2,08 - 2,35 µm SWIR2 60 m 6. 10,4 - 12,5 µm THIR 15 m Pan 0,52 - 0,90 µm PAN (Panchromatisch)
8 Bit
Thematic Mapper TM Landsat 4 und 5
Enhanced Thematic Mapper Plus (ETM+)
- 0,6 - 0,7 - 0,8 - 1,1
µm µm µm µm
Tabelle 10.5: Anwendungsgebiete der Kanäle des Thematic Mapper Kanal 1 0.45-0.52 sichtbares Blau Kanal 2 0.52-0.60 sichtbares Grün Kanal 3 0.63-0.69 sichtbares Rot Kanal 4 0.76-0.90 nahes Infrarot Kanal 5 1.55-1.75 mittleres Infrarot Kanal 7 2.08-2.34 mittleres Infrarot Kanal 6 10.4-12.5 thermal
Unterscheidung Boden - Vegetation, Laubwald - Nadelwald Messung der Reflexion gesunder Vegetation, Erkennung von Pflanzenstress Unterscheidung zwischen Pflanzenarten Biomassenkartierung, Vitalität von Pflanzen, Trennung Land/Wasser, Kartierung von natürlichem Bestandsalter u. Vegetationstypen Messung der Feuchte von Boden und Vegetation, Trennung Wolken/Schnee, Geologische Kartierungen Beurteilung/Einschätzen hydrothermaler Veränderungen Thermalkartierung
Die National Aeronautics and Space Administration (NASA) und der United States Geological Survey (USGS) stellen weitere Informationen zur Verfügung, die die Datenaufbereitung von Landsat 7 betreffen (vgl. US Geological Survey ETM+ - Weblink). Die standardmäßige Datenaufbereitung erfolgt in 3 Ausführungen: Level 0R enthält keinerlei Korrekturen (Raw-Format), Level 1R ist das radiometrisch korrigierte Produkt und Level 1G wird als systemkorrigiertes Produkt mit radiometrischer und geometrischer Korrektur angeboten (aber mit dem
Wichtige Aufnahmesysteme
383
Zusatz „SLC-OFF). Die Bedeutung der radiometrischen Kalibrierung von Satellitendaten nimmt in dem Maße zu, in dem Daten verschiedener Sensoren miteinander kombiniert werden sollen wie z.B. innerhalb des Earth Observing Systems (EOS), das einen Verbund aus mehreren Satellitensystemen zur Erdbeobachtung darstellt, und in dem Zeitreihenbilder zur Analyse von Veränderungen benutzt werden sollen (vgl. Kap. 10.6.1). Der Multispektral Scanner (MSS) und der Thematic Mapper (TM) wie auch der neuere Enhanced Thematic Mapper Plus (ETM+) sind opto-mechanische Scanner, bei denen eine Zeile durch einen hin- und herschwingenden Spiegel abgetastet wird (vgl. Abb. 10.10). Beim Multispektralscanner (MSS) werden mit einer Spiegelbewegung 6 Zeilen in 4 Spektralkanälen erfasst, was insgesamt 24 Detektoren erfordert. Beim Thematic Mapper (TM) erfolgt die Aufnahme der Daten in jedem Kanal außer dem Thermalkanal (4 Detektoren) mit 16 Detektoren.
Abtastspiegel Optik 6 Detektoren pro Kanal
N W S
O 185 km
6 Zeilen pro Abtastung
Abb. 10.10:Aufnahmeprinzip eines opto-mechanischen Scanners (nach Albertz 2001 S. 50)
Opto-mechanische Scanner besitzen eine große Bedeutung (nicht nur) für das Landsat-System. Allerdings sind sie gegenüber den moderneren opto-elektronischen Scannern weniger leistungsfähig (vgl. Kap. 10.4.6). Sie werden aber noch häufig auf Flugzeugen eingesetzt. Insbesondere hier können bei einem derartigen Sensor Aufnahmefehler auftreten. Bei einem rotierenden oder hin- und herschwingenden Spiegel entsteht bei der Aufnahme u.a. eine sog. Panoramaverzerrung (vgl. Abb. 10.10 u. 10.16). Durch diese Aufnahmetechnik ergeben sich bei tieffliegenden, flugzeuggestützten Scannern deutlich sichtbare Verzerrungen in den Randbereichen, da dort der Abstand zum Aufnahmesystem wesentlich größer ist als senkrecht unter dem Aufnahmezentrum (d.h. im Nadir). Dabei wird der Winkel zwischen der vom Projektionszentrum ausgehenden Senkrechten und der Aufnahmeachse als Nadirdistanz bzw. Nadirabweichung bezeichnet. Der Betrag der Verzerrung ist vom Öffnungswinkel des Aufnahmesensors abhängig, der bei Flugzeugscannern um Faktoren zwischen 3 und 10 größer ist als bei Satelliten (vgl. Hildebrandt 1996 S. 424). Allerdings sind diese Verzerrungen bei Satelliten-
384
Fernerkundung und digitale Bildverarbeitung
systemen nicht grundsätzlich gering, sondern nur bei solchen mit geringem Öffnungswinkel (wie z.B. Landsat). So hat z.B. der AVHRR-Sensor an Bord der NOAA-Systeme einen relativ großen Öffnungswinkel und dadurch bedingt eine relativ große Panoramaverzerrung. Die Auflösungen betragen im Nadir 1,1 km (Flächenüberdeckung eines Pixels 1,21 km2) und im Randbereich in Flugrichtung 2,4 km bzw. 6,9 km quer zur Flugrichtung (Flächenüberdeckung eines Pixels im äußersten Bereich einer Bodenspur 16,56 km2, Zahlen nach Lillesand u. Kiefer 1994 S.499). Dies hängt mit dem Ziel des Systems zusammen, während einer Bodenspur (engl. swath) eine möglichst große Fläche zu erfassen (2.400 km2). Zur Identifizierung einzelner Landsat-Szenen wurde ein Referenzsystem entwickelt, das sich an der Systematik der Umlaufbahnen orientiert. Osnabrück liegt z.B. in der Umlaufbahn (Path) 196 und der Zeile (Row) 24 (vgl. Abb. 10.11).
Row
198 196 194 192
Path
22 23 24 25 26 27
Abb. 10.11: Ausschnitt aus dem World Reference System (WRS) von Landsat (Deutschland)
10.4.6 Die Aufnahmesysteme von SPOT Die jüngeren, französischen Satellitensysteme SPOT (Système Probatoire d´ Observation de la Terre) auch bezeichnet als Satellite Pour l´Observation de la Terre) setzen gegenüber den opto-mechanischen Sensoren von Landsat 4/5/7 modernere opto-elektronische Scanner ein. Die Systeme SPOT 1 bis 3 verfügen über je 2 HRV-Sensoren (Haute Resolution Visible, High Resolution Visible), die als optoelektronische Sensoren in CCD-Technik (Charge Coupled Device) konstruiert sind. Entsprechend dem Arbeitsprinzip eines Flachbettscanners (vgl. Kap. 4.7.2) trifft die reflektierte Strahlung auf mehrere in einer Zeile nebeneinander angeordneten Photozellen (CCD-Element), die die Intensität der Signale in Spannungswerte umsetzen (vgl. Abb. 10.12). Anschließend setzt ein Analog-Digital-Wandler diese Werte in Bitfolgen um. Dabei werden sämtliche Bildelemente einer Zeile gleichzeitig aufgezeichnet. Derartige Sensoren, die nicht nur im Spot System eingesetzt werden, erzeugen somit keine Panoramaverzerrung. Insbesondere sind keine mechanischen Bewegungen notwendig. Durch die gleichzeitige Aufnahme ganzer Zeilen kann im Gegensatz zum sequentiell arbeitenden opto-mechanischen Scanprinzip die empfangene Lichtenergie länger auf ein CCD-Element einwirken. Durch die Installation vieler kleinerer CCD-Elemente wird eine höhere geometrische Auflösung mög-
Wichtige Aufnahmesysteme
385
lich. Allerdings können die CCD-Elemente nicht beliebig verkleinert werden, da auf ein CCD-Element eine bestimmte Lichtmenge einfallen muss. Durch Variation der Flughöhe (beim Flugzeugeinsatz) und durch Wahl der Abbildungsoptik (Veränderung der Brennweite) können die Größe der erfassten Pixel am Boden variiert werden.
CCD Bildzeile
Flugrichtung
Abb. 10.12: Aufnahmeprinzip eines opto-elektronischen Scanners mit zeilenförmiger Aufnahme (nach Albertz 2001 S. 51)
Die HRV-Sensoren verfügen über einen multispektralen und einen panchromatischen Aufnahmemodus. SPOT 4 hat mit dem HRVIR-Sensor (High Resolution Visible and Infrared) eine verbesserte Version des HRV-Sensors an Bord, der jetzt auch einen Kanal für das mittlere Infrarot besitzt. Der Kanal B2 des neuen Sensors von SPOT 4 kann in zwei unterschiedlichen Modi betrieben werden: Im Monospectral Mode (M-Modus; entspricht dem P-Modus für panchromatische Aufnahmen auf SPOT 1,2,3) liefert er Graustufen-Bilder mit einer geometrischen Auflösung von 10 m, während im Xi-Modus (ehemals: XS-Modus) multispektrale Bilder mit einer Auflösung von 20 m geliefert werden (inkl. des kurzwelligen Infrarots). Die beiden HRVIR-Instrumente können vollkommen unabhängig voneinander betrieben werden, so dass z.B. mit dem einen Instrument im NADIR aufgezeichnet wird, während das andere Instrument seine Möglichkeit zur Seitwärtsneigung nutzt, um auf aktuelle Nutzeranfragen zu reagieren oder einen Teil einer Stereoszene aufzunehmen. Außerdem ist ab SPOT 4 der Vegetations-Sensor VGT zur großräumigen Erfassung der Vegetation im Einsatz. Das Sensorsystem von SPOT bietet aufgrund des schwenkbaren Umlenkspiegels einige besondere Vorteile (vgl. Abb. 10.13). So ist eine Aufnahme von Bildstreifen parallel, aber seitwärts zur Flugrichtung möglich. Während bei senkrechter Aufnahmerichtung das gleiche Gebiet erst in 26 Tagen erneut erfasst wird, kann bei seitwärts gerichteten Aufnahmen in Flugrichtung die gleiche Szene wesentlich häufiger gescannt werden. Durch diese Technik kann in 26 Tagen ein Gebiet am Äquator bis zu siebenmal und ein Gebiet in 45° Breite sogar bis zu elfmal erfasst werden. Durch die Aufnahme eines Gebietes aus zwei Richtungen wird es vor allem möglich, stereoskopische Bilder zu erzeugen (vgl. Abb. 10.13). Innerhalb gewisser Grenzen sind die Aufnahmestreifen frei wählbar. Die beiden
386
Fernerkundung und digitale Bildverarbeitung
Sensoren nehmen in der Grundstellung mit senkrechter Aufnahmerichtung zwei 60 km breite Streifen auf, die sich zu 3 km überlappen. Bei einer Neigung des Sensors (bzw. des Spiegels) bis zu 27° wächst durch die Schräglage die Breite eines einzelnen Aufnahmestreifens bis zu 80 km an. So können während eines Umlaufs alle Punkte innerhalb eines 475 km breiten Bereiches zu beiden Seiten der Bodenspur (= 950 km) aufgenommen werden können (Aufnahme mehrerer Streifen nebeneinander). Der Satellit befindet sich in einer polarnahen, sonnensynchronen Bahn mit einer von Inklination 98,7° und einer Umlaufperiodizität von 101 Minuten. Die Flughöhe beträgt 822 km (vgl. Spotimage - Weblink). Tabelle 10.6: Übersicht über die Sensoren von SPOT Sensor
Spektralbereiche Kanäle (Pm)
Bodenauflösung
Radiometrische Auflösung (Bit)
HRV (SPOT 1-3)
B1 0.500-0.590 B2 0.610-0.680 B3 0.790-0.890 Pan 0.510-0.730 B1 0.500-0.590 B2 0.610-0.680 B3 0.790-0.890 SWIR 1.580-1.750 Pan 0.510-0.730 B0 (Blue) 0.45-0.52 B2 (Red) 0.61-0.68 B3 (NIR) 0.79-0.89 SWIR 1.58-1.75 B1 0.500-0.590 B2 0.610-0.680 B3 0.790-0.890 SWIR 1.580-1.750 Pan 0.48-0.71 Pan 0.49-0.69
20 m 20 m 20 m 10 m 20 m (Xi-Modus) bzw. 10 m (M-Modus)
8 8 8 6
HRVIR (SPOT 4)
VGT (SPOT 4/5)
HRG (SPOT 5)
HRS (SPOT 5)
20 m 10 m Bodenauflösung: 1000 m Breite der Bodenspur: 2.25 km 10 m 10 m 10 m 20 m 2,5-5 m 10 m
8
6 8
8 8 8 8 8 8
Die Verbesserungen für SPOT 5 betreffen hauptsächlich die geometrische Auflösung. Ein zusätzlicher „Very High Resolution“ Modus ist durch ein neues rechnerisches Verfahren in der Lage, eine geometrische Auflösung bis 2.5 Meter zu erreichen. Das „High geometric resolution imaging instrument (HRG)“ ist zweifach vorhanden. Ferner sind ein zum „Vegetation“-Instrument auf SPOT 4 baugleiches „Vegetation 2“-Instrument (VGT) und das „High Resolution Stereoscopic Imaging Instrument (HRS)“ an Bord, welches gleichzeitig mit den anderen Instrumenten betrieben werden kann und panchromatische Stereobildpaare mit einer geometrischen Auflösung von 10 Metern aufzeichnet (in Flugrichtung durch Vorund Zurückblicken auf denselben Oberflächenausschnitt der Erde, vgl. Spotimage - Weblink).
Wichtige Aufnahmesysteme
387
Tabelle 10.7: Übersicht über die SPOT Missionen (vgl. Spotimage - Weblink) SPOT1
SPOT2
SPOT3
Dauer 1986-1993 1990-1994 seit 1993 Repititionsrate 26 Tage (nadir viewing) Scanner HRV
60 km 117 km
Aufnahme eines Streifens nacheinander von verschiedenen Umlaufbahnen (u.a. zur Aufnahme von Stereobildern)
Senkrechtaufnahme einer 117 km breiten Zone in zwei parallelen Streifen
SPOT4
SPOT 5
seit 1998 seit 2002 26 Tage (nadir viewing) HRVIR HRVIR VGT VGT HRS
60 km 950 km
80 km
Schrägaufnahme von bis zu 80 km breiten Streifen innerhalb eines 950 km breiten Gebietes
Abb. 10.13: Sensorsysteme von SPOT
10.4.7 Indian Remote Sensing Satellites Neben den (betagten) Landsat-Systemen haben die Indian Remote Sensing Satellite (IRS) auch an kommerzieller Bedeutung gewonnen, insbesondere da erst 1999 das Landsatprogramm mit einem modernen Sensor fortgesetzt wurde. Mit der Kombination der opto-elektronischen Sensoren PAN und LISS III decken die Satelliten IRS-1C und IRS-1D genau die Anforderungen ab, die Ende der neunziger Jahre weltweit als Voraussetzung für die Erschließung neuer Märkte für die Anwendung von Erdbeobachtungsdaten gefordert wurden. Ferner können IRSSatelliten mit WiFS-Sensoren für Agrar-Applikationen möglicherweise weit besser als der AVHRR-Sensor genutzt werden. Allerdings besitzen die IRS-Satelliten wie die aktuellen SPOT-Sensoren keinen Blaukanal (zur Bedeutung des Blaukanals vgl. Kap. 10.3.2). Da die Kanäle im sichtbaren Bereich des Spektrums meist stark korreliert sind und auf der Landoberfläche kaum natürliche blaue Oberflächen vorkommen, ist das Fehlen eines Blau-Kanals aber tolerierbar. IRS-1C wurde 1995, der Folgesatellit IRS-1D wurde 1997 gestartet, dessen Ausstattung der von IRS-1C entspricht. Die neuen Satelliten sind IRS-P6 (auch Resourcesat 1 genannt, Start 2003) und IRS-P5 (auch Cartosat-1 genannt, Start 2005). Der Satellit IRS-P6 ist ähnlich seinen Vorgängern und hat neben dem nahezu identischen Sensor LISS III einen neuen Sensor LISS IV sowie eine Weiterentwicklung des Weitwinkelsensors (Advanced Wide Field Sensor AWiFS) an Bord.
388
Fernerkundung und digitale Bildverarbeitung
Tabelle 10.8: Die Kenndaten der Hauptinstrumente des Indian Remote Sensing Satellite IRS-1C Name des Sensors Panchromatic Sensor (PAN)
Linear Imaging SelfScanning Sensor (LISS III)
Wide Field Sensor (WiFS)
Typ
CCD push-broom scanner 817 98,7° 10:30
CCD push-broom scanner 817 98,7° 10:30
CCD push-broom scanner Orbithöhe (km) 817 Inklination 98,7° Lokalzeit bei Äqua-10:30 torüberquerung Räumliche 5.80 m Auflösung Wellenlängen der 0.50 - 0.75 Kanäle (µm)
Radiometrische Auflösung Zeitliche Auflösung Bildgröße
6 Bit 24 Tage, steuerbar 5 Tage möglich 70 x 70 km
23.5 m (Kanäle 2 - 4), 188 m 70.50 m (Kanal 5) Kanal 2: 0.52-0.59 0.62 - 0.68 Kanal 3 (Grün) 0.77 - 0.86 Kanal 4 Kanal 3: 0.62-0.68 (Rot) Kanal 4: 0.77-0.86 (NIR) Kanal 5: 1.55-1.70 (SWIR) 7 Bit 7 Bit 24 Tage
5 Tage
141 x 141 km bzw. 141 x 148 (SWIR) 141 km (Kanäle 2-4) 148 km (Kanal 5)
810 x 810 km
Swath (Spurbreite) 70 km (3 x 23.33 km), 810 km steuerbar Spannweite +26° Stereoaufnahmen ja Indian Space Research Organisation - Weblink, National Remote Sensing Agency of India - Weblink, Euromap IRS-1C Weblink
LISS IV ersetzt den panchromatischen Sensor von IRS-1C und -1D, indem er im panchromatischen Modus mit identischen Eigenschaften und darüber hinaus im multispektralen Modus mit ebenfalls 5,8 m geometrischer Auflösung betrieben werden kann. Das Instrument AWiFS weist gegenüber dem WiFS neben einer höheren geometrischen Auflösung jetzt vier Aufnahmekanäle auf (vgl. Euromap IRS-P6 -Weblink). Der jüngste Satellit dieser Serie (IRS-P5) hat zwei unterschiedliche geneigte panchromatische Kameras an Bord mit einer geometrischen Auflösung von 2,5 m und einer spektralen Bandbreite von 500-850 nm. Die sog. PanForeCamera ist um 26° nach vorne und die PanAfterCamera um 5° nach hinten geneigt, beide decken eine Bodenspur von 30 km bzw. 27 km ab. Mit den beiden Kameras können je nach Aufnahmemodus stereoskopische Bilddaten erzeugt oder eine Bodenspurbreite von ca. 54 km erreicht werden (vgl. Euromap - IRS-P5 - Weblink).
Wichtige Aufnahmesysteme
389
10.4.8 Aufnahmesysteme mit abbildendem Radar Ein deutlicher Nachteil der passiven optischen Systeme ist deren Wetterabhängigkeit, die eine Aquisition von brauchbaren Daten nur erlaubt, wenn die Atmosphäre möglichst frei von Wolken, Dunst oder anderen Trübungen ist. Die relativ kurzen Wellenlängen der mit optischen Systemen ausgewerteten Strahlung verhindern ein Durchdringen solcher Trübungen (vgl. Kap. 10.3.2), während Wellenlängen im Bereich von 1mm bis 1m, die sog. Mikro- oder Radiowellen, durchgelassen werden. Dies wird bei der Radar-Fernerkundung ausgenutzt. Radar ist ein Akronym für Radio Detection and Ranging und wurde ursprünglich entwickelt, um mit Radiowellen Objekte aufzuspüren (Detection) und deren Abstand (Range) bzw. Position zu bestimmen. Da Objekte Radiowellen nur in geringem Umfang auf natürliche Weise emittieren, werden in der Fernerkundung meist aktive Systeme verwendet, die selbst Strahlungsimpulse aussenden und das reflektierte RadarEcho wieder empfangen können. Ein solches System ist demnach auch nicht auf eine natürliche Bestrahlung des Beobachtungsobjektes angewiesen und somit auch zu Aufnahmen in der Nacht in der Lage. Ein Radarsystem sendet kurze, energiereiche Mikrowellenpulse seitlich zur Flugrichtung in einem bestimmten Winkel (Einfallswinkel) zum Boden. Die reflektierten Signale werden anschließend vom Sensor auf dem Satelliten oder dem Flugzeug aufgezeichnet. Auch diesem Ansatz liegt das Grundprinzip der Fernerkundung zugrunde. So bestimmen verschiedene Merkmale der Oberfläche wie Relief oder Topographie, Mikroklima, Feuchte, Boden (u.a. Oberflächenrauhigkeit, Textur und Lagerungsdichte) oder Vegetationsbedeckung das Reflexionsverhalten im Mikrowellenbereich. Flugrichtung Antenne
Sender und Empfänger
't Wellenfront
S Azimuth
Range
t 't Bildzeile
Abb. 10.14: Aufnahmeprinzip von Radarsystemen (nach Albertz 2001 S. 59)
Die abgestrahlte elektromagnetische Energie kann in Wellenlänge und Polarisation variieren. Die Polarisation bezeichnet dabei die Fähigkeit, Radarstrahlen so zu filtern, dass sie sich nur in bestimmte Richtungen senkrecht zur Wellenbewegung ausbreiten. Verwendete Wellenlänge und Polarisation sowie der Einfallswinkel bestimmen aus der Perspektive des Sensors das Erscheinungsbild der reflektierten Signale und damit die Charakteristik von Oberflächenobjekten im Radarbild (vgl. Abb. 10.14). Ferner wird die räumliche Auflösung eines Radarsystems in Flug-
390
Fernerkundung und digitale Bildverarbeitung
richtung (Azimuth) durch die Baulänge der verwendeten Antenne bestimmt. Die zeitliche Dauer des Energiepulses beeinflusst die Auflösung quer zur Flugrichtung (Range). So wird mit wachsender Antennengröße (Apertur) die Breite des Radarimpulses geringer, wodurch eine stärkere Bündelung der Radarwellen und somit eine bessere räumliche Auflösung hervorgerufen werden. Demgegenüber wächst mit zunehmender Entfernung des Radars zum beobachteten Objekt die Breite des Radarimpulses. Allerdings können Antennen nicht beliebig groß werden, um z.B. die Flughöhe satellitengestützter Systeme auszugleichen, so dass konventionelle Radarsysteme (Real Apertur Radar (RAR) nach Hildebrandt 1996 S. 576) nur für geringe Flughöhen, die keine allzu große Entfernung zwischen Antenne und Bodenoberfläche aufweisen, geeignet sind. Bei Radarsystemen mit synthetischer Apertur (SAR = Synthetic Aperture Radar) wird nur eine kurze Antenne eingesetzt, die aber in einer breiten Keule Mikrowellen abstrahlt, so dass während des Fluges Geländepunkte wiederholt bestrahlt werden. Je weiter ein Objekt entfernt ist, desto öfter wird es erfasst. Die zur Nutzung der Mikrowellenfernerkundung aus großen Höhen eigentlich notwendige lange Antenne wird somit durch verschiedene Positionen der Antenne entlang des Flugweges simuliert. Durch die Aufzeichnung der reflektierten Signale eines Objektes von verschiedenen Positionen aus entsteht für jedes Objekt eine Signalfolge, in der sich mit variierender Entfernung des Objektes von der Antenne die Frequenz des zurückgestrahlten und an der Radarantenne aufgezeichneten Signals systematisch ändert. Aus der in dieser Signalfolge aufgezeichneten Frequenzverschiebung zwischen ausgestrahlter und empfangener Strahlung (Dopplereffekt) lassen sich die Signale bei der Auswertung über komplexe mathematische Verfahren wieder so rekonstruieren, als stammten sie von einer einzigen Antenne. Durch die Schrägsicht des Radars und somit durch die Aufnahmetechnik bedingte Effekte bestimmen das Erscheinungsbild der Erdoberfläche im Radarbild und müssen bei der Prozessierung der Daten berücksichtigt werden. Die elektrischen Eigenschaften der Materialien an der Erdoberfläche (ausgedrückt durch die sog. Dielektrizitätskonstante) haben einen großen Einfluss auf die Reflexion und die Eindringtiefe von Mikrowellen. Insbesondere bestimmt die Wellenlänge die Eindringtiefe der Strahlung in bestimmte Materialien. Hierbei gilt das Prinzip: je größer die Wellenlänge, desto größer die Eindringtiefe. Dieser Zusammenhang kann benutzt werden, bestimmte Frequenzbereiche für den gezielten Untersuchungseinsatz zu verwenden. Insgesamt ist die Verarbeitung von Radardaten, die über Standardanwendungen hinausgeht, sehr komplex und wird hier nicht näher thematisiert. Beispiele für satellitengestützte SAR-Systeme sind die europäischen Satelliten ERS-1 und ERS-2 (European Remote Sensing Satellite), die seit 1991 bzw. 1995 aktiv sind. An Bord sind verschiedene Radarinstrumente, die jeweils bestimmte Einsatzbereiche abdecken und somit einen guten Querschnitt der Anwendungsmöglichkeiten der Mikrowellenfernerkundung zeigen (vgl. ESA - Weblink, ERSWeblink). Während der Shuttle Radar Topography Mission (SRTM) im Februar 2000, bei der zwei Radarinstrumente gleichzeitig im Einsatz waren, wurde beinahe die gesamte Erdoberfläche über Radarinterferometrie hochgenau dreidimensional vermessen (vgl. Shuttle Radar Topography Mission (DLR) - Weblink).
Wichtige Aufnahmesysteme
391
10.4.9 Ausblick zur Satellitenfernerkundung Die Satellitenfernerkundung war bisher vor allem dadurch gekennzeichnet, dass nach den militärischen Auftraggebern staatlich finanzierte (Forschungs-)Satelliten zum Einsatz kamen. Derzeit sind demgegenüber mehrere privat finanzierte, d.h. kommerziell ausgerichtete Missionen geplant bzw. aktiv, die für zivile Anwendungen hohe räumliche Auflösungen liefern (vgl. Tab. 10.9). Beim Einsatz kommerzieller Systeme ergibt sich aber die Frage, ob auch der Nutzer von dieser Entwicklung und der neuen Breite der Anbieter angemessen profitiert. So haben bisher die Raumfahrtagenturen, die von staatlichen Organisationen finanziert wurden, zuwenig die Nutzerwünsche berücksichtigt. Insbesondere wurde die Datenveredlung zu gering unterstützt. Möglich ist, dass die privaten und kommerziellen Nutzer mehr Einfluss auf die Entwicklung von Satellitensystemen nehmen wollen (und jetzt wohl auch können), was durch die bisherige Orientierung auf Forschungsinstitutionen nicht im Vordergrund stand. Somit sind von einer stärkeren kommerziellen Orientierung neue Impulse zu erwarten. Im Gegensatz zu den „klassischen“ Satellitensystemen wie z.B. Landsat können die neuen hochauflösenden Satellitensysteme die Erdoberfläche nicht mehr flächendeckend abtasten. Die geringe Größe einer Szene bei hoher Auflösung (vgl. Tab. 10.9) verursacht große Datenmengen, so dass Aufnahmen „auf Vorrat“ nicht mehr möglich sind. Ein Nutzer muss die Aufnahme eines zu erfassenden Gebietes vorher bestellen. Dies bedeutet, dass ein Rückgriff auf Szenen der Vergangenheit nur noch in seltenen Fällen möglich ist. Inzwischen liegen Erfahrungen über den Einsatz von Ikonosdaten in der Praxis vor. Dabei ist der Optimismus der Anfangsphase weitgehend einer allgemeinen Ernüchterung gewichen. So ist sogar von „Entmystifizierung“ (vgl. Toutin u. Cheng 2001) die Rede, was zum einen auf die hohen Preise für die Bilddaten und zum anderen auf die Restriktionen zurückzuführen ist, die bei der Aquisition von Standardbilddaten in Kauf genommen werden müssen (z.B. die Akzeptanz eines Bewölkungsanteils einer bestellten Szene von bis zu 20%). Tabelle 10.9: Übersicht über jüngere, kommerziell ausgerichtete Missionen System (Betreiber)
Ikonos (Space Imaging)
Start September 1999 Flughöhe 681 km Modus MS Pan räuml. Aufl. 4 1m Radiom. Aufl. 11 bit Spektralbereiche 0,45-0,52 0,45-0,90 (µm) 0,52-0,60 0,63-0,69 0,76-0,90 Swath im Nadir 11,3 km
Orbview 3 (Orbimage)
Quickbird (Digitalglobe)
Juni 2003 470 km
Oktober 2001 450 km MS Pan 2,44 m 0,61 m 11 bit 0,45-0,52 0,445-0,90 0,52-0,60 0,63-0,69 0,76-0,90 16,5 km
MS 4m 0,45-0,52 0,52-0,60 0,625-0,695 0,76-0,90 8 km
Pan 1m 0,45- 0,9
Quelle: Space Imaging - Weblink, Orbimage - Weblink, Quickbird - Weblink
392
Fernerkundung und digitale Bildverarbeitung
10.4.10 Flugzeuggestützte Aufnahmesysteme Die meisten Satellitenscannerdaten besitzen eine geringe Auflösung. Der Nutzer hat zudem relativ wenig Einfluss auf Auswahl der Szene und Befliegungszeitpunkt. Allerdings besteht gerade bei Landsat eine hohe Verfügbarkeit von Daten. Demgegenüber ist der Einsatz von Scannern auf einem Flugzeug wesentlich flexibler. Die Bilder besitzen bei niedrigerer Flughöhe eine höhere Auflösung, so dass qualitativ hochwertige Daten jetzt auch Anwendungsfelder in der Kommunalplanung erschließen. Gegenüber den Vorteilen flugzeuggestützter Scanner entstehen hierbei aber (neue) Probleme, die eine Auswertung der Daten erschweren. So besitzen Flugzeuge keine zu Satelliten vergleichbar stabile Flugbahn, so dass Flugzeugscanneraufnahmen komplexe Verzerrungen aufweisen. Zu unterscheiden sind vor allem Abdrift-, Flugrichtungs- sowie Längs- und Querneigungsfehler. Bei den neuen Flugzeugscannersystemen können jedoch sämtliche Orientierungselemente direkt mittels einer Kombination aus GPS und inertialer Messeinheit aufgezeichnet (direkte Georeferenzierung) und anschließend in einem automatischen photogrammetrischen Entzerrungsprozess verarbeitet werden (vgl. Cramer 2003). Bei den älteren Systemen müssen diese Fehler bei der Bildverarbeitung und Auswertung der Informationen behoben werden. Der Airborne Thematic Mapper (Daedalus Instruments AADS 1268) ist ein opto-mechanischer Scanner mit 11 Kanälen. Davon entsprechen 6 Kanäle in etwa denen des Landsat Thematic Mapper. Vier weitere Kanäle stehen im sichtbaren Bereich bzw. im nahen Infrarot zur Verfügung. Ferner wurde ein Thermalkanal für den flugzeuggestützten Einsatz gegenüber dem des Landsat Thematic Mapper verbreitert. Die Signalquantität beträgt 8 Bit, die Streifenbreite 716 Pixel. Die räumliche Auflösung umfasst bei einer Aufnahmehöhe von 1 km (Nadir) bei Weitwinkelaufnahme (85,92°) einen Bereich von 2.5 x 2.5 m bzw. bei Normalwinkelaufnahme (42.96°) von 1.25 x 1.25 m (vgl. Kramer 1996 S. 346). Der Compact Airborn Spectrographic Imager (CASI) ist ein flugzeuggestützter opto-elektronischer Scanner mit CCD-Sensor und hoher spektraler Auflösung (Hyperspektralsensor). Dieser Scanner kann im Bereich von 430 bis 870 nm gleichzeitig bis zu 19 benutzerdefinierte Kanäle aufnehmen (jeweils mit 12 Bit). Im sog. Spectral Mode lässt sich der Compact Airborn Spectrographic Imager als hochauflösendes Spektralradiometer einsetzen, wobei sich die spektrale Charakteristik von Objekten in 288 Kanälen von jeweils 1,8 nm Breite ermitteln lässt. Zu einer neuen Generation digitaler multispektraler Luftbildkameras gehört die High Resolution Stereo Camera HRSC, die ursprünglich von der DLR für die internationale Marsmission 1996 gebaut wurde (vgl. Hoffmann u. Lehmann 2000). Seit dem Scheitern dieser Mission wird eine veränderte Version der Kamera als HRSC-A (High Resolution Stereo Camera - Airborne) für die Erdfernerkundung von Flugzeugen aus genutzt. Das mehrzeilige, multispektrale und multistereofähige System arbeitet nach dem elektro-optischen Prinzip und trägt neun CCD-Reihen, die parallel auf der Fokalebene des Instrumentes montiert sind. Fünf dieser CCD-Reihen sind in spezifischen Blickwinkeln (Vor- und Zurückblick) angebracht und liefern panchromatische Bilddaten. Sie sind für die verschiedenen Stereo-Aufnahmemöglichkeiten des Instrumentes verantwortlich. Mit diesen Ele-
Wichtige Aufnahmesysteme
393
menten ist das System in der Lage, Orthobilder und Oberflächenmodelle mit Genauigkeiten zwischen 10 und 20 cm zu liefern (vgl. Lehmann u. Renouard 2001). Die anderen vier CCD-Reihen sind mit verschiedenen Filtern zur Aufnahme von Multispektralbildern versehen. Die aufgezeichneten Spektralbereiche umspannen die Wellenlängen vom sichtbaren Licht bis zum nahen Infrarot. Allerdings sind die Spektralkanäle der Anwendung auf dem Planeten Mars angepasst, so dass der rote Spektralbereich nicht aufgezeichnet wird! Somit können aus den HRSC-ADaten keine Echtfarbkomposite erstellt oder die üblichen Vegetationsindizes (vgl. Kap. 10.6.3.1) berechnet werden, wodurch sich die Einsatzmöglichkeiten stark einschränken. Das Nachfolgermodell HRSC-AX, das für Anwendungen auf der Erde modifiziert wurde, verfügt über eine verbesserte geometrische und radiometrische Auflösung. Das System ist ferner mit einem Präzisionsinstrument ausgestattet, welches ein inertiales Navigationssystem und einen differerentiellen GPS-Empfänger kombiniert. Somit ist eine präzise Navigation und Lagebestimmung sowie vollständige Aufzeichnung der sog. äußeren Orientierung der Plattform während des Fluges möglich, so dass eine anschließende geometrische Korrektur der Bilddaten sehr einfach möglich ist (vgl. HRSC-DLR - Weblink). Der HRSC-A Sensor markiert den Beginn grundlegender Veränderungen von digitalen Aufnahmesystemen, wobei derzeit zwei verschiedene Ansätze verfolgt werden. So bestehen Systeme, die wie der HRSC-A Sensor auf Zeilensensoren beruhen. Hierzu gehört der ADS40 Airborne Digital Sensor, der in der Lage ist, photogrammetrische Genauigkeit (12.000 Pixel pro Zeile) wie auch Multispektraldaten zu liefern. Er besitzt drei panchromatische sowie vier multispektrale CCD-Reihen (vgl. ADS40 - Weblink). Demgegenüber besteht die Digital Modular Camera (DMC) aus einer variablen Zahl synchron betriebener Kameras, die auf CCD-Flächensensoren basieren. Dabei können die Kameras je nach Anwendung in verschiedenen Konfigurationen aneinander gekoppelt werden, so dass dieses Konzept eine hohe panchromatische Auflösung in Verbindung mit einer multispektralen Funktionsweise gestattet. Das System besitzt eine Geländeauflösung von > 13.500 Pixel quer und ca. 8.000 Pixel in Flugrichtung. Bei einem Testflug mit einer Flughöhe von 300 m über dem Boden konnte eine Pixelgröße am Boden von 7 cm erreicht werden (vgl. Hinz u.a. 2001 S. 193, vgl. DMC - Weblink). Neben der digitalen Erfassung der multispektralen Informationen ermöglichen diese neuen Kamerasysteme darüber hinaus die simultane Aufnahme von Stereobildern, aus denen durch automatische Matching-Algorithmen digitale Oberflächenmodelle abgeleitet werden können. Hierdurch kann die Lagegenauigkeit der verarbeiteten Daten gesteigert werden. Ferner entsteht eine zusätzliche Informationsebene für die thematische Datenauswertung (vgl. Gähler u.a. 2001). Alternativ können durch Laserscanningsysteme Höhendaten gewonnen werden. Inzwischen bestehen Sensorsysteme, die simultan Laserscanningdaten und multispektrale Bilddaten erzeugen (vgl. Schiewe u. Ehlers 2004). Diese Perspektiven machen deutlich, dass digitale Fernerkundungssensoren Maßstabsbereiche erschließen werden, die bislang nur der klassischen Luftbildaufnahme vorbehalten waren. Die hochauflösenden Daten bzw. die große Datenmenge und Datenvielfalt erfordern allerdings auch neue Formen der Bildauswertung (vor allem der Klassifikation, vgl. Kap. 10.7.6).
394
Fernerkundung und digitale Bildverarbeitung
10.5 Digitale Bilder 10.5.1 Aufnahme digitaler Bilder in der Fernerkundung Durch die Sensorsysteme wird die Erdoberfläche in Flugrichtung zeilenförmig abgetastet, wobei jede Zeile in mehrere Rasterzellen aufgelöst wird, für die dann Informationen vorliegen (vgl. Abb. 10.15). Die Sensorsysteme liefern somit für jeden Aufnahmekanal Zahlenmatrizen (Rasterdaten), deren Werte (engl. digital numbers) die Intensität der Reflexion oder der Strahlungsemission innerhalb eines bestimmten Spektralbereiches (Kanal) repräsentieren. Diese Werte liegen in keiner Maßeinheit vor und sind von der Kalibrierung des Sensorsystems abhängig (vgl. Kap. 10.6.1.1). Sie codieren die Intensität der empfangenen Strahlung. Ein höherer Zahlenwert bedeutet eine höhere Einstrahlungsintensität am Aufnahmesystem, d.h. höhere Reflexion bzw. Emission am Boden und dann analog zur Belichtung eines Filmes einen höheren Helligkeitswert.
y row (r)
c,r = 0, 0
x,y = 270, 300
Pixelgröße 30 x 30 Pixelmittelpunkt
Zuordnung zu Grauwerten 0 1 2 ... 255
Schwarz ... ... ... Weiß
c,r = 8,9 x,y = 0,0
x column (c)
Abb. 10.15: Aufbau und Inhalt einer Bildmatrix mit Grauwerten
Der mögliche Bereich für die Werte einer Zahlenmatrix hängt vom Aufnahmesystem sowie von der Fragestellung und der darzustellenden Thematik ab. In der Fernerkundung werden für die Darstellung eines Pixels 6- bis 12-Bit-Datentypen eingesetzt. Ein Kanal einer Szene des Landsat 5 Thematic Mappers hat z.B. eine radiometrische Auflösung bzw. Signalquantität (vgl. Kap.10.4.2) von 8 Bit, so dass zur Speicherung der Einstrahlungsintensität am Aufnahmesystem für jeden Kanal und für jedes Pixel 28 = 256 Werte (1 Byte) zur Verfügung stehen. Bei einer Bildgröße von 6167 Zeilen und 5667 Spalten, die einer vollen Landsat-Szene entspricht (185 km x 170 km, 30 m Auflösung), benötigt dann ein Kanal ca. 33,3 MByte an Speicherplatz. 10.5.2 Visualisierung digitaler Bilder in der Fernerkundung In der Fernerkundung werden durch digitale Aufnahmesysteme keine „Bilder“ wie in der analogen Fotographie mit Kameras auf Film aufgenommen. Stattdessen
Digitale Bilder
395
werden durch die Scannersysteme für jeden Aufnahmekanal getrennte Zahlenmatrizen erfasst (vgl. Kap. 10.5.1). Erst bei der Wiedergabe dieser Zahlenwerte über ein Ausgabegerät entstehen Bilder. So wird bei der Umsetzung der Zahlenwerte nur eines einzelnen Kanals ein Graustufenbild erzeugt, bei dem der Wert 0 der Farbe Schwarz, der Wert 255 der Farbe Weiß zugeordnet werden und die zwischenliegenden Werte entsprechend abgestufte Grautöne erhalten (vgl. Abb. 10.16). Hieraus leitet sich auch der Begriff Grauwerte für die Zahlenwerte eines Kanals ab. Das entstehende Bild ist allerdings nicht mit einem Schwarz-Weiß-Bild in der Fotographie vergleichbar. Farbbilder am Monitor bzw. auf einem Drucker entstehen durch additive bzw. subtraktive Farbmischung von drei Grundfarben (vgl. Kap. 2.7.2 u. 4.8.1 u. 4.8.3). Entsprechend können multispektrale Daten umgesetzt werden, indem die erfassten Spektralbereiche, d.h. die Grauwerte eines Kanals, jeweils einer Grundfarbe eines Monitors bzw. eines Druckers zugeordnet werden, wobei aber nur Kombinationen von drei Aufnahmekanälen bzw. Ausgabefarben möglich sind. Beim Aufnahmesystem Thematic Mapper des Landsat-5 kann durch Zuordnung von Kanal 1 (sichtbares Blau) zur Monitorfarbe Blau, von Kanal 2 (sichtbares Grün) zur Monitorfarbe Grün und von Kanal 3 (sichtbares Rot) zur Monitorfarbe Rot ein angenähertes „Echtfarbenbild“ erzeugt werden. Darüber hinaus sind andere Kanalkombinationen üblich, so dass die besonderen Eigenschaften der erfassten Objekte sichtbar werden, die sich in der Reflexion in unterschiedlichen Spektralbereichen widerspiegeln. Die für das menschliche Auge nicht sichtbaren Spektralbereiche werden somit durch sog. Falschfarben dargestellt. Falls beim Thematic Mapper die Zuordnung von Kanal 2 (sichtbares Grün) zur Monitorfarbe Blau, von Kanal 3 (sichtbares Rot) zur Monitorfarbe Grün und von Kanal 4 (nahes Infrarot) zur Monitorfarbe Rot gewählt wird, entsteht die übliche Color-Infrarot-Darstellung. Das Farbbild am Monitor ist somit nicht mit einer Farbfotographie zu verwechseln. So wird stattdessen hier der Begriff Farbkomposit benutzt. Zu beachten ist insbesondere, dass jede Farbe Träger einer besonderen Information ist. So präsentiert die Intensität einer Farbe die Einstrahlungsintensität eines Ausschnitts aus dem elektromagnetischen Spektrum am Sensor. Die Farbe Rot kann dann z.B. die am Sensor eintreffende Intensität des nichtsichtbaren Infrarots visualisieren. 10.5.3 Bezug von Fernerkundungsdaten Fernerkundungsdaten sind über vielfältige Bezugsquellen zu erhalten. Bedeutende Lieferanten waren bislang zumeist nationale Behörden wie z.B. die National Aeronautics and Space Administration (NASA) oder supranationale Behörden wie z.B. die European Space Ageny (ESA) oder Großforschungseinrichtungen wie die Deutsche Zentrum für Luft- und Raumfahrt (DLR). Daneben bestehen bereits auch private Missionen und Lieferanten, die in Zukunft an Bedeutung zunehmen werden. Die Tabelle 10.10 weist ausgewählte Bezugsquellen auf, wobei die angegebenen Internetadressen als Einstieg dienen. Zumeist werden umfangreiche Recherchemöglichkeiten angeboten. Das intelligente Satellitendaten-Informationssystem ISIS der DLR (vgl. ISIS - Weblink) bietet z.B. einen einfachen Zugriff auf
396
Fernerkundung und digitale Bildverarbeitung
die im deutschen Fernerkundungsdatenzentrum (DFD) der DLR archivierten Daten (vgl. Fernerkundungsdatenzentrum (DLR) - Weblink). Dieser Zugriff kann direkt über das Internet erfolgen (vgl. Eoweb-Weblink). Über die Bezugsquellen (vgl. Tab. 10.10) sind auch Beispieldatensätze zu erhalten bzw. direkt im Internet abrufbar. Die Datenlieferanten liefern häufig nicht mehr nur die Rohdaten, sondern vorverarbeitete Daten. Zumeist erfolgt bereits eine Korrektur systematischer Verzerrungen der Aufnahmen. Darüber hinaus können die Daten schon auf weiteren Verarbeitungsstufen bezogen werden, die z.B. eine Georeferenzierung in ein gewünschtes Koordinatensystem enthalten. Insbesondere ist ein neuer Trend zu weitgehend vorverarbeiteten Daten (sog. value added products) zu beobachten, der vor allem durch die neuen kommerziellen Systeme und Anbieter vorangetrieben wird, so dass die Daten vom Anwender direkt zu nutzen sind (Schlagwort „GIS ready“): Die Daten werden bereits hochgenau auf Basis eines digitalen Höhenmodells auf eine gewünschte Kartenprojektion orthorektifiziert (vgl. Kap. 10.6.1.2) und können direkt als Datenebene in ein Geoinformationssystem integriert werden. Tabelle 10.10: Ausgewählte Bezugsadressen von Satellitendaten im Internet URL
Organisation
Daten
www.dlr.de www.dfd.dlr.de isis.dlr.de/ www.eoweb.de
Deutsches Zentrum für Luft- und Landsat, IRS-1C/1D, AVHRR, Raumfahrt e.V., DLR NDVI-Produkte, Ozonkonzentr. (GOME), MOS, ERS-SAR, X-SAR, Seasat-SAR, MOMS
earthnet.esrin.esa.it
European Space Agency, ESA
www.eumetsat.de
European Org. for the Exploita- u.a. Meteosat, meteorologische tion of Meteorological Satellites Daten
www.eurimage.com
Eurimage
u.a. Landsat, ERS, Ikonos, IRS, AVHRR, Radarsat, Quickbird
www.spotimage.fr
SPOT-Image
SPOT
www.euromap.de
Euromap SatellitendatenVertriebsgesellschaft mbH
IRS-1C / 1D, IRS-P6, IRS-P5
www.gaf.de
Gesellschaft für angewandte Fernerkundung
u.a. Landsat, ERS, Ikonos, IRS, NOAA, Radarsat, Russian data
www.spaceimaging.com
Space Imaging Europe
Ikonos, IRS, Landsat, JERS, ERS-1, ERS-2
www.orbimage.com
Orbimage
Orbview
www.digitalglobe.com
EarthWatch Incorporated
Quickbird
edc.usgs.gov
US Geological Survey, EROS Data Center
Landsat TM u. MSS, AVHRR, CORONA, SPOT
u.a. ERS, Envisat, Landsat, NOAA
Digitale Bildbearbeitung
397
10.6 Digitale Bildbearbeitung 10.6.1 Bildvorbearbeitung Die vom Datenlieferanten gelieferten Rohdaten oder systemkorrigierten Daten sind zumeist für eine Analyse und Auswertung noch nicht geeignet. In der Regel müssen die Daten weiter aufbereitet und verbessert werden. So liegen die Daten noch nicht in dem gewünschten räumlichen Bezugssystem vor, oder die reinen Grauwerte müssen erst in physikalische Einheiten konvertiert werden. 10.6.1.1 Radiometrische Korrekturen Die am Sensor empfangene Strahlung wird durch verschiedene Faktoren wie Beleuchtungsunterschiede, atmosphärische Einflüsse, Blickwinkel oder Charakteristika des Sensors selbst modifiziert. Ob radiometrische Korrekturen, d.h. Korrekturen der empfangenen Reflexionswerte, vorgenommen werden müssen, hängt von der Anwendung ab (zu radiometrischen Korrekturen vgl. Chavez 1996, Hildebrandt 1996, Lillesand u. Kiefer 1994, Popp 1993): - Eine multitemporale Auswertung der Daten, wie sie z.B. im Rahmen eines regelmäßigen Monitoring einer Region notwendig ist, erfordert die Minimierung externer Einflüsse, um die eigentlich interessierenden, zeitspezifischen Unterschiede zu erkennen. - Bei einer Mosaikbildung aus mehreren Bilddatensätzen, die auch von verschiedenen Sensoren stammen oder zu unterschiedlichen Zeitpunkten aufgenommen sein können, ist es notwendig, die Grauwerte über die verschiedenen Teilbilder hinweg homogen abzubilden, d.h. vergleichbar zu machen (sog. Histogrammmatching, vgl. Kap. 10.6.5). - Soll ein Vergleich mit am Boden durchgeführten Reflexionsmessungen durchgeführt werden oder sind Aussagen über absolute Reflexionswerte gefragt, muss zunächst eine Kalibrierung der Grauwerte in absolute Strahlungseinheiten erfolgen, wie sie am Sensor gemessen werden. - Für eine Konvertierung der Grauwerte in absolute Reflexionsbeträge sind aktuelle Kalibrierungsinformationen für jeden Kanal eines Sensors notwendig, da sich diese Werte mit fortschreitender Alterung der Aufnahmeinstrumente ändern. Diese Daten sollten dem Dateianfang des Bilddatensatzes (engl. header) oder beiliegenden Zusatzinformationen entnommen werden können. - Erst durch eine sensorspezifische Kalibrierung ist der Vergleich von Aufnahmen verschiedener Sensoren möglich. - Die Berücksichtigung des Zustandes der Atmosphäre während der Aufnahme führt zur Anwendung einer sog. Atmosphärenkorrektur, deren einfachste Formen Näherungsverfahren darstellen, die aus den Bilddaten selbst geschätzt werden. Komplexere Verfahren stützen sich auf die Ergebnisse von Strahlungsübertragungs- und Aerosolmodellen und setzen die Kenntnis verschiedener Atmosphärendaten wie z.B. zur vertikalen Schichtung und zur Sichtweite vor-
398
Fernerkundung und digitale Bildverarbeitung
aus (zu Näherungsverfahren vgl. Mather 1999 S. 89, Hildebrandt 1996 S.490, Lillesand u. Kiefer 1994, Albertz 2001 S. 104ff. 96, zur Integration von physikalischen Modellen vgl. z.B. Richter 1996). Die Umrechung der bildbezogenen Grauwerte in Strahlungswerte, wie sie am Sensor gemessen werden (engl. at-sensor radiance), erfolgt über: Lsat , O
Lmax O Lmin O
DN Lmin O 255
mit: Lsat, O LmaxO LminO DN
spektrale Strahlung am Sensor (in mW cm-2 str-1 µm-1) maximale vom Sensor erfassbare spektrale Strahlung (in mW cm-2 str-1 µm-1) minimale vom Sensor erfassbare spektrale Strahlung (in mW cm-2 str-1 µm-1) Digital Number (Bild-Grauwert)
Die Tabelle 10.11 enthält die genannten Parameter für das ETM+ Instrument des Satelliten Landsat 7 für den Zeitraum vor Juli 2000. Tabelle 10.11: Spectral Radiance Range (Bereich messbarer Spektralstrahlung) für das ETM+ Instrument des Satelliten Landsat 7 für den Zeitraum vor Juli 2000 (alle Werte in mWcm-2 str-1µm-1, Quelle: Landsat 7 Science Data User Handbook - Weblink, Chapter 11) Kanal
Low Gain Lmin
Lmax
High Gain Lmin
Lmax
1 (Blau) 2 (Grün) 3 (Rot) 4 (NIR) 5 (SWIR 1) 6 (THIR) 7 (SWIR 2) 8 (PAN)
-0,620 -0,640 -0,500 -0,510 -0,100 0,00 -0,040 -0,470
29,370 30,090 23,440 24,110 4,760 1,700 1,650 24,310
-0,620 -0,640 -0,500 -0,510 -0,100 0,320 -0,035 -0,470
19,160 19,650 15,290 15,740 3,106 1,265 1,080 15,830
Diese Kalibrierungsinformationen unterliegen auch beim ETM+ Instrument Veränderungen zum einen durch die altersbedingte Degradation des Instrumentes, zum anderen aber auch als Anpassung an unterschiedliche Reflexionsgegebenheiten der aufgezeichneten Oberfläche (vgl. Tab. 10.11). Aus diesem Grund wurde die Landsat 7 Mission schon mit dem Ziel geplant, eine umfassende Überwachung der Kalibrierungsparameter durchzuführen (vgl. Mika 1997). Hierdurch sind immer aktuelle Kalibrierungsinformationen verfügbar (vgl. Landsat7 Science Data User Handbook - Weblink, Landsat7 Calibration Files - Weblink, Landsat7 Gateway - Weblink). Nach der Berechnung der sensorbezogenen Strahlungswerte kann eine Umrechnung in dimensionslose Reflexionsgrade erfolgen, bei der Beleuchtungsunterschiede durch unterschiedliche Ausprägung des Sonnenstandes und des Abstandes Erde - Sonne berücksichtigt werden (zu Parametern für den Sensor ETM+ von Landsat 7 vgl. Landsat 7 Science Data User Handbook - Weblink, Chapter 11):
Digitale Bildbearbeitung
RO
3 Lsat , O d 2 ESunO cos 4 s mit:
RO Lsat,O
399
Dimensionsloser planetarischer spektraler Reflexionsgrad Spektralstrahlung am Sensor
d
Distanz Sonne - Erde in astronomischen Einheiten (aus Ephemeridentabelle)
ESunO 4s
Mittlere spektrale exoatmosphärische Einstrahlung (Solarkonstante) in mW cm-2 µm-1 Solarer Zenitwinkel in Grad (90° - Sonnenhöhe, aus Dateianfang des Bilddatensatzes)
In den USA laufen koordinierte Arbeiten verschiedener Behörden im Hinblick auf eine gegenseitige Kalibrierung (sog. cross-calibration) der älteren LandsatSatelliten mit Thematic-Mapper Sensoren mit dem neuen ETM+ Sensor (vgl. Teillet u.a. 2001a). Auf diese Weise sollen Vergleichbarkeit und Konsistenz langjähriger Zeitreihen gewahrt bleiben. Die angeführten Korrekturen berücksichtigen nicht die Einflüsse der Atmosphäre. Zur Atmosphärenkorrektur sind verschiedene, recht komplexe Ansätze entwickelt worden, wobei aber Methoden, die auf physikalischen Modellen beruhen, in einer operationellen Produktionsumgebung meist nicht anwendbar sind, da sie oft in-situ-Messungen von Atmosphärenparametern wie Feuchtegehalt und Temperatur in verschiedenen Atmosphärenschichten oder die optische Tiefe bzw. Sichtweite erfordern. Diese Daten sind jedoch zumeist nicht verfügbar. Allerdings wurden auch praktikable Methoden entwickelt, die z.T. auf empirischen Untersuchen basieren und die benötigten Parameter aus den Bilddaten selbst schätzen oder mit Modellatmosphären rechnen und somit kostengünstige und operationelle Alternativen darstellen (vgl. z.B. Chavez 1988, 1989 u. 1996, Teillet u. Fedosejevs 1995 oder Richter 1996b). 10.6.1.2 Entzerrung, Georeferenzierung und Resampling Bei der Verarbeitung von Fernerkundungsdaten kommt der Anpassung des digitalen Bildes an eine analoge oder digitale Kartenvorlage mit einem definierten Bezugssystem z.B. der Landesvermessung eine sehr große Bedeutung zu. Je nach Aufnahmesystem sind die Bilddaten mehr oder weniger verzerrt. So liefern z.B. aufgrund der relativ instabilen Fluglage (z.B. Schräglage, vgl. Abb. 10.16) flugzeuggestützte Scanner in der Regel stärker verzerrte Bilder als z.B. Satelliten. Mit der Entzerrung und geometrischen Korrektur werden gleichzeitig die einzelnen Bildpunkte einem kartographischen oder geodätischen Koordinatensystem zugeordnet (Georeferenzierung oder Geocodierung, vgl. Kap. 5.2.4). So kann das Punktraster des Ausgangsbildes, d.h. das ursprüngliche Koordinatensystem bzw. Aufnahmesystem, aufgrund der Flugrichtung eine beliebige Orientierung besitzen. Hingegen liegt dem Zielkoordinatensystem eine bestimmte Projektion zugrunde. Das Ausgangsbild muss in das neue Koordinatensystem „umgerechnet“ werden, wobei in der Regel Drehungen und Dehnungen bzw. Stauchungen der alten Rasterzellen notwendig sind (vgl. Abb. 10.17). Neben einer Transformation in ein
400
Fernerkundung und digitale Bildverarbeitung
neues Bezugssystem müssen darüber hinaus die Grauwerte des Ausgangsbildes in Grauwerte des Ergebnisbildes umgerechnet werden (engl. resampling). Dabei können an einem Wert für ein einzelnes Pixel in der entzerrten Szene mehrere Pixelwerte des Ausgangsbildes beteiligt sein. Zu fordern ist, dass sämtliche Bildpunkte des Ergebnisbildes auch Grauwerte erhalten müssen.
Abb. 10.16: Aufnahmen eines opto-mechanischen Scanners: nicht-georeferenzierter Flugstreifen (oben) und georeferenzierter Flugstreifen (unten), Thermalkanal im Bereich von 8,5 bis 12,5 µm, Oberflächentemperaturen kurz nach Sonnenuntergang (vgl. Wessels 2002 S. 82)
Digitale Bildbearbeitung
401
N Gedrehte und entzerrte Szenen
Bildmatrix der Originalszene der entzerrten Szene
Abb. 10.17: Entzerrung von Rasterbildern (nach Hildebrandt 1996 S. 480)
Zur Bildentzerrung bestehen in der digitalen Bildverarbeitung mehrere Methoden (vgl. Hildebrandt 1996 S. 483ff., Kraus 1990 S. 446ff., Mather 1999 S. 75ff., Richards 1993 S. 56ff., Schowengerdt 1997 S. 324ff.). Das Kernproblem bei der in der Praxis zumeist eingesetzten polynomischen Entzerrung ist, dass ausgehend von wenigen Passpunkten die notwendigen Transformationsgleichungen aufzustellen sind. Parametrische Verfahren, die hier nicht näher thematisiert werden, berücksichtigen die geometrischen Eigenschaften des Sensors, die bei einem Luftbild als innere Orientierung bezeichnet werden, und die Raumlage bzw. Raumbewegung des Sensors, die bei einem Luftbild äußere Orientierung genannt werden. Bei der polynomischen Entzerrung wird ein Polynom n-ter Ordnung bestimmt, um das Ausgangsbild zu georeferenzieren (vgl. Kap. 5.2.4). Dafür werden Passpunkte im Ausgangsbild mit bekannten X- und Y-Koordinaten im Zielkoordinatensystem benötigt. Diese Methode hat sich zur Entzerrung von Satellitendaten bewährt, bei denen eine gleichmäßige Verzerrung der Gesamtszene anzunehmen ist. Dabei erfolgt zumeist eine Entzerrung auf der Basis von ebenen Passpunkten (ebene Entzerrung). Allerdings zeigen Bodenobjekte auf unterschiedlicher Höhe bzw. auf unterschiedlichen Geländehöhen (erhebliche) Lageverschiebungen gegenüber einer orthogonalen Abbildung. Durch die Orthorektifizierung, für die ein digitales Höhenmodell und Passpunkte mit X-, Y- und Z-Koordinaten erforderlich sind, werden die topographischen Verzerrungen Pixel für Pixel korrigiert (zu den recht aufwändigen Verfahren vgl. Schowengerdt 1997 S. 366, Kraus 1994 S. 318ff u. Wiesel 1991). Im Ergebnisbild erscheint jedes Pixel, als wäre es im rechten Winkel von oben aufgenommen worden (orthographische Projektion). Zur Umrechnung der Grauwerte aus der Originalszene in die (entzerrte) Ergebnisszene (engl. resampling) werden in der digitalen Bildverarbeitung prinzipiell zwei Methoden unterschieden (vgl. Abb. 10.18): - Die direkte Entzerrung geht von einem Pixel im Eingabebild aus, für das die Lage im Ausgabebild berechnet wird. Diesem Pixel wird der Grauwert aus dem Eingabebild zugewiesen. Hierbei werden zwar sämtliche Pixel des Eingabebildes transformiert. Allerdings können in dem (wichtigeren) Ausgabebild durchaus einzelne Pixel keinen Grauwert erhalten, während andere Pixel Mehrfachzuweisungen besitzen. Daher werden Nachbearbeitungen notwendig.
402
Fernerkundung und digitale Bildverarbeitung
- Bei der indirekten Entzerrung wird hingegen von der Lage eines Pixel im Ausgabebild ausgegangen, für das der naheliegendste Grauwert aus dem Eingabebild bestimmt wird. Hierbei wird also vom Ausgabebild in das Eingabebild „zurückgerechnet“, so dass gewährleistet ist, dass sämtliche Rasterzellen im Ausgabebild einen Grauwert haben und somit die entzerrte Bildmatrix ohne weitere Nachbehandlung vorliegt. xP
x1P
x yP
y
P
Eingabebild
x 1
y
P
y1
Direkte Entzerrung
x1P
xP P
1
yP
x
y1P
P1
x1
P1
Ausgabebild
y
Eingabebild
y1
Ausgabebild
Indirekte Entzerrung
Abb. 10.18: Prinzip der direkten und indirekten Entzerrung (nach Albertz 2001 S. 103)
Eine hohe praktische Bedeutung hat die polynomische Entzerrung mit anschließender indirekter Transformation. Hierbei ergibt sich ein dreistufiger Arbeitsablauf: - Der erste Arbeitsschritt, die Auswahl geeigneter Passpunkte (engl. ground control points, gcp), ist insgesamt sehr zeitaufwändig und mühselig. Als Passpunkte werden im Bild gut erkennbare Punkte oder Bildelemente gewählt (z.B. Straßenkreuzungen bei kleinen Bildmaßstäben). Die Passpunkte sollten möglichst gleichmäßig über das Bild verteilt sein. Die Auswahl geeigneter Passpunkte ist von größter Bedeutung für die Qualität der Entzerrung. Passpunktquellen können z.B. analoge Karten und digitale, bereits im gewünschten Referenzsystem erfasste Vektor- oder Rasterkarten sein. Ferner ist auch eine Bildzu Bild-Registrierung (Co-Registrierung) zu anderen Bildern möglich, wobei die Bilder nicht zwingend auf eine Kartenprojektion georeferenziert werden müssen. - Im zweiten Arbeitsschritt erfolgt das Aufstellen der geometrischen Entzerrungsgleichung. Die Bestimmung der geeigneten Ordnung des Polynoms, hängt ab vom Grad der Verzerrung des Ausgangsbildes, der Zahl und Genauigkeit der zu ermittelnden Passpunkte sowie der Verteilung der Passpunkte. In der Praxis haben sich für die Entzerrung von Satellitenaufzeichnungen Transformationen mit Polynomen zweiten Grades bewährt, falls das Relief nicht sehr stark ausgeprägt und der Öffnungswinkel des Sensorsystems nicht allzu groß sind (vgl. Hildebrandt 1996 S. 477 u. Schowengerdt 1997 S. 332). - Zur Beurteilung der Qualität der Entzerrung kann der sog. RMS-Fehler (vgl. Kap. 5.2.4.5) herangezogen werden. Ein Polynom höherer Ordnung reduziert in der Regel den RMS-Fehler. Hierdurch wird allerdings keinesfalls auch automatisch die Güte der Entzerrung verbessert. Vielmehr weisen Polynome höheren Grades meist schlechtere Interpolationseigenschaften auf, da die Bildpunkte
Digitale Bildbearbeitung
403
zwischen den Passpunkten im Ergebnisbild erhebliche Lagefehler aufweisen können. Somit sollte bei der Entzerrung möglichst nicht allein der RMS-Fehler beachtet werden, da er sich nur auf die Abweichungen der Passpunkte bezieht. Durch die Berechnung von sog. Restfehlervektoren können systematische Fehler ermittelt werden (vgl. Haberäcker 1991 S. 195). Restfehlervektoren stellen die unterschiedliche Lage der gemessenen und der berechneten Passpunktkoordinaten oder (besser) weiterer Kontrollpunkte (engl. test points, nicht zu verwechseln mit den sog. ground control points) graphisch dar. - Im dritten Arbeitsschritt erfolgt das Resampling, das die Neuberechnung des Ausgangsbildes in ein entzerrtes Ergebnisbild bedeutet, also die Neuberechnung der Grauwerte in der für das Ergebnisbild gewählten Matrix.
a)
Eingabebild
b)
Ausgabebild
x x x x
Eingabebild
Ausgabebild
c) Indirekte Resamplingmethoden: a) Methode des nächsten Nachbarn, b) bilineare Interpolation c) kubische Interpolation (Faltung) Eingabebild
Ausgabebild
Abb. 10.19: Varianten des Resampling (nach Hildebrandt 1996 S. 481)
Beim Resampling werden zumeist drei Verfahren unterschieden: - Bei der Methode des Nächsten Nachbarn wird dem gesuchten Grauwert im Ergebnisbild der Grauwert des nächstgelegenen Pixels im Ausgangsbild zugewiesen. Hierbei können im Ergebnisbild Lagefehler bis zur Hälfte der Pixelgröße entstehen. Schräg verlaufende Grauwertkanten können im Ergebnisbild stufig erscheinen. Dieser Effekt kann durch eine hinreichend klein gewählte Pixelgröße im Ergebnisbild verringert werden. Der Vorteil dieses Verfahrens ist, dass bei diesem Verfahren die Originalwerte des Ausgangsbildes erhalten bleiben. Dies ist eine wichtige Voraussetzung, wenn später eine Klassifikation der Pixelwerte erfolgen soll, um Objekte oder Eigenschaften wie z.B. Landbedeckungstypen zu erkennen. Hierzu sind Originaldaten heranzuziehen. - Bei der sog. bilinearen Interpolation wird der gesuchte Grauwert im Ergebnisbild als gewichtetes Mittel der vier direkt benachbarten Pixel des Ausgangsbildes berechnet. Hierbei wird angenommen, dass die vier Grauwerte (dargestellt als z-Werte in einem dreidimensionalen Koordinatensystem mit den Pixelkoordinaten) durch eine Ebene angenähert werden können, auf der auch der gesuch-
404
Fernerkundung und digitale Bildverarbeitung
te Grauwert liegt. Das Ergebnisbild besitzt dann keine Grauwerte des Ausgangsbildes. Hierdurch werden also die Eingangsgrauwerte verändert, d.h. hier geglättet (Tiefpass-Filterungseffekte vgl. Kap. 10.6.4.1). Insgesamt wird eine gute Bildqualität erzeugt, so dass dieses Verfahren zur Visualisierung bzw. zur bildhaften Veranschaulichung eingesetzt wird. Allerdings ist die Rechenzeit drei- bis viermal so groß wie bei der Methode des Nächsten Nachbarn. - Entsprechend zur bilinearen Interpolation wird bei der sog. kubischen Interpolation oder Faltung (engl. cubic convolution) der gesuchte Grauwert als gewichtetes Mittel der Grauwerte der umliegenden sechzehn Pixel berechnet. Hierbei wird angenommen, dass die z-Werte durch eine gekrümmte Oberfläche angenähert werden können (mathematisch beschrieben durch Polynome dritten Grades). Durch eine entsprechende Wahl der Parameter kann hierbei der Tiefpass-Filtereffekt verringert werden (vgl. Kap. 10.6.4.1). Auch hierbei werden die Eingangsgrauwerte verändert. Dies ist das bevorzugte Verfahren bei der Herstellung von Satellitenbildkarten, da es die visuell besten Ergebnisse liefert. Allerdings erfordert es auch den höchsten Rechenaufwand. 10.6.2 Kontrastverbesserung Bei einer Farbtiefe von 8-Bit stehen zwar insgesamt 256 verschiedene Werte zur Kodierung der Strahlungsintensität pro Kanal zur Verfügung. Häufig wird dieser Wertebereich aber nur teilweise genutzt, da die Instrumente so eingerichtet wurden, dass auch extrem stark bzw. wenig reflektierende Oberflächen noch wiedergegeben werden können. Die Fernerkundungsaufnahmen wirken dann oftmals recht kontrastarm. Zur Beseitigung dieser bei einer visuellen Auswertung der Bilddaten störenden Unzulänglichkeit existieren mehrere Verfahren (zu weitergehenden Ausführungen vgl. z.B. Richards 1993, Mather 1999, Schowengerdt 1997, Jensen 1995). 10.6.2.1 Lineare Kontraststreckung Ein Histogramm der Grauwerthäufigkeiten zeigt in der Regel in einem ersten Verarbeitungsschritt die Besetzung nur weniger Grauwertstufen. Diese Verteilung kann nun über den gesamten Wertebereich gestreckt werden, so dass eine Kontrastverbesserung entsteht: Grauwertneu =
[ (Grauwertmax - Grauwertalt) / (Grauwertmax - Grauwertmin) ] * 256
Durch die lineare Kontraststreckung werden die Werte der einzelnen Pixel in der Bildmatrix so reklassifiziert, dass den ehemaligen Minimal- bzw. Maximalgrauwerten die Werte 0 bzw. 255 (bei einer Farbtiefe von 8 Bit) zugewiesen werden, während die dazwischenliegenden Grauwerte linear über die gesamte 256erSkala gestreckt werden. Diese Reklassifizierung geschieht zumeist mit Hilfe einer sog. Look-Up-Table, in der den ursprünglichen Grauwerten die neuen, kontrastverstärkten Werte zugewiesen werden. Bei diesem Verfahrensschritt bleiben die
Digitale Bildbearbeitung
405
Ursprungsdaten unverändert, und für die Ansicht werden die veränderten Daten aus separaten Look-Up-Tables geladen. Neben der Kontraststreckung zwischen den ehemaligen Minimal- und Maximalgrauwerten kann auch (interaktiv) eine gezielte Streckung der besonders interessierenden Bereiche vorgenommen werden, um diese deutlich differenzieren und analysieren zu können. Hierzu müssen zunächst minimale und maximale Grauwerte der interessierenden Oberflächen herausgefunden werden. Anschließend können die dazwischenliegenden Grauwerte über den gesamten verfügbaren Grauwertbereich (z.B. 256 Stufen) gestreckt werden, wobei die für die Untersuchung unwichtigen Werte ausgeblendet werden. Das Verfahren der linearen Kontraststreckung eignet sich besonders zur Herausstellung von Extremwerten oder zur genaueren Untersuchung von Teilbereichen. Die Abbildung 10.20 zeigt, wie sich der Kontrast und dadurch die Erkennbarkeit von Objekten im Bild verbessern. Besonders gering reflektierende Flächen wie die Wasserfläche im nordwestlichen Bildbereich erhalten die geringsten Grauwerte, während stark reflektierende Flächen wie Wiesen und Weiden die höchsten Grauwerte zugewiesen bekommen, so dass sie sehr hell wiedergegeben werden. Dazwischen wird linear skaliert, so dass die relativen Grauwertunterschiede erhalten bleiben. Im zugehörigen Histogramm, das die Häufigkeitsverteilung der Grauwerte wiedergibt, wird deutlich, dass der gesamte Dynamikbereich genutzt wird und gleichzeitig die grundlegende Verlaufsform des Histogramms erhalten bleibt.
Abb. 10.20:Kontraststreckung und Histogrammangleichung: Ausschnitt aus einer Landsat-TMSzene von Osnabrück, Kanal 4 (NIR), mit zugehörigen Grauwerthistogrammen
406
Fernerkundung und digitale Bildverarbeitung
10.6.2.2 Histogrammangleichung Mit Hilfe einer Histogrammangleichung werden die Grauwerte in Abhängigkeit von ihrer Häufigkeit gestreckt. Jeder Histogrammeinheit (zumeist 0 - 255) soll eine annähernd gleiche Anzahl an Grauwerten zugewiesen werden, um ein ausgeglichenes Histogramm zu erhalten. Vormals gering besetzte Grauwertkategorien werden zusammengefasst, während zahlreich besetzte stärker voneinander getrennt werden. Das Verfahren eignet sich dadurch besonders zur Herausstellung häufiger Werte, die nun besser differenziert werden können. Die Abbildung 10.20 zeigt das Ergebnis des Histogrammangleichung mit zugehörigem Histogramm. Im Bild wird der Effekt dieser Methode deutlich: Zwischen den Flächen, die im Original extreme Grauwerte aufweisen (vgl. Flanken des Histogrammes), ist jetzt kaum noch eine Unterscheidung verschiedener Grauwerte möglich. Hierzu gehören z.B. die versiegelten Bereiche mit geringer Reflexion im Osten und die Vegetationsflächen mit hoher Reflexion im Westen des Bildes. Dagegen können die Flächen im mittleren Bereich des Bildes nun weit besser differenziert werden. Im zugehörigen Histogramm ist zu erkennen, dass die Grauwerte an den Flanken zusammengefasst bzw. zusammengepresst werden, während zur Mitte des Diagramms eine fortschreitende Auflockerung der Werte erscheint. 10.6.3 Bildtransformationen 10.6.3.1 Indexbildung Zu den Verfahren der Bildtransformation, bei denen aus einem mehrkanaligen Bilddatensatz zu einem oder zu verschiedenen Aufnahmezeitpunkten (mono- oder multitemporal) neue Bilddaten entstehen können, zählt die Berechnung von Indizes. Durch geschickte Kombination und Indexbildung können spezielle Informationen deutlicher hervorgehoben werden. Differentielle Grauwertunterschiede der Eingangsbilder werden verstärkt, wodurch sich die Interpretationsmöglichkeiten erheblich erhöhen können. Bei diesen Operationen werden die Datenwerte zweier oder mehrerer Ausgangskanäle pixelweise arithmetisch miteinander verknüpft (zu lokalen Operatoren der Analyse von Rasterdaten vgl. Kap. 9.4.3). Schließlich wird ein neues, „künstliches“ Bild erstellt. Große Bedeutung haben in der Praxis die Vegetationsindizes, die Vegetationsflächen stärker hervortreten lassen. Der Vegetationsindex VI nutzt die Eigenschaft aus, dass gesunde Vegetation im sichtbaren Rot nur schwach, aber im Infrarot stark reflektiert (vgl. Abb. 10.6). Somit kann vitale Vegetation relativ leicht von anderen Bodenbedeckungen unterschieden werden: VI
IR R
NDVI
NIR R NIR R
NIR = (naher) Infrarot-Kanal (z.B. Kanal 4 beim Thematic Mapper), R = Rot-Kanal, z.B. Kanal 3 beim Thematic Mapper
Digitale Bildbearbeitung
407
Auch der weiterentwickelte Vegetationsindex NDVI (Normalized Difference Vegetation Index) basiert auf dem Unterschied zwischen den spektralen Signaturen von unbewachsenen und mit grüner Vegetation bestandenen Flächen in den Kanälen des sichtbaren Lichts (am besten im sichtbaren Rot) und des nahen Infrarots. Der NDVI nimmt Werte zwischen -1 und +1 an, wobei positive Werte auf die Existenz von grüner Biomasse hinweisen, aber der Übergang zwischen belebt und unbelebt nicht durch 0 gekennzeichnet sein muss und jeweils neu zu bestimmen ist. Je höher der Zahlenwert des NDVI ist, desto vitaler (d.h. wüchsiger) ist die Vegetation. Der NDVI ist stark mit dem Leaf Area Index (LAI) korreliert, mit dem die Biomasse pro Pixel abgeschätzt werden kann (vgl. Löffler 1994 S. 71). Auch der Flächenanteil an Vegetation bzw. der Versiegelungsgrad pro Pixel sind hoch mit dem NDVI korreliert, so dass sich mit Hilfe des NDVI diese Anteilswerte abschätzen lassen (vgl. Achen 1993 S. 77ff.). Cihlar u.a. (1991) weisen für Gebiete in Kanada einen starken Zusammenhang zwischen dem NDVI und der Evapotranspiration nach, der jedoch nicht unabhängig von anderen Wuchsparametern wie Verfügbarkeit von Energie und Wasser oder Bodenart betrachtet werden darf. Bannari u.a. (1995) und Baret (1995) weisen darauf hin, dass die StandardVegetationsindizes, die auf Basis linearer Funktionen errechnet werden, bei geringer Vegetationsbedeckung vorsichtig ausgewertet werden sollten. Der NDVI neigt z.B. zu Beginn und Ende der Vegetationsperiode dazu, den Anteil der vegetationsbedeckten Oberfläche falsch einzuschätzen (Überschätzung zu Beginn, Unterschätzung am Ende der Vegetationsperiode, vgl. Bannari u.a. 1995 S. 101). Dies führte zur Entwicklung einer zweiten Generation von Vegetationsindizes, die die Wechselwirkungen zwischen der elektromagnetischen Strahlung, der Atmosphäre, der Vegetationsdecke und dem Boden zu berücksichtigen versuchen. So entwickelten Kauth u. Thomas (1976) auf Basis der vier Kanäle des Landsat MSSSensors die sog. „Tasseled Cap“ Transformation, deren Ergebnis vier Indizes waren: Soil Brightness Index (SBI), Green Vegetation Index (GVI), Yellow Vegetation Index (YVI) und Non Such Index (NSI). Eine Weiterentwicklung dieser Indizes auf Basis der Landsat Thematic Mapper Kanäle erfolgte durch Crist u. Cicone (1984). Diese Indizes haben jedoch einen großen Nachteil: Da sie empirisch ermittelt wurden, lassen sie sich nicht ohne weiteres, d.h. ohne neue Kalibrierung, auf andere Sensorsysteme oder andere Regionen übertragen. Für Vegetationsindizes gibt es vielfältige Anwendungen. So können sie aufgrund ihrer relativ sicheren Aussagefähigkeit über das Vorhandensein von Vegetation für eine Beobachtung von Vegetationsveränderungen benutzt werden. Auf globaler Ebene geschieht dies seit vielen Jahren durch standardmäßige NDVIBerechnung aus AVHRR-Daten, die für eine Einschätzung der globalen Verteilung von Biomasse und ihrer Entwicklung genutzt werden. Mit ihrer Hilfe gelang es z.B., den Trend der globalen Erwärmung mit einer Verschiebung der Vegetationsperiode in den nördlichen Breiten zu untermauern (vgl. Nikolay u.a. 2001). Vegetationsindizes erlauben z.B. auch die Einschätzung des Zustands von Kulturpflanzen (vgl. z.B. Jürgens 1997 und Thenkabail u.a. 1994).
408
Fernerkundung und digitale Bildverarbeitung
10.6.3.2 Hauptkomponententransformation Benachbarte Spektralkanäle sind zumeist hoch miteinander korreliert. Die Hauptkomponententransformation bietet generell eine Möglichkeit, derartige Redundanzen zu beseitigen (zum Ansatz der Hauptkomponentenanalyse vgl. z.B. Bahrenberg u.a. 1992 S. 198ff. u. Bortz 1994 S. 495ff., zur Anwendung in der digitalen Bildverarbeitung vgl. z.B. Lillesand u. Kiefer 1994 S. 572ff., Mather 1999 S. 126ff. u. Schowengerdt 1997 S. 187ff.). Bei Reduktion der Zahl der Eingangsvariablen wird der größte Teil der Eingangsinformationen, ausgedrückt durch die Summe der Varianz der Eingangsvariablen, durch wenige Hauptkomponenten dargestellt. So lässt sich zumeist der Informationsgehalt eines 6-kanaligen Landsatz-TM-Datensatzes auf 3 Hauptkomponenten reduzieren. Dann können durch Anzeige der 3 Hauptkomponenten als Farbkomposit wesentlich mehr Informationen dargestellt werden, als es mit jeder der möglichen Komposite des Originaldatensatzes möglich wäre (jeweils auf der Basis von drei Farben). Dieses Verfahren kann auch als Vorbereitung für die Klassifikation genutzt werden, wobei nur die Hauptkomponenten mit der höchsten Varianz (bzw. mit den höchsten Eigenwerten) in die Klassifikation eingehen. Aber auch in der Erfassung von Veränderungen kann das Verfahren eingesetzt werden. Hierbei wird die Hauptkomponententransformation auf einen multitemporalen Datensatz angewendet (vgl. z.B. Byrne u.a. 1980). Die verschiedenen Spektralkanäle werden dabei durch Bilder verschiedener Zeitpunkte ersetzt. 10.6.4 Räumliche Filteroperationen Räumliche Filteroperationen dienen der Bildaufbereitung, um bestimmte räumlich-strukturelle Eigenschaften des Bildinhaltes hervorzuheben oder zu unterdrücken (vgl. Abmayr 1994, Göpfert 1991, Kraus 1990 S. 507ff., Schlicht 1995 S. 252ff. u. Jähne 1993, S. 92ff.). Bei diesen Filtertechniken handelt es sich um lokale Operationen, die die Eigenschaften der Umgebung eines Pixels bzw. die sog. Ortsfrequenz für dessen Manipulation nutzen. Dabei bezeichnet die Ortsfrequenz die Variation der Grauwerte in einer Pixelumgebung. Niedrige Ortsfrequenzen liegen bei geringen kleinräumigen Grauwertänderungen vor (relativ homogene Flächen), während hohe Ortsfrequenzen bei starken lokalen Grauwertvariationen als Ausdruck ausgeprägter Oberflächenunterschiede (Inhomogenitäten) auftreten. Für die Filteroperationen existieren zahlreiche unterschiedliche Algorithmen, die sich für verschiedene Verarbeitungsziele eignen. Grundsätzlich können zwei Filtertypen unterschieden werden: Tiefpassfilter und Hochpassfilter. 10.6.4.1 Tiefpassfilter Der Tiefpassfilter hat die Aufgabe, die niedrigen Ortsfrequenzen herauszuarbeiten und lokale Extrema zu unterdrücken. Ausprägungen dieses Filtertyps sind z.B. Mittelwertfilter, Medianfilter und Modalwertfilter. Allen diesen Bildfiltern ist
Digitale Bildbearbeitung
409
gemeinsam, dass sie eine Glättung des Bildes zur Folge haben, was z.B. erforderlich werden kann, wenn Störeinflüsse des Sensors oder Datenübertragungsfehler zu lokalen Fehlern in den Bilddaten geführt haben oder wenn das Ergebnis einer Multispektralklassifikation generalisiert werden muss (Vermindern des sog. „Salz und Pfeffer Effektes", vgl. Kap. 10.7.4). Tiefpassfilter betonen Trends in einem Bild. Die dominierenden Bildstrukturen und typischen Charakteristika werden hervorgehoben, während hochfrequente Ausprägungen der Pixelumgebung (große lokale Grauwertunterschiede) oder Ausreißer unterdrückt oder geglättet werden. In der Abbildung 10.21 wird ein Ausgangsbild in ein Ergebnisbild transformiert, wobei jeweils das mittlere Pixel innerhalb einer Umgebung von 3 x 3 Pixeln durch einen neuen Wert ersetzt wird, der sich aus den Werten dieser Umgebungspixel errechnet. Anschaulich wird hierbei eine Koeffizienten- oder Filtermatrix mit den Gewichten für die Umgebungspixel über das Bild bewegt (gleitende Filtermatrix). Im Ergebnisbild bleiben die Randpixel unbesetzt, da im Ausgangsbild für ein Randpixel keine 3 x 3 Umgebung hergestellt werden kann. Vergrößert man die Filtermatrix, d.h. bezieht man eine größere Pixelnachbarschaft (z.B. 5 x 5 oder 7 x 7 Pixel) in die Filteroperation mit ein, tritt ein noch größerer glättender Effekt ein. Beim Mittelwertfilter (engl. mean filter) wird der Wert des zentralen Pixels durch den (einfachen arithmetischen) Mittelwert der umgebenden Pixelwerte ersetzt (vgl. Abb. 10.21). Durch den Glättungseffekt wird ein „weicheres“ und „unschärferes“ Ergebnisbild erzielt. Die hohen Werte, d.h. hohe Einstrahlungswerte am Aufnahmesystem, werden (durch umgebende niedrige Werte) gedrückt. Beim Medianfilter wird anstelle des arithmetischen Mittelwerts der Median der Pixelwerte genommen. Beim Modalfilter wird der Wert des zentralen Pixels durch den häufigsten Wert der umgebenden Pixelwerte ersetzt. Dieses Filter wird z.B. eingesetzt, um fehlende Pixelwerte „aufzufüllen“ (vgl. entsprechend den sog. Majority-Filter, der einen häufigen (nicht zwingend den häufigsten) Wert benutzt). Ein Tiefpassfilter kann auch zum sog. Kontrastausgleich eingesetzt werden. Hierzu wird eine Szene mit unerwünschten großflächigen Grauwertunterschieden zunächst einer sehr starken Tiefpassfilterung unterzogen, so dass ein extrem unscharfes Bild entsteht. Dann wird die Grauwertdifferenz zwischen dem Original und der „unscharfen“ Maske gebildet. Diese wird verstärkt, so dass bei geeigneter Wahl der einzelnen Parameter ein in der Gesamthelligkeit ausgeglichenes Bild mit guter Detailwiedergabe gewonnen werden kann (vgl. Albertz 2001 S. 109ff.).
1 4 4 9
2 4 7
4 5 8
4 5
7
8 8 10
7 7 9
10 12 12 12 11
11 15 15 15 12 11
Mittelwertfilter f1 f2 f3 f4 f5 f6 f7 f8 f9
1
1
1 1
1
1
=
1 1
1
Gewichte
8,8 = 1/9 * (f 1*5 + f2*5 + f3 *8 + ...
Abb. 10.21: Prinzip des Tiefpassfilters am Beispiel des Mittelwertfilters
4,3 5,1 6,6 7,3 7,0 7,8 8,8 9 10,1 11,2 11,4 11
410
Fernerkundung und digitale Bildverarbeitung
10.6.4.2 Hochpassfilter Hochpassfilter, die Bilddetails durch die Betonung der hohen Frequenzen hervorheben, kommen zur Anwendung, falls lokale Besonderheiten und Extrema aufgespürt werden sollen. Das Hochpassfilter hat den Effekt, dass niedrige Frequenzanteile unterdrückt werden. Umgekehrt können hohe Werte den Filter passieren. Hierdurch werden Konturen und Kanten besonders hervorgehoben (engl. edge detection). Das Filter dient u.a. zur Abgrenzung von Gebieten mit abrupter Änderung gegenüber solchen mit wenigen Änderungen. Auch beim Hochpassfilter wird der Wert des zentralen Pixels durch einen gewichteten Wert der umgebenden Pixel ersetzt, wobei diese Filtergewichte je nach Einsatzziel des Filters stark variieren können (vgl. Abb. 10.22). So existieren Kantenfilter, die die Bereiche starker Grauwertänderungen als Kanten hervorheben. Diese können zusätzlich richtungsabhängig gestaltet werden, so dass Grauwertänderungen in bestimmten Richtungen betont werden, was besonders in der Geologie zur Entdeckung geologischer Strukturen nützlich ist. Neben den Filtergewichten beeinflusst hier ebenfalls die Größe der Filtermatrix das Ergebnis.
Low Pass Filter (7x7 Filtermatrix)
High Pass Filter (5x5 Filtermatrix)
1 1 1 1 1 1 1
-1 -1 -1 -1 -1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
Abb. 10.22: Anwendung von Filtern
-1 -1 -1 -1 -1
-1 -1 24 -1 -1
-1 -1 -1 -1 -1
-1 -1 -1 -1 -1
Digitale Bildbearbeitung
411
10.6.5 Kombination mehrerer Bilder 10.6.5.1 Geometrische Mosaikierung Häufig stellt sich die Aufgabe, zur Abdeckung eines Untersuchungsgebietes mehrere Einzelbilder zu einem Gesamtbild zusammenzuführen. Für diesen Prozess der Mosaikbildung oder Mosaikierung bestehen zwei grundsätzliche Ansätze: - Die Einzelbilder werden einzeln entzerrt und anschließend zu einem Mosaik zusammengeführt, wozu insgesamt sehr viele Passpunkte benötigt werden. - Beim zweiten Verfahren werden die Einzelbilder gemeinsam entzerrt. Zur Bestimmung der Transformationsgleichungen werden hierbei vergleichsweise nur wenige Passpunkte benötigt, die unregelmäßig über sämtliche Bilder verteilt sind. Dieser Ansatz erfordert ferner Verknüpfungspunkte im Überlappungsbereich benachbarter Einzelszenen, über die die Szenen vereinigt werden. Für diese Verknüpfungspunkte, die nur in den beteiligten Szenen eindeutig zu identifizieren sind, müssen keine Koordinaten vorliegen. Von Vorteil ist, dass nur für das gesamte Bild eine ausreichende Zahl an Passpunkten vorhanden sein muss, während für ein Einzelbild möglicherweise nicht hinreichend viele Passpunkte bestimmt werden können (vgl. Abb. 10.23).
Kartenblatt Verknüpfungspunkt Passpunkt
Abb. 10.23: Prinzip der geometrischen Mosaikbildung
10.6.5.2 Radiometrische Mosaikierung Nach der geometrischen Mosaikbildung kann es notwendig sein, Helligkeits-, Kontrast- oder Farbunterschiede der Bilder anzupassen, da sie in jedem Bild je nach Aufnahmebedingungen und verwendetem Sensor unterschiedlich ausfallen. Ein häufiges Verfahren, das zum Standardumfang von Softwaresystemen gehört, ist die (iterative) Anpassung der Grauwert-Histogramme der Überlappungsbereiche benachbarter Einzelszenen. Hieraus können Korrekturwerte bestimmt werden, so dass sich auch die übrigen Grauwerte angleichen lassen (sog. Histogrammmatching, vgl. Abb. 10.24).
412
Fernerkundung und digitale Bildverarbeitung
Abb. 10.24: Mosaikbildung und Histogrammmatching
10.6.5.3 Bildfusion Gegenüber der Mosaikierung geht die Bildfusion noch einen Schritt weiter. Sie zielt durch eine Verschmelzung von Bilddaten aus verschiedenen Quellen auf eine Steigerung des Informationsgehaltes ab. Eine derartige Bildfusion kann aus verschiedenen Datensatzkombinationen erzeugt werden, wobei der häufigste Anwendungsfall die Kombination multisensoraler Datensätze, also von Bilddaten verschiedener Aufnahmeinstrumente, ist. Ferner sind die Verbindung multitemporaler Daten zu einem Datensatz oder die Integration von Zusatzdaten aus Topographischen Karten in einen Bilddatensatz zur gemeinsamen Auswertung bedeutend. Generell kann eine Bilddatenfusion verschiedene Zwecke haben (vgl. Pohl u. van Genderen 1998 S. 827): -
Bildschärfung, Verbesserung der geometrischen Korrektur, Schaffung von Stereoauswertungsfähigkeiten für photogrammetrische Zwecke, Hervorhebung bestimmter Merkmale, die auf keinem der beteiligten Einzelbilder sichtbar waren, Verbesserung der Klassifikation, Herausstellen der Objektmerkmale Aufdeckung von Veränderungen in multitemporalen Datensätzen, Ersatz fehlender Information eines Bildes durch Signale eines anderen Bildes, Ersetzen schadhafter Daten.
Diese Datenfusion wird jeweils auf Pixelbasis durchgeführt. Somit ist eine möglichst exakte Georeferenzierung der beteiligten Datensätze in einem einzigen
Digitale Bildbearbeitung
413
Koordinatensystem zwingend notwendig. Allerdings können die zugehörigen Techniken nicht in jedem Fall eingesetzt werden. So kann es problematisch werden, wenn die erfassten Spektralbereiche der beteiligten Bilddaten zu stark voneinander abweichen. Dann können störende Artefakte ins Bild kommen. Allgemein lassen sich die Methoden der Bildfusion in zwei große Gruppen einteilen (vgl. Pohl u. van Genderen 1999): - farbraumbasierte Techniken, - statistische und numerische Techniken. Beispielhaft sollen hier zwei Methoden erläutert werden, die häufig zur Bildschärfung eingesetzt werden. Dabei zielt eine Bildschärfung auf die Fusion der hohen geometrischen Auflösung eines panchromatischen Datensatzes mit der hohen spektralen Auflösung eines multispektralen Datensatzes ab (vgl. weitergehend Pohl u. van Genderen 1998 sowie Vrabel 1996 oder zur Fusion von optischen Daten und Radardaten Pohl u. van Genderen 1999). Multispektrale Daten geringerer Auflösung
Panchromatische Daten hoher Auflösung Neue Intensität Intensität
Rot
Grün
Blau
IHSTransf.
Farbton
Sättigung
Kombinierte Daten
Rot Inverse Transf.
Grün
Blau
Abb. 10.25: Prinzip der IHS-Transformation
Zur Farbraumtransformation wird die sog. IHS- bzw. HSI-Transformation eingesetzt, die räumliche (Intensität) und spektrale Informationen (Farbton, Sättigung) trennt (vgl. Abb. 10.25). In einem ersten Schritt wird die RGB-Darstellung eines Farbkomposites (z.B. aus den Kanälen 3, 2 und 1 des Landsat TM) in den IHS-Farbraum überführt. Hier wird die Intensitätskomponente, die die räumlichen Eigenschaften des Multispektraldatensatzes wiedergibt, durch ein geometrisch höher auflösendes Bild eines panchromatischen Sensors (z.B. IRS-1C PAN) ersetzt. Dieses Bild wird meist vorher weitergehenden Bildverbesserungsmaßnahmen (z.B. Kontraststreckung) unterzogen. Nach einer inversen IHS-Transformation liegt der Datensatz wieder im RGB-Farbraum vor und kann als normales Farbkomposit mit verbesserter Detailerkennbarkeit betrachtet werden (zur Umrechnung der RGB-Darstellung in die IHS-Darstellung vgl. Kap. 2.7.2, vgl. Haberäcker 1991 S. 16, Mather 1999 S. 138ff., Pohl und van Genderen 1994 S. 177ff.). Zu der Gruppe der numerischen Methoden gehört die Fusion mittels Hochpassfiltern (vgl. Kap. 10.6.4.2). Hierbei wird zunächst der geometrisch hochaufgelöste panchromatische Datensatz einer Hochpassfilterung mit kleiner Filtermatrix unterzogen (3 x 3 - Matrix), die die Bilddetails hervorhebt. Anschließend wird das
414
Fernerkundung und digitale Bildverarbeitung
Ergebnis dieser Filterung jedem einzelnen Multispektralkanal hinzuaddiert, womit sich dieses Verfahren auch für Multispektralbilder mit mehr als drei Kanälen eignet. Insgesamt werden Details im multispektralen Datensatz besser erkennbar, wodurch letztlich die Interpretierbarkeit erhöht wird.
10.7 Multispektralklassifikation 10.7.1 Prinzip der Multispektralklassifikation Das allgemeine Ziel der Fernerkundung ist, aus Fernerkundungsdaten Informationen zur Lösung von Fragestellungen aus z.B. den Bereichen Ökologie, Stadt- oder Umweltplanung abzuleiten. Dies geschieht primär mit Hilfe der Bildauswertung oder Bildanalyse, zu der die klassischen, analogen Verfahren der Photogrammetrie und der Photointerpretation gehören. Die visuelle Bildinterpretation identifiziert räumliche Objekte aufgrund von Farbe, Helligkeit, Textur, Muster, Form, Größe, Lage oder Schatten. Hierbei gehen vor allem Erfahrungswerte des Interpreten ein. Die digitale Bildauswertung bietet im Anschluss an die digitale Bildaufbereitung und Bildverbesserung ebenfalls die klassischen Interpretationsmöglichkeiten. Dazu werden die Farbkomposite ausgedruckt oder am Monitor interpretiert. Darüber hinaus bestehen Verfahren, die die digitalen Bilder mit Hilfe numerischer oder statistischer Verfahren auswerten. Dabei ist vor allem die rechnergestützte Klassifikation von Bedeutung, d.h. das Erkennen von Objekten oder Eigenschaften wie z.B. Landbedeckungstypen durch Auswertung mehrerer Kanäle.
Kanal: 1 2 3 4 50
5
7
50 %
Vegetation
Reflexionsgrade
40
Kanal 4 30
Kräftige Vegetation
20 10
Boden
Boden
Wasser 0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Wellenlänge Pm
Wasser 10 %
25 %
50 % Kanal 7
Kanal 2
Abb. 10.26: Signaturkurven dreier Oberflächen und Darstellung von Pixeln zu drei Landbedeckungstypen im dreidimensionalen Raum der Reflexionsgrade dreier Landsat-TM-Kanäle
Die Abbildung 10.26 verdeutlicht die Klassifikationsstrategie, die auf unterschiedlichem Reflexionsverhalten der Objekte und Erfassung der Reflexionswerte in mehreren Kanälen beruht. Im Idealfall liegen die Objekte (d.h. hier Pixel) in verschiedenen, deutlich getrennten Bereichen des mehrdimensionalen Merkmal-
Multispektralklassifikation
415
raumes, der durch die Reflexionswerte der beteiligten Aufnahmekanäle definiert wird. Mit Hilfe von Klassifikationsverfahren sind diese Punktwolken oder Cluster, d.h. Pixel mit ähnlichen Eigenschaften, zu identifizieren und z.B. Landbedeckungstypen zuzuordnen. Dabei werden Verfahren der unüberwachten und der überwachten Klassifikation unterschieden. 10.7.2 Unüberwachte Klassifikation Die unüberwachte Klassifikation setzt sich wie die Clusteranalyse zum Ziel, durch Darstellung der Bildpunkte im mehrdimensionalen Merkmalsraum der Kanäle Häufungen zu erkennen (vgl. Kap. 3.5.3). Die Cluster werden aufgrund der Ähnlichkeit der Pixel gebildet, wobei Ähnlichkeit durch Nachbarschaft im Merkmalsraum operationalisiert wird. Hierbei werden vorab keine Informationen über die zu ermittelnden Cluster benötigt. Der Bearbeiter bestimmt lediglich die Clusterzahl. Die errechneten Cluster werden erst nach Abschluss der Rechnungen interpretiert. Die Klassifikation erfolgt automatisch, d.h. unüberwacht.
Messwerte Kanal 2
A
Auftrennen von Cluster B B
s2 s1
Messwerte Kanal 1
Abb. 10.27: Split und Merge beim Isodata-Verfahren
In der Fernerkundung wird häufig das sog. Isodata-Verfahren (auch: iterative optimization clustering oder migrating means clustering) eingesetzt, das auf dem Kmeans-Algorithmus basiert (vgl. Kap. 3.5.3). Allerdings ist der Kmeans-Algorithmus nicht in der Lage, ein Cluster aufzulösen oder zwei Cluster zu vereinigen. Genau an dieser Stelle geht das Isodata-Verfahren weiter. Berechnet werden für jedes Cluster die Standardabweichungen der Klassifikationsvariablen (hier Kanäle) und die Euklidischen Abstände zwischen den Clusterzentroiden. Falls ein Cluster eine oder mehrere große Standardabweichungen aufweist, wird es hinsichtlich dieser Variablen geteilt (vgl. Abb. 10.27). Falls zwei Clusterzentroide nur einen geringen Abstand aufweisen, werden die beiden Cluster zusammengelegt. Jeweils werden benutzerspezifische Schwellwerte für die Standardabweichungen und Zentroiddistanzen vorgegeben, die diesen sog. Split- und Merge-Prozess steuern. Dieses Verfahren setzt (wie Verfahren der überwachten Klassifikation auch) eine Anfangszerlegung, d.h. eine Festlegung auf eine vorher zu bestimmende Zahl
416
Fernerkundung und digitale Bildverarbeitung
von Clustern, und eine erste, vorläufige Zuordnung der Bildpunkte zu dieser ersten Zerlegung voraus. Hier ist aufgrund von Erfahrungswerten in ähnlichen Untersuchungsräumen zu entscheiden, wie viele Landbedeckungstypen zu bestimmen sind. Die Anfangszerlegung erfolgt hierbei zufällig bzw. verfahrensbedingt und wird nicht durch weitere Informationen gesteuert. 10.7.3 Überwachte Klassifikation Bei der überwachten Klassifikation müssen vorab die Landbedeckungsklassen anhand von Signaturkurven bestimmt sein. Diese Definition bzw. Festlegung erfolgt „überwacht“, d.h. auf der Basis bekannter Oberflächentypen einzelner kleiner Testflächen, sog. Trainingsgebiete, innerhalb des gesamten digitalen Bildes. Die Klassifikation geht generell davon aus, dass verschiedene Landbedeckungsarten ein jeweils eigenes, charakteristisches Reflexionsverhalten in den diversen Kanälen besitzen. Anhand von Signaturkurven ist es dann möglich, eine bestimmte Landbedeckung zu identifizieren. Allerdings können sich für eine Oberfläche je nach Jahreszeit oder Atmosphärenzustand die Signaturkurven durchaus ändern, so dass man nicht von allgemeingültigen, genormten Signaturkurven ausgehen kann. Bei der überwachten Klassifikation werden diese Signaturkurven stets erneut bestimmt, d.h. für ein Untersuchungsgebiet kalibriert. In einem ersten Schritt werden daher Musterklassen oder Reflexionsklassen für bestimmte Oberflächentypen analysiert (a priori Bestimmung mehrdimensionaler Cluster). Somit wird versucht, in der zu klassifizierenden Szene Trainingsgebiete zu identifizieren, die hinsichtlich der Landbedeckung möglichst homogen sind und für die möglichst zeitgleich eine Bestimmung der konkreten Landbedeckung am Boden z.B. durch eine Kartierung vorliegt. Die Signaturkurven dieser Trainingsgebiete werden als charakteristisch für den betreffenden Oberflächentyp angesehen. Sie definieren dann die gesuchten Musterklassen oder Reflexionsklassen.
Messwerte Kanal 1 Quaderklassifikation
Messwerte Kanal 1
Messwerte Kanal 1
Minimum-DistanzKlassifikation
Maximum-LikelihoodKlassifikation
Abb. 10.28: Clusterbildung und Zuordnungsprinzipien (nach Albertz 2001 S. 165)
Multispektralklassifikation
417
Im Anschluss an die Bestimmung von Trainingsgebieten bzw. von Landbedeckungen mit den zugehörigen Spektraleigenschaften erfolgt im zweiten Schritt eine Zuordnung der Pixel der Gesamtszene zu den ermittelten Musterklassen oder Reflexionsklassen. Für diese Zuweisung bestehen mehrere Methoden, die auch bei der Clusteranalyse gebräuchlich sind: - Quader-Klassifikation (Parallelepiped Classification oder Box Klassifikation), - Minimum-Distanz-Klassifikation (Verfahren der nächsten Nachbarschaft), - Maximum-Likelihood-Klassifikation (Verfahren der größten Wahrscheinlichkeit). Das einfachste Zuordnungsverfahren mit sehr geringem Rechenaufwand stellt die Quader-Klassifikation dar. Jedes Trainingsgebiet definiert für n Kanäle einen n-dimensionalen Quader, der sich für jeden Kanal aus den Minimal- und Maximalwerten der jeweiligen Grauwerte definiert. So werden z.B. durch ein Trainingsgebiet, das eine Asphaltfläche darstellt, die Grauwertgrenzen der beteiligten Kanäle bestimmt, so dass der Landbedeckungstyp „Asphaltfläche“ durch einen Quader“ im n-dimensionalen Datenquader definiert wird. Bei einer Klassifikation von nur zwei Kanälen wie in Abbildung 10.28 entstehen dadurch im zweidimensionalen Merkmalsraum rechteckige Bereiche (Musterklassen). Dabei kann allerdings das Problem entstehen, dass sich mehrere Musterklassen überschneiden. Die Pixel des gesamten Bildes, deren Grauwertkombinationen in diesen Quader (Musterklasse) fallen, werden als „Asphaltfläche“ klassifiziert. Bei der Minimum-Distanz-Klassifikation werden aufgrund der Trainingsgebiete für jede Musterklasse und für jeden Kanal die Mittelwerte der Grauwerte berechnet. Hierdurch werden im Merkmalsraum der beteiligten Kanäle für die Musterklassen Gruppenschwerpunkte (Clusterzentroide) definiert. Die Pixel der Gesamtszene werden anschließend diesen Kristallisationskernen zugeordnet, wobei die Zuordnung zum nächstgelegenen Zentroiden erfolgt. Bei einer Klassifikation von nur zwei Kanälen wie in Abbildung 10.28 wird der Merkmalsraum durch diese Zuordnungsvorschrift in Thiessen-Polygone zerlegt (vgl. Kap. 9.6.4). Diese strenge Zerlegung durch einfache lineare Trennfunktionen berücksichtigt allerdings nicht die unterschiedlichen Streuungen der Grauwerte um die Mittelwerte einzelner Klassen. So können durchaus Fehlzuordnungen entstehen. Bei der Maximum-Likelihood-Klassifikation werden entsprechend der Minimum-Distanz-Klassifikation für jede Musterklasse Clusterzentroide bestimmt. Die Zuordnung der übrigen Pixel der Gesamtszene zu diesen Zentroiden erfolgt hierbei allerdings komplexer. Es wird die Wahrscheinlichkeit berechnet, mit der ein Pixel einer Klasse angehört. Dabei wird davon ausgegangen, dass die Pixelwerte jeder Gruppe um den Clusterzentroid normalverteilt sind. Auch muss bekannt sein, wie stark die einzelnen Klassen besetzt sind bzw. wie wahrscheinlich eine einzelne Klasse ist. Fehlen diese a-priori-Wahrscheinlichkeiten für das Auftreten der einzelnen Klassen, werden sämtliche Klassen als gleichwahrscheinlich angenommen. Allerdings kann aufgrund visueller Interpretation oder auf der Basis einer vorangegangenen Klassifikation in einem entsprechenden Untersuchungsgebiet mit ähnlichen Oberflächenklassen versucht werden, a-priori-Wahrscheinlichkeiten abzuschätzen. In die Bestimmung der Wahrscheinlichkeiten geht die unter-
418
Fernerkundung und digitale Bildverarbeitung
schiedliche Streuung der Clustermitglieder um den Clusterzentroiden ein, der ein Trainingsgebiet präsentiert. Insgesamt handelt es sich hierbei um ein rechenaufwändiges Verfahren, das zumeist recht gute Klassifikationsergebnisse liefert. Das Maximum-Likelihood-Verfahren setzt eine Gauß'sche Normalverteilung der Reflexionswerte jeder einzelnen Klasse in allen Spektralkanälen voraus. Allerdings hat auch eine nur näherungsweise vorhandene Normalverteilung kaum negative Auswirkungen auf das Klassifikationsergebnis. So ist der große Vorteil des Maximum-Likelihood-Klassifikationsalgorithmus seine relative Robustheit. Eine erfolgreiche Maximum-Likelihood-Klassifikation verlangt nach DennertMöller (1983 zitiert in Schumacher 1992), bestimmte Eigenschaften der Trainingsgebiete: - Die Mindestzahl an Trainingspixeln, die zur Aufstellung der Gleichungen ausreicht, liegt bei n+1 (vgl. Swain u. Davis 1978), wobei n die Anzahl der Spektralkanäle repräsentiert. Als Empfehlung nennen Swain u. Davis (1978) eine Anzahl von 10n bis 100n Trainingspixeln, wobei sich diese Angaben in der Praxis für geometrische Auflösungen wie bei Landsat bewährt haben (Richards 1993, Jensen 1986, Lillesand u. Kiefer 1994, Schumacher 1992). Die Wahl mehrerer über das Bild verteilter Trainingsgebiete für jede Klasse ist der Bildung eines einzigen großen Trainingsgebietes vorzuziehen. - In einem Trainingsgebiet sollten möglichst die Merkmalsausprägungen nur einer Klasse erfasst sein. - Die Trainingsgebiete sollten zwar homogen sein, aber dennoch die gesamte Variabilität innerhalb des Spektralverhaltens einer thematischen Klasse widerspiegeln (Repräsentativität). - Die einzelnen Klassen sollten sich möglichst gut voneinander trennen lassen, um den Umfang der Fehlklassifizierungen in Grenzen zu halten. Die Verteilungen um die Clusterzentroide der verschiedenen Musterklassen sollten sich möglichst gering überlappen. Eine Klassifikation kann nach verschiedenen Methoden erfolgen, wobei eine Kombination von überwachter und nichtüberwachter Klassifikation sowie auch ein mehrstufiges Vorgehen möglich sind. Solch eine Vorgehensweise ist immer dann sinnvoll, wenn verschiedene Klassen nur durch unterschiedliche Verfahren optimal identifiziert werden können. Hierbei durchläuft jedes Pixel einen „Entscheidungsbaum“. Derartige Klassifikationsschemata sind zum Teil fester Bestandteil professioneller Bildverarbeitungssoftware, die darüber hinaus auch die Möglichkeit besitzen, eigene hierarchische Klassifikationsschemata zu realisieren. In einem iterativen Prozess werden die verschiedenen Klassen nacheinander separiert. So können z.B. zunächst relativ einfach über eine Quader-Klassifikation Wasser- und Landoberflächen getrennt werden. Anschließend ist die Wasseroberfläche ausmaskierbar (zu Operationen auf Rasterdaten wie Maskieren vgl. Kap. 9.4.3). Die Klassifikation konzentriert sich dann auf die Trennung verschiedener Landoberflächen. Über einen Vegetationsindex (vgl. Kap 10.6.3.1) ist danach z.B. die Trennung der vegetationsbedeckten von vegetationsarmen Oberflächen möglich. An dieser Stelle kann sich dann die rechenaufwändige Maximum-LikelihoodKlassifikation voll auf die Unterscheidung verschiedener Vegetationsformationen
Multispektralklassifikation
419
konzentrieren. Eine mehrstufige Klassifikationsstrategie bietet sich auch bei Vorlage weiterer Ausgangsinformationen an. So können z.B. die Gebäudegrundflächen sowie die Verkehrs- und Wasserflächen, die aus der Automatisierten Liegenschaftskarte abzuleiten sind, ausmaskiert werden, so dass die verbleibenden Pixel leichter im Hinblick auf Vegetationsdifferenzierungen klassifiziert werden können. 10.7.4 Probleme der pixelbasierten Multispektral-Klassifikation Die dargestellten Verfahrensstrategien gehen von einer eindeutigen Klassifikation aus. Hierdurch werden aber die tatsächlichen Verhältnisse idealisiert. Dagegen können häufig in der Praxis einige Pixel nicht eindeutig einer bestimmten Klasse zugeordnet werden. Dies kann dann der Fall sein, wenn mehrere Klassen aufgrund ihrer statistischen Kennwerte (Varianz der Grauwerte) relativ heterogen sind und ein Pixel mehreren Gruppen zugewiesen werden kann. Insbesondere ist die Zerlegung des Merkmalraumes durch lineare Trennfunktionen wie bei der Quader- oder der Minimum-Distanz-Klassifikation sehr starr. So sind Gruppen zuweilen nicht derartig einfach oder regelhaft definiert und dann z.B. durch Thiessen-Polygone nicht eindeutig zu trennen. Das Maximum-Likelihood-Verfahren bringt zwar Verbesserungen, aber keine prinzipielle Lösung, da es auch Regelmäßigkeiten impliziert. Fehlklassifikationen sind insbesondere vor dem Hintergrund der Vielzahl der zu klassifizierenden Pixel nicht auszuschließen. Größere Probleme stellen Mischpixel dar, die aufgrund der geringen geometrischen Auflösung verschiedene Oberflächentypen in einem Aufnahmepixel repräsentieren (insbesondere in Übergangsbereichen wie z.B. Grünflächen und Bebauung am Rande von Städten oder bei Grünflächen und Wasserflächen an Uferzonen von Flüssen und Seen). Demnach kann bei geringauflösenden Fernerkundungsdaten ein Teilausschnitt einer Szene bzw. ein Pixel nicht zwingend die räumlichen Details der Erdoberfläche wiedergegeben (Aussage trifft nicht mehr auf hochauflösende Fernerkundungsdaten zu, vgl. Kap. 10.4.9 u. 10.4.10). Die am Sensor auftreffenden Strahlungswerte sind dann Mischwerte der emittierten bzw. reflektierten Strahlung am Boden. Die eindeutige Zuordnung zu einer Klasse ist dann nicht mehr möglich, was zwangsläufig zu Fehlklassifizierungen führt. Als Lösungshilfe bietet sich die Einbeziehung nichtspektraler Zusatzdaten wie z.B. ATKIS-Daten an, die zu einer Vorauswahl der Bilddaten oder groben Trennung von Bildinformationen (z.B. Ausmaskieren von Siedlungsbereichen) genutzt werden können. Ferner können multitemporale Aufzeichnungen herangezogen werden, bei denen z.B. die phänologische Entwicklung der Vegetation zur eindeutigen Unterscheidung ausgenutzt wird. Ein weiteres Problem der Multispektralklassifikation ist, dass zunächst jedes Pixel einer Landbedeckungsklasse zugeordnet wird, unabhängig davon, wie gering die Wahrscheinlichkeit einer wirklichen Klassenzugehörigkeit ist. So werden auch die durch die zuvor definierten Trainingsgebiete nicht oder nur unzureichend erfassten Pixel derjenigen Klasse zugeordnet, deren Eigenschaften sie am nächsten kommen. Diesem Problem lässt sich durch die Definition eines Zurückweisungs-
420
Fernerkundung und digitale Bildverarbeitung
schwellwertes entgegenwirken, der nutzerabhängig definiert werden kann und der die Pixel mit geringen Zugehörigkeitswahrscheinlichkeiten als nicht klassifizierbar abweist (vgl. Richards 1993 S. 185f.). Als Ergebnis bleiben solche Flächen unklassifiziert, für die in der Trainingsphase unzureichende Musterklassen erfasst wurden. Dies können z.B. auch Flächen einer Klasse sein, für die zwar Trainingsgebiete vorliegen, die aber an der unklassifiziert gebliebenen Stelle aufgrund andersartiger topographischer Eigenschaften (Beleuchtung) andere Reflexionswerte aufweisen. Häufig kommt es nach der Klassifikation mit pixelbasierten Techniken zu einem sog. Salz und Pfeffer-Effekt in der graphischen Präsentation. Das dargestellte Klassifikationsergebnis zeigt eine unruhige Struktur (Einsprengsel, unlogische Pixelwerte), die die Auswertung erschwert. Hier kann die Anwendung eines Tiefpassfilters (vgl. Kap. 10.6.4.1) weiterhelfen, der diesen Effekt beseitigt. Hierfür werden zumeist Median- oder Modal-Filter eingesetzt. 10.7.5 Ermittlung der Klassifikationsgenauigkeit Zur quantitativen Abschätzung der Klassifikation haben sich lagespezifische Verfahren durchgesetzt, die nicht nur eine rein statistische Aussage über den Anteil richtig klassifizierter Pixel ermöglichen, sondern auch Angaben über die gegenseitigen Abhängigkeiten von Fehlklassifikationen zwischen den verschiedenen Klassen zulassen. Derartige Verfahren basieren auf dem Vergleich zwischen dem Klassifikationsergebnis und Referenzdaten, die aus als korrekt angenommenen Quellen stammen (z.B. eigene Kartierung, digitaler ATKIS-Datensatz, Biotoptypenkartierung, Topographische Karten). Der Vergleich erfolgt anhand von Testgebieten, die nicht vorher bereits als Trainingsgebiete genutzt worden sein dürfen (zur Auswahl der Testgebiete vgl. Congalton u. Green 1999, S. 22ff.). Bei einer Analyse auf der Basis einer geschichteten Zufallsstichprobe wird z.B. für jede Klasse jeweils eine bestimmte Anzahl von Testpixeln zufällig aus dem Klassifikationsergebnis ausgewählt. Dabei hängt die Anzahl der Testpixel pro Klasse von ihrer flächenmäßigen Ausdehnung ab. Die Mindestanzahl der ausgewählten Pixel pro Klasse sollte einen Wert von 50 nicht unterschreiten und für stärker vertretene Klassen bei 75 bis 100 Pixeln liegen (vgl. Congalton 1991). Herauszustellen ist, dass diese Angaben für typische Auflösungen wie bei Landsat gelten, aber nicht mehr für hochauflösende Satellitendaten. Das Ergebnis des Vergleiches der Testgebiete mit der Referenz wird in sog. Konfusionstabellen (Konfusionsmatrizen) aufbereitet, in denen die Ergebnisse der Klassifikation den Referenzinformationen gegenübergestellt werden (vgl. Tab. 10.12). Eine Konfusionstabelle ermöglicht die Betrachtung der Klassifikationsgüte aus mehreren Perspektiven. Die Gesamtgenauigkeit wird durch den Quotienten aus allen korrekt klassifizierten Pixeln (Summe der Zahlen in der Hauptdiagonalen der Konfusionstabelle) und der Gesamtzahl der Testpixel abgeschätzt (hier 360/415 = 87%). Durch Division der Anzahl der richtig klassifizierten Bildelemente durch die Reihensumme wird die Genauigkeit aus Nutzersicht (sog. user's accuracy) errechnet. Sie besagt, zu welchem Prozentanteil bzw. mit welcher
Multispektralklassifikation
421
Wahrscheinlichkeit ein Benutzer des Klassifikationsergebnisses im Gelände tatsächlich auf die betreffende Klasse trifft. In der Tabelle 10.12 liegt z.B. für Laubwald eine Genauigkeit aus Nutzersicht von 139/153 = 91% vor. Durch Division der richtig klassifizierten Pixel durch die Spaltensumme errechnet sich die Genauigkeit aus Herstellersicht (sog. producer's accuracy). In der Tabelle 10.12 liegt z.B. für Laubwald eine Genauigkeit aus Herstellersicht von 139/155 = 90% vor. Die Konfusionstabelle gibt insgesamt Auskunft, wo Schwierigkeiten in der eindeutigen Klassenzuteilung auftraten und weist damit auf Inhomogenitäten in den Trainingsgebieten oder gar in den Klassendefinitionen hin. Tabelle 10.12: Beispiel einer Konfusionstabelle Referenzdaten Laubwald Klassifi- Nadelwald Acker zierte Daten Wiese Spalte gesamt
Laubwald 139 7 5 4 155
Nadelwald 8 101 4 7 120
Acker 2 5 75 3 85
Wiese 4 4 2 45 55
Reihe gesamt 153 117 86 59 415
Die Übereinstimmung zwischen den klassifizierten Daten und den Referenzdaten kann mit Hilfe von Kontingenzkoeffizienten quantifiziert werden. In der digitalen Bildverarbeitung ist die Errechnung des Kappa-Koeffizienten üblich, der sowohl die Auslassungen (sog. errors of omission, Zahl der fälschlicherweise einer Klasse nicht zugeordneten Pixel) als auch die Zuschläge (errors of commission, Zahl der fälschlicherweise zu einer Klasse zugeschlagenen Pixel) in die Beurteilung der Klassifikationsgüte einbezieht (vgl. Mather 1999 S. 206ff., Stehmann 1996, Lillesand u. Kiefer 1994 611ff.): N
N
¦
r i 1
xii
N N
¦
¦ r i 1
r i 1
Zeilensummei Spaltensummei
Zeilensummei Spaltensummei
Für die Werte der Tabelle 10.12 ergibt sich: N
415 360 48310 415 415 48310
0.82
Werte des Kappa-Koeffizienten schwanken zwischen 0 und 1. Dabei kennzeichnet ein Wert von 0 keine und ein Wert von 1 totale Übereinstimmung. Werte von Kappa größer als 0.75 deuten eine sehr gute, Werte kleiner als 0.4 eine schlechte Klassifizierungsgenauigkeit an, wobei aber zu einer derartigen Bewertung die Voraussetzungen an die Verteilungsform (Zufallsstichprobe aus einer multinomial verteilten Grundgesamtheit) zu beachten sind. Viel wichtiger ist aber die Bewertung vor dem Hintergrund des Klassifizierungsziels zu beurteilen. So kann eine Klassifizierung mit einem Kappa-Koeffizient von 0.75 durchaus unbrauchbar sein. Hinzuweisen ist auch darauf, dass die Referenzdaten fehlerhaft sein können.
422
Fernerkundung und digitale Bildverarbeitung
10.7.6 Räumlich-spektrale Bildsegmentierung Zur Auswertung von Fernerkundungsdaten wurden in den letzten dreißig Jahren mehrere Standardverfahren entwickelt (vgl. Kap. 10.7). Seit der Verfügbarkeit leistungsstärkerer Sensoren und deren hohe geometrische Auflösung zeichnet sich zurzeit bei den Klassifikationsverfahren ein Umbruch ab. An die Auswertung der Daten höchster räumlicher Auflösung werden völlig neue Anforderungen gestellt. Eine steigende Auflösung erschwert erheblich das Auffinden (größerer) homogener Bildelemente, die eine bestimmte Oberfläche repräsentieren. Ein Pixel kann nicht mehr isoliert, sondern muss als Teil eines größeren Objektes betrachtet werden muss (vgl. Hoffmann u.a. 2000, Smith u. Hoffmann 2001). So werden bei sehr hochauflösenden Sensoren in einem Pixel nicht mehr Baublöcke erfasst, sondern einzelne Gebäudeteile. Ebenso können in einem Waldbestand kleinste Lücken bzw. Waldlichtungen abgebildet werden, die von einem Standardverfahren wie der Maximum-Likelihood-Klassifikation als Offenbodenbereiche oder Ackerland klassifiziert werden. Erst die Betrachtung der Umgebung lässt die Waldlichtung erkennen. Bei der Objektbildung ist somit auch die Betrachtung der Pixelumgebung wesentlich. Neben der Nachbarschaft tragen auch Textur und Form sowie Farbinformation bei einem menschlichen Interpreten zum Erkenntnisvorgang bei. Die operationelle Umsetzung dieser Parameter in rechnergestützte, automatisierte Verfahren ist problematisch und Gegenstand intensiver Forschung (vgl. z.B. Steinnocher 1997, Berger u. Müller 2000, Irons u. Petersen 1981, Ryherd u. Woodcock 1996, Zhang 1999, Mather 1999 S. 198ff.). Aktuelle Entwicklungen im Bereich der Bildsegmentierung lösen sich von der rein pixelbasierten Sichtweise. Das Bild wird zunächst in einzelne Objekte segmentiert, wobei ausgenutzt wird, dass zwischen benachbarten Pixeln ein statistischer Zusammenhang besteht. Durch kanten- oder regionenbasierte Aggregationsalgorithmen werden dabei homogene Bereiche im Bilddatensatz zu Regionen zusammengefasst und als spektral einheitliche Objekte betrachtet, die gemeinsam klassifiziert werden (vgl. Blaschke 2000, Schowengerdt 1997 S. 439ff.). Hier findet eine Objektbildung nach Ähnlichkeitsmerkmalen statt, in die Parameter wie Farbe, Form und Textur einfließen. Das Ergebnis der Objektbildung sind im günstigsten Fall homogene Bereiche, die Teile der gewünschten Oberflächenobjekte bilden. Eine anschließende Klassifikationsprozedur muss also semantisch zusammengehörende Teile kombinieren können. Als geeignete Instrumente zur Strukturierung der entstandenen Objekte haben sich z.B. wissensbasierte semantische Netze erwiesen (vgl. Kunz u.a. 1998, Vögtle u. Schilling 1995, Smith u. Hoffmann 2001). Für die Identifizierung von Geoobjekten können mit Hilfe eines regelbasierten Systems auch zusätzliche Daten wie Geländemodelle oder Expertenwissen genutzt werden. Die bisherigen Erfahrungen mit der ersten kommerziellen, segmentbasierten Fernerkundungssoftware (vgl. Definiens - Weblink) zeigen, dass noch keine standardisierten Auswertestrategien bestehen. Vor allem die Auswahl geeigneter Merkmale, eine nachvollziehbare Gewichtung der Parameter (insb. der Bildsegmentierung) sowie die Behandlung eventuell widersprüchlicher Merkmalsausprägungen stellen noch ungelöste Probleme dar (vgl. Schiewe u. Ehlers 2004, Neubert u. Meinel 2002 u. 2003).
Literatur
Abmayr, W. (1994): Einführung in die digitale Bildverarbeitung. Stuttgart: Teubner. Achen, M. (1993): Untersuchungen über Nutzungsmöglichkeiten von Satellitenbilddaten für eine ökologisch orientierte Stadtplanung am Beispiel Heidelberg. Heidelberg: Selbstverlag des geographischen Institutes Heidelberg. Achilles, A. (2000): SQL Standardisierte Datenbanksprache vom PC bis zum Mainframe. Von dBase IV zu DB2 und SQL/DS. München: Oldenbourg. 7. Aufl. Albertz, J. (2001): Einführung in die Fernerkundung. Grundlagen der Interpretation von Luft- und Satellitenbildern. Darmstadt: Wiss. Buchgesellsch. 2. Aufl. Angell, I. O. (1983): Graphische Datenverarbeitung. München: Hanser. Antenucci, J.C., K. Brown, P.L Croswell, M.J. Kevany, H. Archer (1991): Geographic Information Systems: A Guide to the Technology. New York: Chapman u. Hall. Appelrath, H.J., Boles, D., Claus V. u. I. Wegener (1998): Starthilfe Informatik, Stuttgart: Teubner. Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland (AdV) (1988): Amtliches Topographisch-Kartographisches Informationssystem (ATKIS). Das Vorhaben der Landesvermessungsverwaltungen zum Aufbau Digitaler Landschaftsmodelle und Digitaler Kartographischer Modelle. Bonn: Landesvermessungsamt NRW. Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland (AdV) (1999): AdV-Konzept für die Modellierung der Geoinformationssysteme ALKIS und ATKIS. ALKIS-ATKIS-Konzept pdf-Dokument in http://www.adv-online.de/veroeffentlichungen/alkisatkis-konzept/index-konzept.htm (6.1.2002). Armstrong, M. (1998): Basic Linear Geostatistics. Berlin: Springer. Arnberger, E. (1966): Handbuch der Thematischen Kartographie. Wien: Deuticke. Arnberger, E. (1987): Thematische Kartographie. Braunschweig: Westermann. Asch, K. (1999, Hrsg.): GIS in Geowissenschaften und Umwelt. Berlin: Springer. Asche, H. (1989): Einsatz von Microcomputern in der Kartographie. In: Mayer, F. (Hrsg.): Digitale Technologie in der Kartographie. Wiener Symposium 1988. S. 182 - 190. Wien: Inst. f. Geographie. = Wiener Schriften zur Geographie und Kartographie 2. Asche, H. (1996): Modellierung und Nutzung elektronischer Karten. In: Mayer, F. u. K. Kriz (Hrsg.): Kartographie im multimedialen Umfeld. 5. Wiener Symposium. S. 150 - 167. Wien: Inst. f. Geographie. = Wiener Schriften zur Geographie und Kartographie 8. Asche, H. (2001): Kartographische Informationsverarbeitung in Datennetzen - Prinzipien, Produkte, Perspektiven. In: Herrmann, C. u. H. Asche (Hrsg.): Web.Mapping 1. Raumbezogene Information und Kommunikation im Internet. S. 3 - 17. Heidelberg: Wichmann. Asche, H. (2003): Internet- und Papieratlanten - welchen Mehrwert bieten die Neuen Medien. In: Asche, H. u. C. Herrmann (Hrsg.): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 27 - 41 Asche, H. u. C. H. Herrmann (1994): Designing Interactive Maps for Planning and Education. In: MacEachran, A.M. u. D.R. Taylor (Hrsg.): Visualization in modern cartography. Modern Cartography, Vol. 2. S. 215 - 241. Oxford: Pergamon. Asche, H. u. C. Herrmann (2003, Hrsg.): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. Atkinson, M. u.a. (1989): The Object-Orientated Database System Manifesto. In: Proc. of the Conf. on Deductive and Object-Orientated Databases (DOOD), S. 40 - 57, Kyoto, Japan.
424
Literatur
Aumann, G. u. K. Spitzmüller (1993): Computerorientierte Geometrie. Mannheim: BI-Wiss.-Verl. = Reihe Informatik 89. Baatz, M. u. A. Schäpe (2000): Multiresolution Segmentation - an optimization approach for high quality multi-scale image segmentation. In: Strobl, J., Blaschke T. u. G. Griesebner (Hrsg.): Angewandte Geographische Informationsverarbeitung XII: Beiträge zum AGIT-Symposium 2000. S. 12 - 23. Heidelberg: Wichmann. Bacher, J. (1996): Clusteranalyse. Anwendungsorientierte Einführung. München: Oldenbourg 2. Aufl. Bähr, H.-P, u. T. Vögtle (1998, Hrsg.): Digitale Bildverarbeitung - Anwendung in Photogrammetrie, Kartographie und Fernerkundung. Heidelberg: Wichmann 3. Aufl. Bahrenberg, G., Giese, E. u. J. Nipper (1990): Statistische Methoden in der Geographie. Bd. 1: Univariate und bivariate Statistik. Stuttgart: Teubner. 3. Aufl. Bahrenberg, G. Giese, E. u. J. Nipper (1992): Statistische Methoden in der Geographie. Bd. 2: Multivariate Statistik. Stuttgart: Teubner. 2. Aufl. Banko, G., Hadrbolec, M. u. M. Hölzl (2005): CORINE Land Cover 2000 - Europa als einheitlicher Bild- und Vektordatensatz. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 27 - 31. Heidelberg: Wichmann. Bannari, A., Morin, D. u. F. Bonn (1995): A Review of Vegetation Indices. In: Remote Sensing Reviews 13, S. 95 - 120. Bär, G. (1996): Geometrie. Eine Einführung in die analytische und konstruktive Geometrie. Stuttgart: Teubner. Baret, F. (1995): Use of spectral reflectance variation to retrieve canopy biophysical characteristics. In: Danson, F.M. u. S. E. Plummer (Hrsg.): Advances in environmental remote sensing. Chichester: John Wiley. Bartelme, N. (1989): GIS Technologie. Geoinformationssysteme, Landinformationssysteme und ihre Grundlagen. Berlin: Springer. Bartelme, N. (1995): Geoinformatik - Modelle, Strukturen, Funktionen. Berlin: Springer. Bartelme, N. (2000): Geoinformatik - Modelle, Strukturen, Funktionen. Berlin: Springer. 3. Aufl. Bauer, M. (2003): Vermessung und Ortung mit Satelliten. GPS und andere satellitengestützte Navigationssysteme. Heidelberg: Wichmann. 5. Aufl. Berger, M. u. Müller, M. (2000): Texturraumtransformation unter Berücksichtigung beliebiger Abstände der Nachbarschaftsbeziehungen. In: Photogrammetrie, Fernerkundung, Geoinformation, 2000, S. 411- 422. Berlekamp, J., Desi, R., Fuest, S. u. M. Matthies (1999): Grundwasserinformationssystem für das Stadtgebiet Osnabrück: Instrument für einen effizienten und kostensparenden Grundwasserschutz. In: Strobl, J. u. T. Blaschke (Hrsg.): Angewandte Geographische Informationsverarbeitung XI: Beiträge zum AGIT-Symposium 1999. S. 33 - 40. Heidelberg: Wichmann. Berlekamp, J. Lange, N. de u. M. Luberichs (2000a): Emissions- und Immissionskataster für das Stadtgebiet Münster als Komponente eines kommunalen Umweltinformationssystems. In: Cremers, A. u. K. Greve (Hrsg.): Umweltinformatik 2000. Umweltinformation für Planung, Politik und Öffentlichkeit. 12. Intern. Symposium "Informatik für den Umweltschutz". S. 703 - 715. Marburg: Metropolis. Berlekamp, J. Lange, N. de u. M. Luberichs (2000b): Emissionskataster für das Stadtgebiet Münster. In: Strobl, J., Blaschke T. u. G. Griesebner (Hrsg.): Angewandte Geographische Informationsverarbeitung XII: Beiträge zum AGIT-Symposium 2000. S. 39 - 46. Heidelberg: Wichmann. Bernard, L. u. W. Kuhn (2000): Mit der Geoinformatik von der Berechnung zur Exploration von Modellen. In: Blotevogel, H.H. u.a. (Hrsg.): Lokal verankert - weltweit vernetzt. Tagungsbericht und wiss. Abhandlungen 52. Deutscher Geographentag Hamburg. Stuttgart, S. 579 - 586. Bertin, J. (1974): Graphische Semiologie. Diagramme, Netze, Karten. Übersetzt nach der 2. französischen Auflage. Berlin: de Gruyter. Bertin, J. (1982): Graphische Darstellungen und die graphische Weitergabe von Informationen. Berlin: de Gruyter.
Literatur
425
Bestenreiner, F. (1988): Vom Punkt zum Bild. Entwicklung, Stand und Zukunftsaspekte der Bildtechnik. Karlsruhe: Wichmann. Bill, R. (1995): Raumbezogene Datenverarbeitung in Umweltinformationssystemen.- In: Page, B. u. L.M. Hilty (Hrsg.): Umweltinformatik: Informatikmethoden für Umweltschutz und Umweltforschung. S. 125 - 148. München: Oldenbourg. = Handbuch der Informatik 13.3. Bill, R. (1996): Datenqualität und Metainformation in Geo-Informationssystemen. Interner Bericht Heft Nr. 5. Institut für Geodäsie und Geoinformatik Universität Rostock. Bill, R. (1998): Multimedia-GIS: Concepts and Applications. In: Geo-Informations-Systeme 11, S. 21 - 24. Bill, R. (1999a): Grundlagen der Geo-Informationssysteme. Band 1 (Hardware, Software und Daten). Heidelberg: Wichmann. 4. Aufl. Bill, R. (1999b): Grundlagen der Geo-Informationssysteme. Band 2 (Analysen, Anwendungen und neue Entwicklungen). Heidelberg: Wichmann. 2. Aufl. Bill, R. u. D. Fritsch (1991): Grundlagen der Geo-Informationssysteme. Bd. 1. Hardware, Software und Daten. Heidelberg: Wichmann. Bill, R. u. B. Resnik (2000): Vermessungskunde für den Planungs-, Bau- und Umweltbereich. Heidelberg: Wichmann. Bill, R., Seuß R. u. M. Schilcher (2002): Kommunale Geo-Informationssysteme: Basiswissen, Praxisberichte und Trends. Heidelberg: Wichmann. Bill, R. u. M.L. Zehner (2001): Lexikon der Geoinformatik. Heidelberg: Wichmann. Birth, K. (1998): Das gemeinsame ALKIS/ATKIS-Datenmodell. In: Landesvermessungsamt Baden-Württemberg (Hrsg.): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anlässlich des 4. AdV Symposiums ATKIS. S. 17 - 35. Stuttgart: Landesvermessungsamt Baden-Württemberg. Bischoff, H. (2000): Microsoft MapPoint 2000 - die Apokalypse für die Kartographie. In: Neue Wege für die Kartographie? Kartographische Schriften 4. S. 32 - 33. Bonn: Kirschbaum. Blaschke, T. (1999, Hrsg.) Umweltmonitoring und Umweltmodellierung. GIS und Fernerkundung als Werkzeuge einer nachhaltigen Entwicklung. Heidelberg: Wichmann. Blaschke, T. (2000): Objektextraktion und regelbasierte Klassifikation von Fernerkundungsdaten: Neue Möglichkeiten für GIS-Anwender und Planer. 5. Symposium „Computergesützte Raumplanung“ (CORP 2000), http://www.corp.at. Wien. Blaschke, T. (2002, Hrsg.): Fernerkundung und GIS. Neue Sensoren - innovative Methoden. Heidelberg: Wichmann. Blaschke, T. (2003): Geographische Informationssysteme: Vom Werkzeug zur Methode. Geograph. Zeitschr. 91, S. 95 - 114. Bock, H.H. (1974): Automatische Klassifikation. Göttingen: Vandenhoeck u. Rupprecht. Bortz, J. (1999): Statistik für Sozialwissenschaftler. Heidelberg: Springer. 5. Aufl. Brassel, K., A. Vckovski u. E. Schmitt (1998): Informatisierung der Geographie. In: Geographica Helvetica, Nr. 2, S. 43 - 50. Breuer, H. (1995): dtv-Atlas zur Informatik. München: dtv. Breuer, T. u.a. (1997, Hrsg.): Fernerkundung in urbanen Räumen. Regensburg: Selbstverlag Inst. f. Geographie. = Regensburger Geogr. Schr. 28. Breunig, M. (2001): On the Way to Component-Based 3D/4D Geoinformation Systems. Lecture Notes in Earth Sciences, No. 94. Springer: Heidelberg. Brewer, C.Y. (1994): Color Use Guidelines for Mapping and Visualization. In: MacEachran, A.M. u. D.R. Taylor (Hrsg.): Visualization in modern Cartography. Modern Cartography, Vol. 2. S. 123 - 147. Oxford: Pergamon. Bronstein, I. N. u.a. (1997): Taschenbuch der Mathematik. Frankfurt a.M.: Harri Deutsch. Broy, M. (1998): Informatik. Eine grundlegende Einführung. Band 1: Programmierung und Rechnerstrukturen. Berlin: Springer. 2. Aufl. Brunner, K. (1995): Digitale Kartographie an Arbeitsplatzrechnern. In: Kartographische Nachrichten 45, S. 63 - 68.
426
Literatur
Bugayevskiy, L.M. u. J.P. Snyder (1995): Map Projections. A Reference Manual. London: Taylor u. Francis. Bundesamt für Kartographie und Geodäsie (Hrsg., 2004): Geoinformation und moderner Staat. Eine Informationsschrift des Interministeriellen Ausschusses für Geoinformationswesen (IMAGI). Burrough, P.A. (1994): Principles of Geographic Information Systems for Land Resource Assessment. Oxford: Clarendon Press. = Monographs on soil and resources survey 12. Burrough, P. u. A. U. Frank (1996, Hrsg.): Geographic objects with indeterminate boundaries. London: Taylor & Francis. = Gisdata 2. Burrough, P u. I. Masser (1998, Hrsg.): European Geographic Information Infrastructures. Opportunities and pitfalls. London: Taylor & Francis. = Gisdata 5. Buziek, G. (1997): Das Potential moderner Informations- und Kommunikationstechnologien aus Sicht der Kartographie. In: GIS und Kartographie im multimedialen Umfeld. Kartographische Schriften 2. S.17 - 25. Bonn: Kirschbaum. Buziek, G. (1999): Dynamic Elements of Multimedia Cartography. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S. 231 - 244. Berlin: Springer. Buziek, G, Dransch, D. u. W.-D. Rase (2000, Hrsg.): Dynamische Visualisierung. Grundlagen und Anwendungsbeispiele für kartographische Animationen. Berlin: Springer. Byrne, G.F. P.F. Crapper and K.K. Mayo (1980): Monitoring Land Cover Change by Principal Component Analysis of Multitemporal Landsat Data. In: Remote Sensing of Environment 10, S. 175 - 184. Carper, J., Lillesand T.M. u. R.W. Kiefer (1990): The Use of Intensity-Hue-Saturation Transformations for Merging SPOT Panchromatic and Multispectral Image Data. In: Photogrammetric Engineering and Remote Sensing 56, S. 459 - 467. Cartwright, W. (1999): Development of Multimedia. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S. 11 - 30. Berlin: Springer. Cartwright, W., Peterson, M. P. u. G. Gartner (1999, Hrsg.): Multimedia Cartography. Berlin: Springer. Chavez, P.S. (1988): An improved Dark-Object Substraction Technique for Atmospheric Scattering Correction of Multispectral Data. In: Remote Sensing of Environment 24, S. 459 - 479. Chavez, P.S. (1989): Radiometric Calibration of Landsat Thematic Mapper Multispectral Images. In: Photogrammetric Engineering and Remote Sensing 55, S. 1285 - 1294. Chavez, P.S. (1996): Image-Based Atmospheric Corrections - Revisited and Improved. In: Photogrammetric Engineering and Remote Sensing 62, S. 1025 - 1036. Chavez, P.S. Jr., S.C. Sides u. J.A. Anderson (1991): Comparison of three different methods to merge multiresolution and multispectral data: Landsat TM and SPOT Panchromatic. In: Photogrammetric Engineering and Remote Sensing Vol. 57, No. 3. S. 295 - 303. Christl, A.B. u. A. Trakas (2005): Geodateninfrastrukturen nutzbar machen - technische, organisatorische und rechtliche Aspekte. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 88 - 93. Heidelberg: Wichmann. Cihlar, J., St.-Laurent, L. u. J.A. Dyer (1991): Relation between the Normalized Difference Vegetation Index and Ecological Variables. In: Remote Sensing of Environment 35, S. 279 - 298. Codd, E. F. (1970): A relational model for large shared data banks. Communications of the ACM, 13 (6), S. 377 - 387. Codd, E.F. (1990): The Relational model for database Management, Version 2. Reading, Mass: Addison Wesley. Congalton, R.G. (1991): A Review of Assessing the Accuracy of Classifications of Remotely Sensed Data. In: Remote Sensing of Environment 37, S. 35 - 46. Congalton, R.G. u. K. Green (1999): Assessing the Accuracy of Remotely Sensed Data. Principles and Practices. Boca Raton, Fl.: Lewis Publishers. Coors, V. U. A. Zipf (2005, Hrsg.): 3D-Geoinformationssysteme. Grundlagen und Anwendungen. Heidelberg: Wichmann. Couclelis, H. (1996): Spatial Technologies, Geographic Information, and the City. Technical Report 96-10. National Center for Geographic Information and Analysis. Santa Barbara.
Literatur
427
Cramer, M. (2003): Erfahrungen mit der direkten Georeferenzierung. In: Photogrammetrie - Fernerkundung - Geoinformation 4, S. 267-278. Creuzer, P. u. U. Krulle (1998): Situationsbericht über Geodaten in der Landesverwaltung. In: Creuzer, P. (Hrsg.): Geographische Informationssysteme. Einsatz und Nutzung in Kommunen und Landesverwaltung. S. 19 - 32. Hannover: Landesvermessung + Geobasisinformation. Crist, E.P. u. R.C. Cicone (1984): A Physically-Based Transformation of Thematic Mapper Data The TM Tasseled Cap. IEEE Transactions on Geoscience and Remote Sensing. Vol. GE-22, No.3 S. 256 - 266. Cummerwie, H.-G. (1989): Mit MERKIS auf dem Wege zur individuellen Stadtkarte. In: Kartographische Nachrichten 39, S. 131 - 139. Cummerwie, H.-G. (1997): Die einheitliche Raumbezugsbasis für kommunale Fachinformationssysteme. DST-Beiträge zur Stadtentwicklung und zum Umweltschutz. Reihe E. Heft 25. Dahinden, T., Neumann, A. u. A.M. Winter (2003): Internet-Kartengraphik mit SVG - Werkzeuge, Techniken, Anwendungen. In: Asche, H. u. C. Herrmann (Hrsg., 2003): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 190 - 206. Dale, P. (2005): Introduction to mathematical techniques used in GIS. Boca Raton: Chapman & Hall / CRS. Davis, P. (1974): Data Description and Presentation. Science in Geography 3. Oxford: Oxford University Press. DeMers, M.N. (1997): Fundamentals of Geographic Informations Systems. New York: John Wiley. Dennert-Möller, E. (1983): Untersuchungen zur digitalen multispektralen Klassifizierung von Fernerkundungsaufnahmen mit Beispielen aus den Wattgebieten der deutschen Nordseeküste. Dissertation an der Universität Hannover, Fachrichtung Vermessungswesen. Deutsche Gesellschaft für Kartographie (1993) (Hrsg.): Kartographie und Geoinformationssysteme, KS Band 1, Bonn: Kirschbaum. Deutsche Gesellschaft für Kartographie (1994, Hrsg.): Kartenherstellung auf Max, PC und Workstation. 20. Arbeitskurs Niederdollendorf. Bonn: Kirschbaum. Deutscher Städtetag (1988): Maßstabsorientierte Einheitliche Raumbezugsbasis für Kommunale Informationssysteme (MERKIS). DST-Beiträge zur Stadtentwicklung und zum Umweltschutz, Reihe E. Heft 15. Dickmann, F. (1996): Graphik-Programme unter Windows - Die low cost - Alternative in der rechnergestützten Kartographie. In: Kartographische Nachrichten 46, S. 179 - 185. Dickmann, F. (1997): Kartographie im Internet. Möglichkeiten und Grenzen der neuen Informationstechnologie für die kartographische Praxis. In: Kartographische Nachrichten 47, S. 87 - 96. Dickmann, F. (2001): Web-Mapping und Web-GIS. Braunschweig: Westermann. Dickmann, F. u. K. Zehner (1999): Computerkartographie und GIS. Braunschweig: Westermann. DIN Deutsches Institut für Normung e.V. (1988ff.): Deutsche Norm Informationsverarbeitung DIN 44300 Teil 1 bis 7. Berlin: Beuth. Döller, H., Höggerl, N. u. E. Imrek (1996): GPS-Grundnetz von Österreich. In: Dollinger, F. u. J. Strobl (1996): Angewandte Geographische Informationsverarbeitung VIII = Salzburger Geographische Materialien 24. Salzburg: Selbstverlag Inst. Geographie. Döllner, J. u. Ch. Uhlenküken: Von Bits über Bilder zur Bedeutung. Visualisierung am Beispiel der Geowissenschaften. In: Forschungsjournal der Westfälischen Wilhelms Universität Münster, 1/1998, S. 29 - 32. Domschke, W. (1995): Logistik: Transport. München: Oldenbourg. 4. Aufl. Donnay, J.P., Barnsley, M.J. u. P.A. Longley (2001, Hrsg.): Remote sensing and urban analysis. . London: Taylor & Francis. = Gisdata 9. Dransch, D. (1996): Einsatz und Konzeption von kartographischen Computer-Animationen. In: Kartographische Nachrichten 46, S. 219 - 225. Drury, S.A. (1990): A Guide to Remote Sensing. Interpreting Images of the Earth. Oxford: Oxford University Press. Dubuisson, B. (1975): Practique de la photogrammétrie et de moyens cartographiques derivés des ordinateurs, Editions Eyrolles. Paris.
428
Literatur
Duden (1993): Informatik. Ein Sachlexikon für Studium und Praxis. Mannheim: Dudenverlag. 2. Aufl. Ehlers, M. (1993): Integration of GIS, Remote Sensing, Photogrammetry and Cartography: The Geoinformatics Approch. In: Geo-Informations-Systeme 6 (5), S. 18 - 23. Ehlers, M. (2000): Fernerkundung und Geographische Informationssysteme: von der Datenintegration zur integrierten Analyse. In: Blotevogel, H.H. u.a. (Hrsg.): Lokal verankert - weltweit vernetzt. Tagungsbericht und wiss. Abhandlungen 52. Deutscher Geographentag Hamburg. Stuttgart, S. 586 - 591. Ehlers, M. u. S. Amer (1991): Geoinformatics: An Integrated Approach to Acquisition, Processing and Production of Geo-Data. Proceedings, EGIS ´91, Brüssel, S. 306 - 312. Ehlers, M., D. Greenlee, Smith T. u. J. Star (1991): Integration of Remote Sensing and GIS: Data and Data Access. In: Photogrammetric Engineering and Remote Sensing 57, S. 669 - 675. Ehlers, M., G. Edwards u. Y. Bédard (1989): Integration of Remote Sensing with Geographic Information Systems: A Necessary Evolution. In: Photogrammetric Engineering and Remote Sensing 55, S. 1619 - 1627. Environmental Systems Research Institute (Hrsg., 1995): Unterstanding GIS. The Arc/Info Method. Redlands. Faby, H. (2005): Kartographische Aspekte des Cross-Media-Publishing. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 146 - 154. Heidelberg: Wichmann. Falk, D. S., Brill, D.R. u. D. G. Stork (1990): Ein Blick ins Licht. Einblicke in die Natur des Lichts und des Sehens, in Farbe und Fotographie. Heidelberg: Springer. Fischer, M., Scholten H.J. u. D. Unwin (1996, Hrsg.): Spatial analytical perspectives on GIS. London: Taylor & Francis. = Gisdata 4. Fitzke, J., Rinner, C. u. D. Schmidt (1997): GIS-Anwendungen im Internet. In: Geo-InformationsSysteme, 10, Heft 6. Seite 25 - 31. Foley, J.D., van Dam, A. Feiner, S.K. u. J.F. Hughes (1990): Computer graphics: principles and practices. Reading: Addison-Wesley. Fothering, A.S. u. M. Wegener (2000, Hrsg.): Spatial models and GIS. New potentials and new models. London: Taylor & Francis. = Gisdata 7. Frank, A.U., Raper, J. U. J.P. Cheylan (2001, Hrsg.): Life and motion of socio-economic units. London: Taylor & Francis. = Gisdata 8. Frevel, H. (1996): Konzeption, Aufbau und Datenangebot des Geoinformationssystems ATKIS. In: Landesvermessungsamt Rheinland-Pfalz (Hrsg., 1996): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anlässlich des 3. AdV Symposiums ATKIS, S. 31 - 46. Koblenz: Landesvermessungsamt Rheinland-Pfalz. Frühauf, K. u.a. (2000): Software-Projektmanagement und -Qualitätssicherung. Zürich: vdf Hochschulverlag AG an der ETH Zürich. 3. Aufl. Fürst, D., Roggendorf, W., Scholles, F. u. R. Stahl (1996): Umweltinformationssysteme - Problemlösungskapazitäten für den vorsorgenden Umweltschutz und politische Funktion. Hannover: Inst. f. Landesplanung u. Raumforschung. = Beiträge zur Räumlichen Planung 46. Fuhrmann, S., Kuhn, W. u. U. Streit (2000, Hrsg.): Special Issue: Geoscientific Visualization. In: Computers & Geosciences Vol. 26 No. 1. Elsevier. Gabriel, R. u. H.-P. Röhrs (1995): Datenbanksysteme. Datenmodellierung und Datenbankarchitekturen. Berlin: Springer. 2. Aufl. Gähler, M., Janowsky, R. u. R. Schröder (2001): Automatisierte Biotoptypenklassifizierung auf Basis höchstauflösender Flugzeugscannerdaten. In: Blaschke, T. (Hrsg.): Fernerkundung und GIS. Neue Sensoren - innovative Methoden. Heidelberg: Wichmann. S. 233 - 242. Gartner, G. (1999): Mulitmedia GIS and the Web. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S.305 - 314. Berlin: Springer. Gartner, G. (2000): Karten im Internet. In: Neue Wege für die Kartographie? Kartographische Schriften 4. S. 43 - 49. Bonn: Kirschbaum.
Literatur
429
Gartner, G. (2003): Geovisualisierung und Kartenpräsentation im Internet - Stand und Entwicklung. In: Asche, H. u. C. Herrmann (Hrsg.): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 45 - 56. Gatrell, A.C. u. M. Löytönen (1998, Hrsg.): GIS and health. London: Taylor & Francis. = Gisdata 6. GeoInfoDok (2004): Dokumentation zur Modellierung der Geoinformationen des amtlichen Vermessungswesens 2004 über: http://www.adv-online.de und weiter über Veröffentlichungen zu AFIS_ATKIS-ALKIS-Projekt (26.6.2005) Goodchild, M. F. (1990): Spatial Information Science. Keynote Adress, 4th. Int. Symposium on Spatial Data Handling. Proceedings, Vol. 1, S. 3-12. Zürich: Dep. of Geogr. Goodchild, M.F. (1992): Geographical Information Science. In: International Journal of Geographical Information Systems 6, S. 31 - 45. Goodchild, M. F. (1997): What is Geographic Information Science? NCGIA Core Curriculum in GIScience. http://www.ncgia.ucsb.edu/giscc/units/u002/ u002.html (27.12.2001) Goodchild, M. F. u. K. Kemp (1990) (Hrsg.): Introduction to GIS. NCGIA Core Curriculum. Santa Barbara. Ein Zugang zur digitalen Version des Curriculum von 1990 findet man über die Einstiegsseite: http://www.geog.ubc.ca/courses/klink/ gis.notes/ncgia/toc.html (27.12.2001) Goodchild, M.F., Parks, B.O. u. L.T. Steyaert (1993): The state of GIS for environmental problemsolving. In: Goodchild, M.F. u.a. (Hrsg.): Environmental modeling with GIS. S. 8 - 15. Oxford: Oxford University Press. Goodchild, M.F. (2004): The validity and usefulness of laws in Geographic Informations Science and Geography. In: Annals of the Ass. of Amer. Geogr. 94, S. 300 - 303. Göpfert, W. (1991): Raumbezogene Informationssysteme. Grundlage der integrierten Verarbeitung von Punkt-, Vektor- und Rasterdaten. Anwendungen in Kartographie, Fernerkundung und Umweltplanung. Karlsruhe: Wichmann. 2. Aufl. Greve, K. (1997): Objekte der Metadatenverarbeitung im Umweltbereich. In: Lange, Norbert de (Hrsg.): Metadaten. Konzepte und Anwendungen in der raumbezogenen Datenverarbeitung. S. 27 - 42. Osnabrück: Fachgebiet Geographie. = Materialien zu Osnabrücker Studien zur Geographie Bd. 33. Grolig, B., A. Schenk u. D. Waldik (2001): Stand und Tendenzen zur Visualisierung von Geoinformationssystemen im WWW. In: Herrmann, C. u. H. Asche (Hrsg.): Web.Mapping 1. Raumbezogene Information und Kommunikation im Internet. S. 46 - 67. Heidelberg: Wichmann. Großmann, W. (1976): Geodätische Rechnungen und Abbildungen in der Landesvermessung. Stuttgart: Konrad Wittwer. Grosso, A. del, Rubitschun, M. u. B. Studer (1998): Java. Eine pragmatische Einführung in die Programmierung für Mathematiker, Ingenieure und Naturwissenschaftler. Zürich: vdf Hochschulverlag AG an der ETH Zürich. Grünreich, D. (1990): ATKIS - Amtliches Topographisch-Kartographisches Informationssystem der Landesvermessung. In: Geo-Informations-Systeme 3 (4), S. 4 - 9. Grünreich, D. (1996): Der Standort der Kartographie im multimedialen Umfeld. In: Mayer, F. u. K. Kriz (Hrsg.): Kartographie im multimedialen Umfeld. 5. Wiener Symposium. S. 17 - 28. Wien: Inst. f. Geographie. = Wiener Schriften zur Geographie und Kartographie 8. Grünreich, D. (1997, Hrsg.): GIS und Kartographie im multimedialen Umfeld. Grundlagen, Anwendungen und Entwicklungstrends. Kartographische Schriften 2. Bonn: Kirschbaum. Gumm, H.-P. u. M. Sommer (2000): Einführung in die Informatik. München: Oldenbourg. 4. Aufl. Güßefeldt, J. (1996): Regionalanalyse. Methodenhandbuch und Programmsystem GraphGeo (DOS). München: Oldenbourg. Haberäcker, P. (1991): Digitale Bildverarbeitung - Grundlagen und Anwendungen. München: Hanser. 4. Aufl. Haberäcker, P. (1995): Praxis der Digitalen Bildverarbeitung und Mustererkennung. München: Hanser. Hackmann, R. u. N. de Lange (2001): Anwendung GIS-gestützter Verfahren in der Stadtentwicklungsplanung - Untersuchung von Versorgungsbereichen durch Netzwerkanalyse auf der Grundlage amtlicher Geobasisdaten. In: Strobl, J. u.a. (Hrsg.): Angewandte Geographische Informati-
430
Literatur
onsverarbeitung XIII: Beiträge zum AGIT-Symposium 2001. S. 221 - 226. Heidelberg: Wichmann. Hake, G. (1982): Kartographie I. Berlin 6. Auflage Hake, G. (1988): Gedanken zu Form und Inhalt heutiger Karten. In: Kartographische Nachrichten 38, S. 65-72. Hake, G. u. D. Grünreich (1994): Kartographie. Berlin: de Gruyter, 7. Aufl. Hake, G., Grünreich, D. u. L. Meng (2002): Kartographie. Visualisierung raum-zeitlicher Informationen. Berlin: de Gruyter, 8. Aufl. Hansen, H.R. (1996): Wirtschaftsinformatik I. Grundlagen betrieblicher Informationsverarbeitung. Stuttgart: Lucius u. Lucius. 7. Aufl. Härtling, J.W. (2000): Interpretation geoökologischer Punktdaten mit Methoden der explorativen räumlichen Datenanalyse und Regionalisierungsverfahren. In: Blotevogel, H.H. u.a. (Hrsg.): Lokal verankert - weltweit vernetzt. Tagungsbericht und wiss. Abhandlungen 52. Deutscher Geographentag Hamburg. Stuttgart, S. 591 - 599. Harbeck, R. (1992): Zusammenarbeit von Wirtschaft und Verwaltung bei der Gewinnung und Nutzung geotopographischer Basidaten. In: Geo-Informations-Systeme 5 (4), S. 8 - 14. Harbeck, R. (1993): Basisinformationssysteme des Vermessungswesens. In: Kartographie und GeoInformationssysteme, Grundlagen, Entwicklungsstand und Trends. Kartographische Schriften 1, S. 60 - 68. Bonn: Kirschbaum. Harbeck, R. (1995): Überblick über Konzeption, Aufbau und Datenangebot des Geoinformationssystems ATKIS. In: Kophstahl, E. u. H. Sellge (1995): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anlässlich des 2. AdV Symposiums ATKIS, S. 19 - 37. Hannover: Nieders. Landesverwaltungsamt - Landesvermessung. Harbeck, R. (1996): Das ATKIS-Systemdesign in der Entwicklung. In: Landesvermessungsamt Rheinland-Pfalz (Hrsg., 1996): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anlässlich des 3. AdV Symposiums ATKIS, S. 185 - 192. Koblenz: Landesvermessungsamt Rheinland-Pfalz. Harris, T. u. Weiner, D. (1996): GIS and Society: The Social Implications of How People, Space, and Environment are Represented in GIS. Technical Report 96-10, National Center for Geographic Information and Analysis, Santa Barbara. Hartung, H.-H. (1981): Wegewahlmodelle. Verfahren und Algorithmen. Paderborn: Schöningh. = GEOMOD Heft 1. Hartung, J. u. B. Elpelt (1999): Multivariate Statistik. Lehr- und Handbuch der angewandten Statistik. München: Oldenbourg. 6. Aufl. Hearnshaw, H. u. D. Unwin (1994, Hrsg.): Visualization in Geographic Information Systems. Chichester: John Wiley u. Sons. Heck, B. (1995): Rechenverfahren und Auswertemodelle der Landesvermessung. Klassische und moderne Methoden. Heibelberg: Wichmann. 2. Aufl. Heipke, C. (2003): Photogrammetrie & Fernerkundung - vom Elektronenmikroskop bis zur Planetenbeobachtung. - In: Photogrammetrie - Fernerkundung - Geoinformatik, 3, S. 165 - 180. Heissler, V. u. G. Hake (1970): Kartographie I. Kartenaufnahme, Netzentwürfe, Gestaltungsmerkmale, topographische Karte. Berlin: Walter de Gruyter, Sammlung Göschen Bd. 30/30a/30b Herrmann, C. u. H. Asche (2001, Hrsg.): 1. Raumbezogene Information und Kommunikation im Internet. Heidelberg: Wichmann. Herrmann, C.M. u.a. (1991): Desktop Mapping mit dem Apple Macintosh - ein neues Arbeitsmittel für den Kartographen. In: Kartographische Nachrichten, 41, S. 170 - 178. Herrmann, D. (1992): Algorithmen Arbeitsbuch. Bonn: Addison-Wesley. Herzog, A. (1988): Desktop Mapping. In: Geographica Helvetica, 43, S. 21 - 26. Heuer, A. (1997): Objektorientierte Datenbanken. Konzepte, Modelle, Standards und Systeme. Bonn: Addison Wesley, 2. Aufl. Heuer, A. u. G. Saake (2000): Datenbanken: Konzepte und Sprachen. Bonn: mitp-Verlag, 2. Aufl. Heuer, A., G. Saake u. K. U. Sattler (2005): Datenbanken: Implementierungstechniken. Bonn: mitpVerlag, 2. Aufl.
Literatur
431
Hildebrandt, G. (1996): Fernerkundung und Luftbildmessung für Forstwirtschaft, Vegetationskartierung und Landschaftsökologie. Heidelberg: Wichmann. Hilty, L. M. u.a. (1994, Hrsg.): Informatik für den Umweltschutz: 8. Symposium, Hamburg 1994. Marburg: Metropolis. = Umweltinformatik aktuell Bd. 1. Hoffmann, A. u. F. Lehmann (2000): Vom Mars zur Erde - die erste digitale Orthobildkarte Berlin mit Daten der Kamera HRSC-A. In: Kartographische Nachrichten 50, S. 61 - 72. Hoffmann, A., G. Smith, S. Hese & F. Lehmann (2000): Die Klassifizierung hochauflösender Daten - Ein per parcel-Ansatz mit Daten des digitalen Kamerasystems HRSC-A. In: Albertz, J. (Hrsg.): Photogrammetrie und Fernerkundung. Neue Sensoren - Neue Anwendungen. Vorträge der 19. Wissenschaftlich-technischen Jahrestagung der DGPF. Berlin: Selbstverlag der DGPF. Hofmann-Wellenhof, B., Lichtenegger, H., Collins, J. (2001): Global Positioning System. Theory and Practice. Springer: New York. 5. Aufl. Horn, C. u. I. Kerner (Hrsg. 1998): Lehr- und Übungsbuch Informatik Bd. 4. Technische Informatik und Systemgestaltung. München: Fachbuchverlag Leipzig. Hoschek, J. (1969): Mathematische Grundlagen der Kartographie. Mannheim: BI-Wiss.-Verl. Hurni, L. (2000): Atlas der Schweiz - interaktiv. Die neue Multimedia-Version des Schweizerischen Landesatlasses. In: Neue Wege für die Kartographie? Kartographische Schriften 4. S. 35 - 42. Bonn: Kirschbaum. Hurni, L., Neumann, A. u. A. Winter (2001): Aktuelle Webtechniken und deren Anwendung in der thematischen Kartographie und der Hochgebirgskartographie. In: Buzin, R. u. T. Wintges (Hrsg.): Kartographie 2001 - multidisziplinär und multidimensional. Beiträge zum 50. Deutschen Kartographentag. Heidelberg: Wichmann. ??? Hurni, L., Bär, H.- R. u. R. Sieber (1999): The Atlas of Switzerland as an Interactive Multimedia Atlas Information System. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S. 99 - 112. Berlin: Springer. Huxhold, W. E. (1991): An Introduction to Urban Geographic Information Systems.- Oxford: University Press. Ihde, J. u. W. Lindstrot (1995): Datumstransformationen zwischen den Bezugssystemen ETRF/WGS, DHDN und System 42. In: Zeitschrift für Vermessungswesen 4/1995, S. 193 196. Imhof, E. (1972): Thematische Kartographie. Berlin: de Gruyter. Interministerieller Ausschuss für Geoinformationswesen IMAGI (2000): Konzeption eines effizienten Geodatenmanagements des Bundes, vorgelegt zur 5. Sitzung des Interministeriellen Ausschusses für Geoinformationswesen (IMAGI) am 6.10. 2000. (Download von http://www.imagi.de/ Konzeption_Geodatenmanagement_des_Bundes.pdf). Irons, J.R. u. G.W. Petersen (1981): Texture Transforms of Remote Sensing Data. In: Remote Sensing of Environment 11, S. 359 - 370. Jäger, E. (1995): Kartographische Präsentation aus ATKIS. In: Kophstahl, E. u. H. Sellge (1995): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anläßlich des 2. AdV Symposiums ATKIS. S. 231 - 241. Hannover: Nieders. Landesverwaltungsamt - Landesvermessung. Jäger, E.: (1990): Methoden zur Ableitung Digitaler Kartographischer Modelle im Rasterdatenformat. In: Kartographische Nachrichten, 40, S. 101 - 105. Jähne, B. (1993): Digitale Bildverarbeitung. Berlin: Springer. 3. Aufl. Jäschke, U. u. M. Müller (1995): Desktop Mapping - Ansätze zur Nutzung vorhandener Datenbestände. In: Kartographische Nachrichten 45, S. 93 - 96. Jensen, J.R. (1986): Introductory Digital Image Processing - A Remote Sensing Perspective. Englewood Cliffs: Prentice Hall. Jesorsky, C. u. J. v. Nohuys (1991): Informationsbedarf zum gebietsbezogenen Umweltschutz im Rahmen der Prüfung von Raumordnungsplänen und raumbezogenen Fachplänen. Vorstudie. Berlin (zitiert nach Fürst u.a. 1996). Jischa, M. F. (1993): Herausforderung Zukunft: technischer Fortschritt und ökologische Perspektiven. Heidelberg: Spektrum Akad. Verl.
432
Literatur
Joos, G. (2003): Geographic Information - Data Quality. Tutorial in connection with the ISO/TC 211 meetings 2003-10-29 Berlin (www.isotc211.org/WorkshopsBerlin/Tutorial/Presentations/ Joos_tutorial.ppt, 22.6.2005) Jungnickel, D. (1994): Graphen, Netzwerke und Algorithmen. Mannheim: BI-Wiss.-Verl. 3. Aufl. Junius, H. (1988): Planungskartographie: ARC/INFO - ein wirksames Hilfsmittel beim Aufbau von Planungssystemen. In: Kartographische Nachrichten, 38, S. 105 - 113. Junius, H. (1991): Kartographische Darstellungsmöglichkeiten bei ARC/INFO. In: Kartographische Nachrichten, 41, S. 136 - 144. Jürgens, C. (1993): Fernerkundung von Stillegungsflächen in der Landwirtschaft - Satellitenauswertung hilft bei der Überwachung. In: Die Geowissenschaften 1, S. 158 - 163. Jürgens, C. (1997): The modified normalized difference vegetation index (mNDVI) - a new index to determine frost damages in agriculture based on Landsat TM data. In: International Journal of Remote Sensing 18, S. 3583 - 3594 Jürgens, C.(2000): Fernerkundungsanwendungen im Precision Farming. In: Petermanns Geographische Mitteilungen 144, Heft 3/2000, S. 60 - 69 Kahmen, H. (1997): Vermessungskunde. Berlin: de Gruyter. 19. Aufl. Kainz, W. (1993): Grundlagen der Geoinformatik. In: Kartographie und Geo-Informationssysteme. Grundlagen, Entwicklungsstand und Trends. Kartographische Schriften 1. S. 19 - 22. Bonn: Kirschbaum. Kainz, W. (1996): GIS und Kartographie - Möglichkeiten für die Kartenkonzeption. In: Mayer, F. u. K. Kriz (Hrsg.): Kartographie im multimedialen Umfeld. 5. Wiener Symposium. S. 46 - 55. Wien: Inst. f. Geographie. = Wiener Schriften zur Geographie und Kartographie 8. Kanzler, K. u. N. de Lange (2005): Entscheidungsunterstützung in der Regionalplanung: Bewertung von Ansiedlungsvorhaben des großflächigen Einzelhandels. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 309 - 314. Heidelberg: Wichmann. Kappas, M. (1994): Fernerkundung nah gebracht. Leitfaden für Geowissenschaftler. Bonn: Dümmler. Kappas, M. (2001): Geographische Informationssysteme. Braunschweig: Westermann. Kauth, R.J. u. G.S. Thomas (1976): The tasseled cap -a graphic description of the spectral-temporal development of agricultural crops as seen as in Landsat. In: Proceedings on the Symposium on Machine Processing of Remotely Sensed Data, West Lafayette, Indiana, June 29 - July 1, 1976. Kelnhofer, F., A. Pammer, G. Schimon (1999): Prototype of an Interactive Multimedia Atlas of Austria. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S. 87 - 97. Berlin: Springer. Kemper, A. u. A. Eickler (1999): Datenbanksysteme. Eine Einführung. München: R. Oldenbourg Verlag, 3. Aufl. Kempf, A. u. C. Samimi (2005): Klassifikation einer intensiv agrarwirtschaftlich genutzten Savannenlandschaft - ein Vergleich pixel- und opjektorientierter Verfahren. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 326 - 335. Heidelberg: Wichmann. Kessler - de Vivie, C. (1993): Ein Verfahren zur Steuerung der numerischen Klassenbildung in der thematischen Kartographie. Beiträge zur kartographischen Informationsverarbeitung Bd. 6. Trier. Kias, U. (1992): GIS als Arbeitsinstrument in der Landschafts- und Umweltplanung.- In: Kilchenmann, A. (Hrsg.): Technologie Geographischer Informationssysteme, Kongress und Ausstellung (KAGIS '91). S.283 - 300. Berlin: Springer. Kilchenmann, A. u. H.-G. Schwarz - von Raumer (1999, Hrsg.): GIS in der Stadtentwicklung: Methodik und Fallbeispiele. Berlin: Springer. Knuth, D. E. (1997): The Art of Computer Programming. Volume 1. Fundamental Algorithms. Reading, Mass.: Addison-Wesley. 3. Aufl. Knuth, D. E. (1997): The Art of Computer Programming. Volume 2. Seminumerical Algorithms. Reading, Mass.: Addison-Wesley. 3. Aufl.
Literatur
433
Knuth, D. E. (1997): The Art of Computer Programming. Volume 3. Sorting and Searching. Reading, Mass.: Addison-Wesley. 2. Aufl. Kohonen, T. (1995): Self-Organizing Maps. Berlin: Springer. Konecny, G. u. G. Lehmann (1984): Photogrammetrie. Berlin: de Gruyter. 4. Aufl. Kophstahl, E. (1995): Überblick über Anwendungen des Geoinformationssystems ATKIS. In: Kophstahl, E. u. H. Sellge (1995): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anläßlich des 2. AdV Symposiums ATKIS, S. 39 - 50. Hannover: Nieders. Landesverwaltungsamt - Landesvermessung. Kraak, M.-J. (2003): Web cartography - design, use and products. In: Asche, H. u. C. Herrmann (Hrsg.): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 18 - 26 Kramer, H.J. (1996): Observation of the Earth and Its Environment - Survey of Missions and Sensors. Berlin: Springer. 3. Aufl. Kranz, O., Rücker, G.R., Conrad, C. Strunz, G. u. S. Dech (2005): GIS und Multi-CriteriaEvaluation zur räumlichen Modellierung geeigneter Aquakultur-Standorte in der Region Khorezm, Usbekistan. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S.374 - 379. Heidelberg: Wichmann. Krasemann, H.J. (1996): Meta-Information - Was ist das? In: Kremers, H. u. H. Krasemann (1996): Umweltdaten verstehen durch Metainformation. S. 9 -14. Marburg: Metropolis. = Praxis der Umwelt-Informatik 6. Kraus, K. (1994): Photogrammetrie. Bd. 1. Bonn: Dümmler. Kraus, K. (1996): Photogrammetrie. Bd. 2: Verfeinerte Methoden und Anwendungen. Bonn: Dümmler. 3. Aufl. Kraus, K. (2000): Photogrammetrie. Bd. 3: Topographische Informationssysteme. Bonn: Dümmler. Kraus, K. (2001): Laser-Scanning - Ein Paradigma-Wechsel in der Photogrammetrie. - In: Eckhardt Seyfert (Hrsg.): 21. Wissenschaftlich-Technischen Jahrestagung der DGPF, Konstanz, Publikationen der Deutschen Gesellschaft für Photogrammetrie und Fernerkundung, Band 10. S. 13 22. Kraus, K. (2004): Photogrammetrie, Bd. 1. Berlin: de Gruyter. Kraus, K. (2005): Laserscanning und Photogrammetrie im Dienste der Geoinformation. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 386 - 396. Heidelberg: Wichmann. Kuntz, E. (1990): Kartenentwurfslehre. Grundlagen und Anwendungen. Heidelberg: Wichmann. 2. Aufl. Kunz, D., T. Vögtle u. K.-J. Schilling (1998): Integrierte Verarbeitung von Satellitenbild- und vektorieller Karteninformation. In: Bähr, H.-P. u. T. Vögtle (Hrsg.): Digitale Bildverarbeitung. Anwendungen in Photogrammetrie, Kartographie und Fernerkundung. S. 220 - 242. Heidelberg: Wichmann. 3. Aufl. Landesvermessungsamt Nordrhein-Westfalen (1999a): Transformation von Koordinaten und Höhen in der Landesvermessung. Teil I: Theoretische Grundlagen. Bonn-Bad Godesberg: Selbstverlag. Landesvermessungsamt Nordrhein-Westfalen (1999b): Transformation von Koordinaten und Höhen in der Landesvermessung. Teil II: Praktische Anwendungsfälle. Bonn-Bad Godesberg: Selbstverlag. Landgrebe, D. (1997): The Evolution of Landsat Data Analysis. In: Photogrammetric Engineering and Remote Sensing 63, S. 859 - 867. Lang, H. (1993): Farbmetrik. In: Niedrig, H. (Hrsg.): Optik. Bergmann Schaefer Lehrbuch der Experimentalphysik Bd. 3. Berlin: de Gruyter. 9. Aufl. Lange, N. de (1981): Zum Problem interkorrelierter Variablen bei clusteranalytischen Verfahren. In: Klagenfurter Geographische Schriften 2. S. 167 - 184. Lange, N. de (1984): Anwendungen der graphischen Datenverarbeitung in der Geographie - Ausgewählte Fortran-Programme zum Zeichnen von Diagrammen und Karten. Münster. = Arbeitsgemeinschaft Angewandte Geographie Münster, Studienblätter 2.
434
Literatur
Lange, N. de (1995): Das Amtliche Topographisch-Kartographische Informationssystem ATKIS. In: Veltrup, W. u. A. Marquardt-Kuron (Hrsg.): UVP und UVS als Instrument der Umweltvorsorge. S. 107 - 115. Bonn: DVAG. = Material zur Angewandten Geographie 31. Lange, N. de (1997, Hrsg.): Metadaten. Konzepte und Anwendungen in der raumbezogenen Datenverarbeitung. Osnabrück: Fachgebiet Geographie. = Materialien zu Osnabrücker Studien zur Geographie Bd. 33. Lange, N. de (2000): Standortmonitoring tertiärer Nutzungen in der Innenstadt von Osnabrück. Geoinformationssysteme für Stadtforschung und Stadtplanung. In: Lange, N. de (Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus der Stadt Osnabrück. S. 113 - 132. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie Bd. 19. Lange, N. de (2000, Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus der Stadt Osnabrück. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie Bd. 19. Lange, N. de (2003): Einsatz von Geoinformationssystemen zur Entscheidungsunterstützung in der Stadtplanung: Modellierung von Rasterdaten und Oberflächen. In: Bischoff, C. u. C. Krajewski (Hrsg.): Beiträge zur geographischen Stadt- und Regionalforschung. S. 221 - 230. Münster: Selbstverlag. = Münstersche Geographische Arbeiten 46. Lange, N. de u. K. Wessels (1999): Die Anwendung von digitaler Bildverarbeitung und Geoinformationssystemen zur Erfassung städtischer Grünflächen. In: Strobl, J. u. T. Blaschke (Hrsg.): Angewandte Geographische Informationsverarbeitung XI: Beiträge zum AGIT-Symposium 1999. S. 322 - 329. Heidelberg: Wichmann. Lange, N. de u. K. Wessels (2000): Aufbau eines Grünflächeninformationssystems für die Stadt Osnabrück. In: N. de Lange (Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus Osnabrück. S. 49 - 64. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie 19. Lange, N. de u. T. Stapenhorst (2000, Hrsg.): Grundlagen von Geo-Informations-Systemen II. OnScreen-Digitalisierung, Modellierung von Netzwerken und Oberflächen, Verarbeitung von Rasterdaten in Arc/Info. Osnabrück: Fachgebiet Geographie. = Materialien zu Osnabrücker Studien zur Geographie Bd. 46. Lange, N. de, Noetzel, U., Slopianka, B. u. C. Wigger (1997): Grundlagen von Geo-InformationsSystemen. Theoretische Grundlagen und Einführung in Arc/Info anhand einer Projektaufgabe. Osnabrück: Fachgebiet Geographie. = Materialien zu Osnabrücker Studien zur Geographie Bd. 35. Lauer, D., S. A. Morain u. V. V. Salomonson (1997): The Landsat Program: Its Origins, Evolution and Impacts. In: Photogrammetric Engineering and Remote Sensing 63, S. 831 - 838. Lechthaler, M. (2005): Bildschirmgerechte kartographische Visualisierung der Geobasisdaten in digitalen Atlas-Informationssystemen. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 403-412. Heidelberg: Wichmann. Lehmann, F. u. L. Renouard (2001): The HRSC Digital Airborne Imager - After Two Years of Operational Data Production. In Jürgens, C. (Hrsg.): Remote Sensing of Urban Areas. Regensburg. S. 57 - 58. Leiberich, P. (1997, Hrsg.): Business Mapping im Marketing. Heidelberg: Wichmann. Leibrand, W. (1991, Hrsg.): Moderne Techniken der Kartenherstellung. 18. Arbeitskurs Niederdollendorf 1990. Bonn: Kirschbaum. Lenk, H. (1993, Hrsg.): Technik und Ethik. Stuttgart: Reclam = Universal-Bibliothek 8395. Lillesand, T. M. u. R. W. Kiefer (1994): Remote Sensing and Image Interpretation. Chichester: John Wiley. 3. Aufl. Lillesand, T. M., Kiefer, R.W. u. J.W. Chipman (2004): Remote Sensing and Image Interpretation. Chichester: John Wiley. 5. Aufl. Linder, W. (1999): Geo-Informationssysteme. Ein Studien- und Arbeitsbuch. Berlin: Springer. Litz, H.P. (2000): Multivariate Statistische Methoden. München: Oldenbourg. Löffler, E. (1994): Geographie und Fernerkundung - Eine Einführung in die geographische Interpretation von Luftbildern und modernen Fernerkundungsdaten. Stuttgart: Teubner. 2. Aufl.
Literatur
435
Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (1999, Hrsg.): Geographical Information Systems I. Principles and Technical Issues. New York: John Wiley. 2. Aufl. Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (1999, Hrsg.): Geographical Information Systems II. Management Issues and Applications. New York: John Wiley. 2. Aufl. Lotz-Iwen, H.-J. (1995): ISIS - Fernerkundung für jedermann. Heidelberg: Wichmann. Lunettta, R. S. u. C. D. Elvidge (1998): Remote sensing change detection. Environmental monitoring meethods and applications. Michigan: Ann Arbor Press. Lutterbach, D. (1998): Auswirkungen moderner Visualisierungstechniken auf die kartographische Kommunikation in Planungsverfahren. In: Kartographische Nachrichten 48, S. 52 - 58. MacEachran, A. (1994): Time as a cartographic variable. In: Hearnshaw, H. u. D. Unwin (Hrsg.): Visualization in Geographic Information Systems. S. 115 - 130. Chichester: John Wiley u. Sons. MacEachran, A.M. (1994): Visualization in modern cartography: Setting the agenda. In: MacEachran, A.M. u. D.R. Taylor (Hrsg.): Visualization in modern cartography. Modern Cartography, Vol. 2. S. 1 - 12. Oxford: Pergamon. MacEachran, A.M. u. D.R. Taylor (Hrsg., 1994): Visualization in modern cartography. Modern Cartography, Vol. 2, Oxford: Pergamon. Mahr, H. (1995): ATKIS-DKM Entwicklungsstufe des HLVA auf der Basis von Intergraph Hardund Software. In: Kartographische Nachrichten, 45, S. 17 - 24 Mansfeld, W. (1998): Satellitenortung und Navigation: Grundlagen und Anwendung globaler Satellitennavigationssysteme. Braunschweig: Vieweg. Markwitz, W. (1989): Vom Satellitensignal zur Bildkarte. Einsatz von Daten- und Informationstechniken zur Fernerkundung der Erde. In: Markwitz, W. u. R. Winter (Hrsg.): Fernerkundung: Daten und Anwendungen, S. 1- 10. Karlruhe = Beiträge der Interessengemeinschaft Fernerkundung, Leitfaden 1. Masser, I., Campbell H. u. M. Craglia (1996, Hrsg.): GIS diffusion. The adoption and use of geographical information systems in local government in Europe. London: Taylor & Francis. = Gisdata 3. Mather, P.M. (1999): Computer Processing of Remotely Sensed Images - An Introduction. Chichester: John Wiley. 2. Aufl. Mayer, F. u. K. Kriz (1996, Hrsg.): Kartographie im multimedialen Umfeld. 5. Wiener Symposium. Wien: Inst. f. Geographie. = Wiener Schriften zur Geographie und Kartographie 8. Meinel, G. u. J. Reder (2001): IKONOS-Satellitenbilddaten - ein erster Erfahrungsbericht. In: Kartographische Nachrichten 2001, S. 40 - 46. Meinel, G., Neubert, M. u. J. Reder (2001): The potential use of very high resolution satellite data for urban areas - first experiences with Ikonos data, their classification and application in urban planning and environmetal monitoring. In: Jürgens, C. (Hrsg.): Remote Sensing of Urban Areas, S. 67 - 68. Regensburg: Selbstverlag Inst. f. Geographie. = Regensburger Geogr. Schr. 35. Mika, A.M. (1997): Three Decades of Landsat Instruments. In: Photogrammetric Engineering and Remote Sensing 63, 7, S. 839 - 852. Mittelstrass, G. (1995): Die Geobasisdaten der Vermessungsverwaltungen als Grundlage der raumbezogenen Informationsverarbeitung. In: Geo-Informations-Systeme 8 (4), S. 18 - 26. Möller, M. (2000): Analyse der Versiegelung von Flächen mit digitalisierten Luftbildern. In: N. de Lange (Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus Osnabrück. S. 65 - 74. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie 19. Monmonier, M. (1982): Computer-Assisted Cartography. Principles and Prospects. Englewood Cliffs, N.J.: Prentice-Hall. Monmonier, M. (1993): Mapping it out: Expository cartography for the humanities and social scienes. Chicago: The University of Chicago Press. Monmonier, M. (1996): Eins zu einer Million: die Tricks und Lügen der Kartographen. Basel: Birkhäuser. Moore, K. (1999): VRML and java for Interactive 3D Cartography. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S. 205 - 216. Berlin: Springer.
436
Literatur
Muhar, A. (1992): EDV Anwendungen in der Landschaftsplanung und Freiraumgestaltung. Stuttgart: Ulmer. Müller, J.C. (1985): Wahrheit und Lüge in thematischen Karten - Zur Problematik der Darstellung statistischer Sachverhalte. In: Kartographische Nachrichten 35, S. 44 - 52. Müller, J.C., Lagrange, J.P. u. R. Weibel (1995, Hrsg.): GIS and generalization. Methodology and practice. London: Taylor & Francis. = Gisdata 1. Neubert, M. u. G. Meinel (2002): Segmentbasierte Auswertung von IKONOS-Daten - Anwendungen der Bildanalyse-Software eCognition auf unterschiedlichen Testgebieten. In: Blaschke, T. (Hrsg.): Fernerkundung und GIS. Neue Sensoren - innovative Methoden. Heidelberg: Wichmann. S. 108 - 117. Neubert, M. u. G. Meinel (2003): Evaluation of segmentation programs for high resolution remote sensing applications. In: Schroeder, M., Jacobsen K. u. C. Heipke (Hrsg.): Proceedings of the joint ISPRS/EARSeL Workshop „High resolution mapping from space 2003“. Hannover (published on CD only). Neumann, A. u. A.M. Winter (2003): Webkartographie mit Vektorgrafik - Formate, Standards und Beispiele mit SVG. In: Asche, H. u. C. Herrmann (Hrsg., 2003): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 89 - 106. Nicolaus, S. (2000): Erfassung städtischer Grünflächen auf Grundlage von Luftbildern. - In: N. de Lange (Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus Osnabrück. S. 37 - 48. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie 19. Niedersächsische Vermessungs- und Katasterverwaltung (1992): Automatisierte Liegenschaftskarte. Hannover. Oberschelp, W. u. G. Vossen (1998): Rechneraufbau und Rechnerstrukturen. München: Oldenbourg. 7. Aufl. Olbrich, G., Quick, M. u. J. Schweikart (1994): Computerkartographie. Eine Einführung in das Desktop Mapping am PC. Springer: Berlin. Olbrich, G., Quick M. u. J. Schweikart (2002): Desktop Mapping. Grundlage und Praxis in Kartographie und GIS. Berlin: Springer. 3. Aufl. Ott, T. u. F. Swiaczny (2001): Time-Integrative Geographic Information Systems. Management and Analysis of Spatio-Temporal Data. Springer: Berlin. Page, B. Häuslein, A. u. K. Greve (1993): Das Hamburger Umweltinformationssystem HUIS Aufgabenstellung und Konzeption. Hamburg. Page, B. u. L. M. Hilty (1995, Hrsg.): Umweltinformatik: Informationsmethoden für Umweltschutz und Umweltforschung. München: Oldenbourg. = Handbuch der Informatik Bd. 13.3. Pavlidis, T. (1982): Algorithms for graphics and image processing. Berlin: Springer. 2. Aufl. Pérez, J.P. (1996): Optik. Heidelberg: Spektrum Akademischer Verlag. Peterson, M.P. (1995): Interactive und Animated Cartography. Englewood Cliffs, N.J.: PrenticeHall. Peterson, M.P. (2003): Webmapping at the start of the new Millenium - state of the art. In: Asche, H. u. C. Herrmann (Hrsg.): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 3 - 17 Peyke, G. (1989): Thematische Kartographie mit PC und Workstation. In: Kartographische Nachrichten 39, S. 168 - 174. Pieper, J., Schweikart, J. u. J. Marti-Henneberg (2005): Grenzen im Wandel - GIS-gestützte Erfassung und Visualisierung der historischen, regionalen Strukturen (1870-2000). In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 537 - 546. Heidelberg: Wichmann. Pohl, C. u. J.L. van Genderen (1998): Multisensor Image Fusion in Remote Sensing: Concepts, Methods and Applications. In: International Journal of Remote Sensing 19, S. 823 - 854. Pohl, C. u. J.L. van Genderen (1999): Multi-sensor Image Maps from SPOT, ERS und JERS. In: Geocarto International 14, S. 35 - 41. Pohlmann E. u. I. Ridder (1995): Die ALK als Arbeitsgrundlage innerhalb und außerhalb der Verwaltung. In: Vermessungswesen und Raumordnung 57, S. 250 - 259.
Literatur
437
Pommerening, E. (1994): Das Programm Aldus FreeHand 4.0. In: Leibrand, W. (Hrsg.): Kartenherstellung auf Mac, PC und Workstation. 20. Arbeitskurs Niederdollendorf 1994. S. 114 - 120. Bonn: Kirschbaum. Popp, T. (1993): Korrektur der atmosphärischen Maskierung zur Bestimmung der spektralen Albedo von Landoberflächen aus Satellitenmessungen. Oberpfaffenhofen. Forschungsbericht der DLR: DLR-FB 93 - 32. Preparata, F. u. M. Shamos (1985): Computational Geometry. New York: Springer. Pryka, S. (1998): Multitemporale Satellitenbildauswertung zur Umweltüberwachung in einem Bergsenkungsgebiet - Eine GIS-gestützte Analyse am Beispiel der Kirchheller Heide. Unveröffentliche Diplomarbeit, Geographisches Institut der Ruhr-Universität Bochum. Räber, S. u. B. Jenny (2003): Karten im Netz - Plädoyer für mediengerechte Kartengrafik. In: Asche, H. u. C. Herrmann (Hrsg.): Web.Mapping 2. Telekartographie, Geovisualisierung und mobile Geodienste. Heidelberg: Wichmann. S. 57 - 76. Raper, J. (2000): Multidimensional Geographic Information Science. London: Taylor & Francis. Rase, W. D. (1988): Rechnergestützte Zeichnung von thematischen Karten für die Raumplanung. In: Mayer, F. (Hrsg.): Digitale Technologie in der Kartographie. Wiener Symposium 1986. S. 122 - 138. Wien: Inst. f. Geographie. = Wiener Schriften zur Geographie und Kartographie 1. Rembold, U. (Hrsg., 1991): Einführung in die Informatik für Naturwissenschaftler und Ingenieure. München: Hanser. 2. Aufl. Richard, D. (1999): Web Atlases - Internet Atlas of Switzerland. In: Cartwright, W., Peterson, M. P. u. G. Gartner (Hrsg.): Multimedia Cartography. S. 113 - 118. Berlin: Springer. Richards, J.A. (1993): Remote Sensing Digital Image Analysis. An Introduction. Berlin: Springer. Richter, R. (1996): A spatially adaptive fast atmospheric correction algorithm. In: International Journal of Remote Sensing 17, S. 1201 - 1214. Roedel, W. (1994): Physik unserer Umwelt: Die Atmosphäre. Berlin: Springer. 2. Aufl. Rundshagen, M. u. M. Schader (1996): Objektorientierte Systemanalyse. Eine Einführung. Berlin: Springer. 2. Aufl. Ryherd, S. u. C. Woodcock (1996): Combining spectral and Texture Data in the Segmentation of Remotely Sensed Images. In: Photogrammtric Engineering a. Remote Sensing 62, S. 181 - 194. Saurer, H. u. F.-J. Behr (1997): Geographische Informationssysteme. Eine Einführung. Darmstadt: Wiss. Buchgesellschaft. Schaal, P. (1998): GIS-gestützte Ermittlung von Vorranggebieten für den Bodenschutz. In: Strobl, J. u. T. Blaschke (Hrsg.): Angewandte Geographische Informationsverarbeitung X: Beiträge zum AGIT-Symposium 1998, S. 305 - 315. Heidelberg: Wichmann. Schaal, P. (1999): Neue Perspektiven für die Regionalplanung durch GIS. In: Strobl, J. u. T. Blaschke (Hrsg.): Angewandte Geographische Informationsverarbeitung XI: Beiträge zum AGIT-Symposium 1999. S. 456 - 462. Heidelberg: Wichmann. Schabenberger, O. u. C. A. Gotway (2005): Statistical methods for spatial data analysis. Boca Raton: Chapman & Hall / CRS. Scherer, A. (1997): Neuronale Netze: Grundlagen und Anwendungen. Braunschweig: Vieweg. Schiewe, J. u. M. Ehlers (2004): Semantisches Potenzial digitaler flugzeuggestützter Fernerkundungssensoren. In: Photogrammetrie - Fernerkundung - Geoinformation 6, S. 463 - 474. Schilcher, M. (1990): CAD-Kartographie. Anwendungen in der Praxis. Karlsruhe: Wichmann. Schlicht, H.J. (1995): Bildverarbeitung digital: Scanner, Drucker, Video, Multimedia unter Windows. Bonn: Addison-Wesley. Schmidt, B., Streit, U. u. Ch. Uhlenküken (1997): Entwicklung von Werkzeugen zur geowissenschaftlichen Visualisierung (GeoViSC) für die klimatologische Planung. In: Dollinger, F. u. J. Strobl (1997): Angewandte Geographische Informationsverarbeitung IX = Salzburger Geographische Materialien 26. Salzburg: Selbstverlag Inst. Geographie. Schmidt, D. u. C. Rinner (2001): Intelligent, interaktiv, internetfähig - die neue Karten-Generation. In: Herrmann, C. u. H. Asche (Hrsg.): Web.Mapping 1. Raumbezogene Information und Kommunikation im Internet. S. 90 - 99. Heidelberg: Wichmann.
438
Literatur
Schmidt, B. u. C. Uhlenküken (1999, Hrsg.): Visualisierung raumbezogener Daten: Methoden und Anwendungen, Beiträge zum 2. GeoViSC-Workshop. = IfGIprint 6. Münster Selbstverlag Inst. f. Geoinformatik. Schmidt, B. u. C. Uhlenküken (2000, Hrsg.): Visualisierung raumbezogener Daten: Methoden und Anwendungen, Beiträge zum 3. GeoViSC-Workshop. = IfGIprint 8. Münster Selbstverlag Inst. f. Geoinformatik. Schmitt, A., Deussen, O. u. M. Kreeb (1996): Einführung in graphisch-geometrische Algorithmen. Stuttgart: Teubner. Scholten, H. u. J.C.H. Stillwell (1990): Geographic Information Systems for Urban and Regional Planning.- Dordrecht: Kluver Academic Publications. Schönwiese, C. D. (1992): Praktische Statistik für Meteorologen und Geowissenschaftler. Berlin: Gebr. Borntraeger. 2. Aufl. Schoppmeyer, J. (1993): Farbgestaltung und Farbbehandlung vor dem Hintergrund der digitalen Kartographie. Kartographische Schriften 1. S. 32 - 38. Bonn: Kirschbaum. Schowengerdt, R. A. (1997): Remote Sensing - Models and Methods for Image Processing. San Diego: Academic Press. 2. Aufl. Schumacher, H. (1992): Überwachte Klassifikation von Fernerkundungsaufnahmen. Oberpfaffenhofen. Forschungsbericht der DLR: DLR-FB 92 - 07. Sedgewick, R. (1994): Algorithmen. Bonn: Addison-Wesley. 3. Aufl. Seeber, G. (1989): Satellitengeodäsie. Berlin: de Gruyter. Sellge, H. (1995): ATKIS-Zukunftsaspekte. In: Kophstahl, E. u. H. Sellge (Hrsg.): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anlässlich des 2. AdV Symposiums ATKIS. S. 243 - 246. Hannover: Nieders. Landesverwaltungsamt Landesvermessung. Sellge, H. (1998): Zukunft der Geobasisdaten in Niedersachsen. In: Creuzer, P. (Hrsg.): Geographische Informationssysteme. Einsatz und Nutzung in Kommunen und Landesverwaltung. S. 91 96. Hannover: Landesvermessung + Geobasisinformation. Shabanov, N. u.a. (2001): Analysis of Interannual Changes in Northern Vegetation Activity Observed in AVHRR Data during 1981 to 1994. IEEE Transactions on Geoscience and Remote Sensing (Download von http://cybele.bu.edu/download/manuscripts/shabanov02.pdf). Shamos. M. u. F. Preparata (1990): Computational Geometry. New York: Springer. 3. Aufl. van Sickle, J. (2004): Basic GIS Coordinates. Boca Raton: Chapman & Hall / CRS. Skorupinski, B. u. K. Ott (2000): Technikfolgenabschätzung und Ethik. Eine Verhältnisbestimmung in Theorie und Praxis. Zürich: vdf Hochschulverlag AG an der ETH Zürich. Smith, G.M. u. A. Hoffmann (2001): An object based approach to urban feature mapping. In: Jürgens, C. (Hrsg.): Remote Sensing of Urban Areas, S. 39 - 40. Regensburg: Selbstverlag Inst. f. Geographie. = Regensburger Geographische Schriften 35. Snyder, J.P. (1987): Map Projections - A Working Manual. Washington, D.C.: United States Gov. Printing Office. = US Geological Survey Professional Paper 1395. Spata, M., Ahrens, B., Günther, G., W. Irsen u. B. Ruf (2001): Die Verknüpfung ellipsoidischer Höhen und Landeshöhen durch Undulationen - Neues NN-Undulationsmodell 2000. In: Nachrichten aus dem öffentlichen Vermessungsdienst Nordrhein-Westfalen 34, H.1, S. 59 - 67. Späth, H. (1977): Cluster-Analyse-Algorithmen. München: Oldenbourg 1977. 2. Aufl. Spiess, E. (1987): Computergestützte Verfahren im Entwurf und in der Herstellung von Atlaskarten. In: Kartographische Nachrichten, 37, 55 - 63. Stahlknecht, P. u. U. Hasenkamp (1997): Einführung in die Wirtschaftsinformatik. Berlin: Springer. 8. Aufl. Stehman, S.V. (1996): Estimating the Kappa Coefficient and its Variance under Stratified Random Sampling. In: Photogrammtric Engineering u. Remote Sensing 62, S. 401 - 407. Steinhausen, D. u. K. Langer (1977): Clusteranalyse. Einführung in Methoden und Verfahren der automatischen Klassifikation. Berlin: de Gruyter. Steinnocher, K. (1997): Texturanalyse zur Detektion von Siedlungsgebieten in hochauflösenden panchromatischen Satellitenbilddaten. In: Dollinger, F. u. J. Strobl (1997): Angewandte Geogra-
Literatur
439
phische Informationsverarbeitung IX. S. 143 - 152. Salzburg: Selbstverlag Inst. Geographie. = Salzburger Geographische Materialien 26. Stoer, J. (1976): Einführung in die Numerische Mathematik I. Berlin: Springer. = Heidelberger Taschenbücher 105. 2. Aufl. Strobl, J. (2001): Online GIS - das WWW als GIS-Plattform. In: Herrmann, C. u. H. Asche: Web.Mapping 1. Raumbezogene Information und Kommunikation im Internet. S. 18 - 29. Heidelberg: Wichmann. Strobl, J., Blaschke, T. u. G. Griesebner (2005, Hrsg.): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg. Heidelberg: Wichmann. Swain, P.H. u. S.M. Davis (1978, Hrsg.): Remote Sensing: The Quantitative Approach. New York: McGraw-Hill. Tainz, P. (1991): Weiterentwicklung THEMAK2. In: Kartographische Nachrichten 41, S. 188 191. Tanenbaum, A. S. (1995): Moderne Betriebssysteme. München: Hanser. 2. Aufl. Taylor, D.R. (1994): Perspectives on Visualization and modern cartography. In: MacEachran, A.M. u. D.R. Taylor (Hrsg.): Visualization in modern cartography. Modern Cartography, Vol. 2. S. 333 - 341. Oxford: Pergamon. Teillet, P. M. J.L. Barker, B.L. Markham, R.R Irish, G. Fedosejevs, u. J.C. Storey (2001): Radiometric Cross-Calibration of the Landsat-7 ETM+ and Landsat-5 TM Sensors Based on Tandem Data Sets. In: Remote Sensing of Environment 78, S. 39 - 54 (Download von http://www.ccrs.nrcan.gc.ca/ccrs/eduref/ref/biblioe.html). Teillet, P.M. u. G. Fedosejevs (1995): On the dark target approach to atmospheric correction of remotely sensed data. In: Canadian Journal of Remote Sensing 21, S. 374 - 387. Thenkabail, P.S., A.D. Ward, J.G. Lyon u. C.J. Merry (1994): Thematic Mapper Vegetation for Determining Soybean and Corn Growth Parameters. In: Photogrammtric Engineering a. Remote Sensing 60, S. 437 - 442. Tomlin, C. D. (1990): Geographic Information Systems and Cartography Modeling. Englewood Cliffs: Prentice Hall. Torge, W. (1991): Geodesy. New York: de Gruyter. 2. Aufl. Toutin, Th. u. P. Cheng (2001): Entmystifizierung von IKONOS. In: Photogrammetrie, Fernerkundung, Geoinformation, 2001, S.171 - 188. Trapp, S. u. M. Matthies (1998): Chemodynamics and Environmental Modeling. An Introduction. New York: Springer. Uhde, C. (1998): Harmonisierung der Objektartenkataloge. In: Landesvermessungsamt BadenWürttemberg (Hrsg.): Das Geoinformationssystem ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anlässlich des 4. AdV Symposiums ATKIS, S. 37 - 48. Stuttgart: Landesververmessungsamt Baden-Württemberg. van der Wel, F. u.a. (1994): Visualization of Data Quality. In: MacEachran, A.M. u. D.R. Taylor (Hrsg.): Visualization in modern cartography. Modern Cartography, Vol. 2. S. 313 - 331. Oxford: Pergamon. Visvalingam, M. (1994): Visualisation in GIS, cartography and ViSC. In: Hearnshaw, H. u. D. Unwin (Hrsg.): Visualization in Geographic Information Systems. S. 9 - 25. Chichester: John Wiley u. Sons. Vögele, T., Klenke, M. u. F. Kruse (2005): OGC- und ISO-kompatible Geodatenkataloge für den kommunalen Bereich mit dem UDK 5.0. In: Strobl, J. u.a. (2005): Angewandte Geoinformatik 2005. Beiträge zum 17. AGIT-Symposium Salzburg, S. 745 - 750. Heidelberg: Wichmann. Vögtle, T. u. K.-J. Schilling (1995): Wissenbasierte Extraktion von Siedlungsbereichen in der Satellitenbildanalyse. In: Zeitschrift für Photogrammetrie und Fernerkundung. 63, S. 199 - 207. Vossen, G. (2000): Datenmodelle, Datenbanksprachen und Datenbank-Management-Systeme. München: Oldenbourg, 4. Aufl. Vrabel, J. (2000): Multispectral Imagery Advanced Band Sharpening Study. In: Photogrammetric Engineering and Remote Sensing 66, S. 73 - 79.
440
Literatur
Wackernagel, H. (1998): Multivariate geostatistics. An introduction with applications. Berlin: Springer. 2. Aufl. Walz, U. (1998): Ableitung von Indikatoren zur Landschaftsstruktur aus Fernerkundungsdaten und anderen Flächeninformationssystemen. In: Strobl, J. u. T. Blaschke (Hrsg.): Angewandte Geographische Informationsverarbeitung X: Beiträge zum AGIT-Symposium 1998, S. 403 - 409. Heidelberg: Wichmann. Welch, R. u. M. Ehlers (1987): Merging Multiresolution SPOT HRV and Landsat TM Data. In: Photogrammetric Engineering and Remote Sensing 53, S. 301 - 303. Welzel, P. (1995): Computervernetzung. Verteilte Verarbeitung in offenen Systemen. Hamburg: S+W Steuer- u. Wirtschaftsverlag. Wessels, K. (2000): Verarbeitung und Analyse von Thermalscannerdaten für die Stadtklimatologie. In: N. de Lange (Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus Osnabrück. S. 75 - 88. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie 19. Wessels, K. (2002): Integrierte Nutzung von Geobasisdaten und Fernerkundung für die kommunale Umweltplanung dargestellt am Beispiel der Auswertung von Thermalscannerdaten. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie 21. Wiesel, J. (1991): Digitale Orthophototechnik. In: Bähr, H.P. u. T. Vögtle (Hrsg.): Digitale Bildverarbeitung. Anwendung in Photogrammetrie, Kartographie und Fernerkundung. S. 137 - 144. Karlsruhe: Wichmann. Wirth, N. (1986): Algorithmen und Datenstrukturen mit Modula-2. Stuttgart: Teubner. Witt, W. (1970): Thematische Kartographie: Methoden und Probleme, Tendenzen und Aufgaben. Hannover: Jänecke. = Veröffentlichungen der Akademie für Raumforschung und Landesplanung Abh. 49. 2. Aufl. Wood, M. u. K. Brodlie (1994): ViSC and GIS: Some fundamental considerations. In: Hearnshaw, H. u. D. Unwin (Hrsg.): Visualization in Geographic Information Systems. S. 3 - 8. Chichester: John Wiley u. Sons. Worboys, M. F. (1995): GIS: A computing perspective. London: Taylor u. Francis. Zhang, Y. (1999): Optimization of building detection in satellite images by combining multispectral classification and texture filtering. In: ISPRS Journal of Photogrammetry and Remote Sensing 54, S. 50 - 60. Zipf, A. u. J. Strobl (2002, Hrsg.): Geoinformation mobil. Heidelberg, Wichmann.
Internetquellen (angegeben ist der letzte Besuch) ADS40 - Weblink: http://www.gis.leica-geosystems.com/products/ads40/default.asp (2.7.2005) Agilealliance - Weblink: http://www.agilealliance.com/home (10.7.2005) American National Standards Institut ANSI - Weblink: http://www.ansi.org (7.6.2005) Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland (AdV) Weblink1: Einstieg über http://www.adv-online.de (7.6.2005) Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland (AdV) Weblink2: Einstieg über http://www.adv-online.de/produkte/etrs89.htm (7.6.2005) Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland (AdV) ATKIS Weblink: http://www.adv-online.de/produkte/atkis.htm 7.6.2005) Arbeitsgemeinschaft der Vermessungsverwaltungen der Bundesrepublik Deutschland (AdV) Mitglieder Weblink: http://www.adv-online.de/mitglieder/index.htm (7.6.2005) ALKIS - Weblink: http://www.alkis.info (30.6.2005) ATKIS - Weblink: http://www.atkis.de und weiter zu Projekt bzw. Produkte (7.6.2005)
Literatur
441
Bodeninformationssystem NRW - Weblink: http://www.murl.nrw.de und weiter über Arbeitsbereiche Boden- u. Gewässerschutz, Wasser- und Abfallwirtschaft und weiter zu Bodenschutz (19.5.2005) British Ordnance Survey - Weblink: http://www.ordsvy.gov.uk/ (7.6.2005) Bundesamt für Eich- und Vermessungswesen (Österreich) - Weblink: http://www.bev.gv.at/ und weiter z.B. zu Geobasisdaten, Produktkatalog und Koordinatensysteme (4.5.2005) Bundesamt für Kartographie und Geodäsie GIBS - Weblink: http://gibs.leipzig.ifag.de/ (7.6.2005) Bundesamt für Landestopographie (Schweiz) - Weblink: http://www.swisstopo.ch (4.5.2005) Common Object Request Broker Architecture (CORBA) - Weblink: http://www.corba.org (7.6.2005) Computer aided system for teleinteractive learning (CASTLE) - Weblink: http://castle.nlr.nl (7.6.2005) Content Standard for Digital Geospatial Metadata - Weblink 1: http://www.fgdc.gov/metadata/contstan.html (30.6.2005) Content Standard for Digital Geospatial Metadata - Weblink 2: http://www.fgdc.gov/standards/status/csdgm_rs_ex.html (30.6.2005) Content Standard for Digital Geospatial Metadata - Weblink 3: http://www.fgdc.gov/standards/status/sub2_5.html (30.6.2005) Coordination Group for Meteorological Satellites (CGMS) - Weblink: www.eumetsat.int/en/area2/cgms/ap1-02.htm (1.7.2005) CPU-Collection - Weblink:http://www.cpu-collection.de/ (7.6.2005) Dana Geodetic Datum - Weblink: http://www.Colorado.EDU/geography/gcraft/notes/datum/ datum_f.html (7.6.2005) Dana GPS - Weblink: http://www.Colorado.EDU/geography/gcraft/notes/gps/gps_f.html (7.6.2005) Dana GPS - Weblink: http://www.Colorado.EDU/geography/gcraft/notes/gps/gps_f.html (7.6.2005) Dana Map Projection - Weblink: http://www.Colorado.EDU/geography/gcraft/notes/mapproj/ mapproj_f.html (7.6.2005) Data Fusion Server - Weblink: http://www.data-fusion.org (7.6.2005) Datenbanken Umweltbundesamt - Weblink: http://www.umweltbundesamt.de/ubadatenbanken/index.htm und http://doku.uba.de (7.6.2005) DDGI - Qualitätsmodell der Gesellschaft zur Zertifizierung von Geodaten und Geoinformationen des Deutschen Dachverbands für Geoinformation e.V. - Weblink: http://www.gzgi.de (7.6.2005) Definiens - Weblink: http:/www.definiens.com (7.6.2005) Deutsche Forschungsanstalt für Luft- und Raumfahrt (DLR) - Weblink: http://www.dlr.de (7.6.2005) Deutsche Forschungsanstalt für Luft- und Raumfahrt (DLR) Quicklooks - Weblink: http://129.247.162.48:8082/data_lib/stations/fifo/roll.html (1.7.2005) Deutsche Forschungsanstalt für Luft- und Raumfahrt (DLR) Sensordaten - Weblink: http://www.dfd.dlr.de/products (1.7.2005) Diffuse Projekt - Weblink: http://www.hi-europe.info/files/2000/diffuse.htm (11.7.2005) Digitalglobe - Weblink: http://www.digitalglobe.com (7.6.2005) DMC - Weblink: http://www.intergraph.com/dmc/ (1.7.2005) EarthWatch Incorporated - Weblink: http://www.digitalglobe.com (7.6.2005) Environmental Remote Sensing Center - Weblink: http://www.ersc.wisc.edu/resources/resources.htm (1.7.2005) ENVI - Weblink: http://www.rsinc.com/envi/ (7.6.2005) Eoweb - Weblink: http://www.eoweb.de (3.7.2005) ERDAS - Weblink: http:/gis.leica-geosystems.com (7.6.2005) ERS - Weblink http://earth.esa.int/ers (2.7.2005) ESA - Weblink: http://earth.esa.int und http://earth.esa.int/ers/instruments (2.7.2005) ESA-EGNOS - Weblink: http://www.esa.int/esaEG/estb.html (30.6.2005) Eurimage - Weblink: http://www.eurimage.com/products/landsat.shtml (7.6.2005) Euromap IRS - Weblink: http://www.euromap.de >Documentation (7.6.2005)
442
Literatur
Euromap Satellitendaten-Vertriebsgesellschaft mbH - Weblink: http://www.euromap.de (7.6.2005) Euromap - IRS-P6 - Weblink: http://www.euromap.de/products/prod_030.html (2.7.2005) Euromap - IRS-1C - Weblink: http://www.euromap.de/products/prod_102.html (2.7.2005) Euromap - IRS-P6 - Weblink: http://www.euromap.de/docs/doc_004.html (2.7.2005) Europe’s Meteorological Satellite Organization (Eumetsat) - Weblink: http://www.eumetsat.de (7.6.2005) European Space Agency (ESA) - Weblink: http://earthnet.esrin.esa.it (7.6.2005) Fernerkundungsdatenzentrum (DLR) - Weblink: http://www.dfd.dlr.de (2.7.2005) Flächennutzungsplan Berlin - Weblink: http://www.stadtentwicklung.berlin.de/planen/fnp (7.6.2005) GALILEO - Weblink1: http://www.galileo-industries.net (30.6.2005) GALILEO - Weblink2: http://europa.eu.int/comm/dgs/energy_transport/galileo/index_en.htm (30.6.2005) GDI-Bayern - Weblink: http://www.gdi.bayern.de (17.6.2005) GDI-Brandenburg - Weblink: http://www.gib-portal.de (17.6.2005) GDI-Hessen - Weblink: http://www.geoportal.hessen.de/Projekte/projekte.htm (17.6.2005) GDI-NRW - Weblink: http://www.gdi-nrw.org (17.6.2005) Gefahrenatlas der Mosel Weblink: http://www.gefahrenatlas-mosel.de/ (30.6.2005) GEIN (German Enviromental Information Network) - Weblink: http://www.gein.de/ (8.6.2005) Geodatenzentrum beim Bundesamt für Kartographie und Geodäsie - Weblink: http://www.geodatenzentrum.de/ (7.6.2005) GeoDatenZentrum Bundesamt für Kartographie und Geodäsie (BKG) - Weblink http://www.geodatenzentrum.de (7.6.2005) Geomatics Canada - Weblink: Einstieg über http://www.geocan.nrcan.gc.ca (7.6.2005) geoMDK - Weblink: http://www.geomdk.niedersachsen.de (19.5.2005) GeoMIS.Bund - Weblink: http://www.geomis.bund.de (8.6.2005) GeoPortal.Bund - Weblink: http://puppis.geomis.bund.de/geoportal/index.jsp (8.6.2005) Geoportal Stadt Aalen - Weblink: http://www.gisserver.de/aalen/menu.html (30.6.2005) Geoscience and Remote Sensing Society Data Fusion Committee - Weblink1: http://www.datafusion.org (7.6.2005) GeoVRML - Weblink: http://www.geovrml.org (27.4.2005) German Environmental Information Network (GEIN) - Weblink: http://www.gein.de (19.5.2005) Gesellschaft für angewandte Fernerkundung und Informationssysteme - Weblink: http://www.gaf.de (7.6.2005) Gesellschaft für Informatik - Weblink: Einstieg über http://www.gi-ev.de (7.6.2005) GIBS - Weblink (GPS-Informations- und Beobachtungssystem des Bundesamtes für Kartographie und Geodäsie): http://gibs.leipzig.ifag.de/ (7.6.2005) GML - Weblink http://opengis.net/gml (27.4.2005) GNU - Weblink http://www.gnu.org (8.3.2005) GRAS - Weblink: http://www.gras.de/themak2.htm (21.3.2005) HRSC-DLR - Weblink: http://solarsystem.dlr.de/FE/hrsc.shtml) (2.7.2005) iMagery-Central - Weblink: http://www.imagery-central.com weiter zu tutorials sensor-information (7.6.2005) Indian Space Research Organisation - Weblink: http://www.isro.org (2.7.2005) Institut Geographique National - Weblink: http://www.ign.fr (7.6.2005) Interministerieller Ausschuss für Geoinformationswesen (IMAGI) - Weblink: http://www.imagi.de (7.6.2005) International Standard Organisation - Weblink: http://www.iso.org/iso/en/ISOOnline.frontpage (7.6.2005) oder http://www.iso.org/iso/en/aboutiso/introduction/index.html (24.4.2005) ISIS - Weblink: http://isis.dlr.de/ (2.7.2005) Jet Propulsion Laboratory Spectral Library - Weblink: http://speclib.jpl.nasa.gov/ (3.7.2005) Landesvermessungsamt Nordrhein Westfalen - Weblink: http://www.lverma.nrw.de (7.6.2005)
Literatur
443
Landesvermessungsamt Nordrhein Westfalen ALKIS - Weblink: http://www.lverma.nrw.de/produkte/liegenschaftsinformation/katasterinfo/alkis/ALKIS.htm (26.6.2005) Landesvermessungsamt Nordrhein Westfalen SAPOS-EPS - Weblink: http://www.lverma.nrw.de/produkte/raumbezug/sapos/dienste/EPS.htm (7.6.2005) Landsat 7 Data Handling Facility - Weblink: http://edcwww.cr.usgs.gov/l7dhf (7.6.2005) Landsat7 Gateway - Weblink: http://landsat.gsfc.nasa.gov (7.6.2005) Landsat 7 Image Assessment System - Weblink: http://Ltpwww.gsfc.nasa.gov/IAS (7.6.2005) Landsat 7 Science Data Users Handbook - Weblink: http://ltpwww.gsfc.nasa.gov/IAS/handbook/handbook_toc.html (7.6.2005) Liftoff - Weblink: http://liftoff.msfc.nasa.gov/realtime/jtrack/3d/JTrack3d.html (7.6.2005) Meteosat - Weblink1: http://www.eumetsat.de > Publications > Technical/Science Documentation Meteosat Second Generation. System Overview. EUM TD07 (2.7.2005) Meteosat - Weblink2: http://www.eumetsat.de > Publications > Technical/Science Documentation Meteosat Second Generation. System Overview. EUM TD05 (2.7.2005) NAG - Weblink: http://www.nag.co.uk (8.3.2005) NASA Satellite Tracking - Weblink: http://science.nasa.gov/Realtime/jtrack/3d/JTrack3d.html (1.7.2005) National Center for Geographic Information and Analysis - Weblink: The NCGIA Core Curriculum in GIScience. http://www.ncgia.ucsb.edu/education/curricula/giscc/ (7.6.2005) National Remote Sensing Agency India - Weblink: http://www.nrsa.gov.in > Browse > Documents (2.7.2005) Nationalatlas der Bundesrepublik Deutschland - Weblink: http://www.iflleipzig.com/daten/deutsch/nationalatlas/demo/index2.htm (30.6.2005) Nationalatlas der Schweiz - Weblink: http://www.atlasofswitzerland.ch (7.6.2005) Nationalatlas von Kanada - Weblink: http://atlas.gc.ca (7.6.2005) Nationalatlas der USA - Weblink: http://www.nationalatlas.gov/ (30.6.2005) Nationalatlas von Schweden - Weblink: http://www.sna.se (30.6.2005) Nationaler Gesundheitsatlas der Niederlande - Weblink http://www.zorgatlas.nl (30.6.2005) Niedersächsisches Bodeninformationssystem - Weblink: http://www.nlfb.de/index.htm?/boden/projekte/nibis.htm (19.5.2005) Niedersächsisches Umweltministerium - Weblink: http://www.mu.niedersachsen.de (7.6.2005) NOAA - Weblink1: http://www.oso.noaa.gov (1.7.2005) NOAA - Weblink2: http://www.noaa.gov/satellites.html (1.7.2005) NOAASIS-Weblink: http://noaasis.noaa.gov/NOAASIS/ml/avhrr.html (3.7.2005) Object Data Mangement Group (ODMG) - Weblink: http://www.odmg.org (7.6.2005) OBAK-LiegKat NRW - Weblink: http://www.lverma.nrw.de/produkte/druckschriften/verwaltungsvorschriften/images/OBAK/OBAK.htm (26.6.2005) Object Mangement Group (OMG) - Weblink: http://www.omg.org (10.7.2005) Office of Satellite Operations - NOAA - Weblink1: http://www.oso.noaa.gov (7.6.2005) Office of Satellite Operations - NOAA - Weblink2: http://www.noaa.gov/satellites.html (7.6.2005) Open GIS Consortium - Weblink: http://opengis.org (7.6.2005) OpenGeospatial - Weblink: http://www.opengeospatial.org/groups (30.6.2005) OpenGL - Weblink: www.opengl.org (7.6.2005) Orbimage - Weblink: http://www.Orbimage.com (1.7.2005) PostGIS - Weblink http://www.postgis.org/ (7.6.2005) PostgreSQL - Weblink: http://www.postgresql.org/ (30.4. 2005) Quantum Computation - Weblink: http://www.qubit.org/ (9.7.2005) Quickbird - Weblink: http://www.digitalglobe.com (1.7.2005) REM - Weblink: http://dino.wiz.uni-kassel.de/ecobas.html (19.5.2005) SAPOS - Weblink: http://www.sapos.de/ (22.6.2005) SAPOS-LGN - Weblink: http://www.lgn.de/produkte/sapos (3.7.2005)
444
Literatur
Schweizer Landestopographie - Weblink: http://www.swisstopo.ch/de/geo/index_grundlagen.htm (4.5.2005) Shuttle Radar Topography Mission (DLR) - Weblink: http://www.dlr.de/srtm (2.7.2005) Spaceflightnow - Weblink: http://www.spaceflightnow.com. (1.7.2005) Space Imaging - Weblink: http://www.spaceimaging.com (1.7.2005) SPEC-Benchmark - Weblink: http://www.spec.org (7.6.2005) SPOT Vegetation Instrument - Weblink: http://www.spot-vegetation.com (2.7.2005) Spotimage - Weblink: http://www.spotimage.fr (7.6.2005) SPOT4-Weblink: http://spot4.cnes.fr/waiting.htm (2.7.2005) SPOT5 Instruments - Weblink http://spot5.cnes.fr/gb/systeme/systeme.htm (2.7.2005) STS-Orbit - Weblink: http://www.dransom.com/stsplus.html (1.7.2005) Supercomputer Sites - Weblink: http://www.top500.org (7.6.2005) Technical Committee TC 211 - Weblink: http://www.isotc211.org (7.6.2005) TOMS - Weblink: http://jwocky.gsfc.nasa. gov (7.6.2005) und http://www.eorc.nasda.go.jp/ADEOS/Project/Toms.html (3.7.2005) UDK-GEIN - Weblink: http//www.udk-gein.de/ (8.6.2005) UMN-MapServer - Weblink: http://mapserver.gis.umn.edu (30.6.2005) UMN-MapServer - Weblink deutsch: http://www.umn-mapserver.de (30.6.2005) Umweltatlas Berlin - Weblink: http://www.stadtentwicklung.berlin.de/umwelt/umweltatlas/ (30.6.2005) Umweltatlas Hamburg - Weblink: http://www.ffh.hamburg.de/stadt/Aktuell/behoerde/stadtentwicklung-umwelt/umwelt/weitereinfos/flaechennutzung/start.html (7.6.2005) Umweltdatenkatalog - Weblink: http://www.umweltdatenkatalog.de (19.5.2005) Unified Modeling Language UML - Weblink: http://www.rational.com/uml/index.jsp (7.6.2005) United States Geological Survey (USGS) - Weblink: http://www.usgs.gov (3.7.2005) United States Geological Survey Spectroscopy Lab - Weblink: http://speclab.cr.usgs.gov/ (3.7.2005) US Geological Survey - Weblink: http://www.usgs.gov/ (3.7.2005) US Geological Survey, EROS Data Center - Weblink: http://edcwww.cr.usgs.gov (3.7.2005) US Geological Survey, EROS Data Center - Weblink: http://edc.usgs.gov (11.7.2005) US Geological Survey, ETM+ - Weblink: http://edc.usgs.gov/products/satellite/landsat7.html (11.7.2005) US National Geodetic Survey - Weblink: http://www.ngs.noaa.gov/ (3.7.2005) V-Modell - Weblink: http://www.v-modell-xt.de (7.6.2005) W3 - Weblink: http://www.w3.org/XML (10.7.2005) W3c-Konsortium - Weblink: http://www.w3.org (7.6.2005) WAAS - Weblink: http://gps.faa.gov/Programs/WAAS/waas.htm (24.6.2005) World Data Center for Remote Sensing of the Atmosphere - Weblink: http://wdc.dlr.de (1.7.2005) World Meteorological Organisation WMO - Weblink: http://www.wmo.ch/index-en.html (1.7.2005) World Standards Services Network (WSSN) - Weblink: http://www.wssn.net/WSSN/index.html (7.6.2005) WWW-Vorlesung Geoinformatik (U. Streit) - Weblink: http://ifgivor.unimuenster.de/vorlesungen/Geoinformatik/ (6.7.2005) X3D - Weblink: http://www.web3d.org/x3d (10.7.2005) Xerox Parc Map Viewer - Weblink: http://mapweb.parc.xerox.com/map oder http://www.parc.xerox.com/istl/projects/mapdocs/mapviewer.html (7.6.2005) Zentrale Umwelt- und Klimadaten-Metainformationssystem (ZUDIS) - Weblink: http://imkhp7.physik.uni-karlsruhe.de/ZUDIS/zudis.html (7.6.2005)
Sachverzeichnis
80/20 Regel 115 ActiveX 68 Abbildung 172-173, 177-179 - kartographische Abbildung 177, 178-181 - geodätische Abbildung 177, 181-196 - azimutale Abbildung 178, 179 - konische Abbildung, Kegelabbildung 178, 180 - Zylinderabbildung 180-181 Abbildungseigenschaften 178 Abstandstransformierte 350-351 Abstrakter Datentyp, ADT 77 - Baum 79 - verkettete Listen 78 - Stapel, Stack 77 - Warteschlange 78 Adjazenz, Adjazenzmatrix 94, 95, 96, 331 Adresse, Adressraum 35, 38, 112 Advanced Very High Resolution Radiometer, AVHR379-380, 384, 396, 407 AFIS-ALKIS-ATKIS-Konzept 240-242 Aggregation (in DBMS) 317 Ähnlichkeitstransformation 172 Aktive Daten 10 Algorithmus 5,15, 42, 81 - sequentieller Algorithmus 83 - paralleler Algorithmus 84 - prozeduraler Algorithmus 82 - Komplexität von Algorithmen 87-88 - Effizienz von Algorithmen 87 Algorithmus, Beispiele - Algorithmen der Koordinatengeometrie 89 - Bentley-Ottmann Algorithmus 91 - Binäre Suche 87 - Branch and Bound Technik 97-98 - Bubble-Sort Algorithmus 82 - Dijkstra Algorithmus 96,97 - Douglas-Peucker Algorithmus 90, 201 - Euklidischer Algorithmus 15, 17 - Floyd Algorithmus 95 - Kmeans Algorithmus 101 - Klassifikationsalgorithmen 99-101 - Lineare Suche 87
- Newton´sches Näherungsverfahren 85 - Plane-Sweep Verfahren 91-92 - Point-in-Polygon Test 93 - Quick-Sort Algorithmus 86 - Schnittpunkte von Geraden 90-91 - Warshall Algorithmus 95 - Wegealgorithmen 94-98 alphanumerische Daten 10 alphanumerische Zeichen 10 Amtliches Festpunkt Informationssystem AFIS 240 Amtliches LiegenschaftskatasterInformationssystem ALKIS 240-242 Amtliches Topographisch-Kartographisches Informationssystem ATKIS 226, 232-239 - Systemdesign 1989 232-237 - Systemdesign 1995 237-239 - Signaturenkatalog 239 - Objektartenkatalog 234, 235 Analog-Digital-Wandlung 197 ANSI Zeichensätze 22 Arbeitsspeicher 33, 38, 111,111, 119-120 Arithmetische-Logische-Einheit, ALU 36 ARPAnet 152 Array 76- 77 ASCII-Zeichensatz 22 Assembler, Assemblieren 47 Atmosphäre 371 - Atmosphäreneinflüsse 371, 373 - Durchlässigkeit der Atmosphäre 371 - spektrale Durchlässigkeit der Atmosphäre 372, 373 atmosphärische Fenster 372 Attribut, Attribute 52, 71, 160, 165, 230, 235, 284-285, 294-296, 297-306, 334, 338, 343 Auflösung (Generalisierung) 213 Auflösung in der Bildverarbeitung 376-367, 391 - spektrale Auflösung 376 - temporale Auflösung 387 - räumliche Auflösung 376 - radiometrische Auflösung 376
446
Sachverzeichnis
Aufnahmesysteme in der Fernerkundung 375-393 - aktive Aufnahmesysteme 375 - passive Aufnahmesysteme 375 - flugzeuggestützte Aufnahmesysteme 392-393 - Satellitensysteme 378-388 - hochauflösende Satellitensysteme 391 - mit abbildendem Radar 389-390 Ausgabegeräte 131-141 Auskunftssystem 281-282, 319 Automat 11 Automatisierte Liegenschaftskarte, ALK 226, 227-231 ALK-Objekte 228, 230 ALK-Folien 229, 230 Automatisiertes Liegenschaftsbuch, ALB 226, 231 Batch Mode 142 Baum 79 Basic Input and Output System (BIOS) 111 Befehlszähler 37 Benchmark-Test 112 Benutzerschnittstellen 144 Betriebsarten eines Computersystems 142-143 Betriebssysteme 143-147 Bezieher-Sekundär-Nachweis 228, 240 Beziehungen, Typen in DBMS 295, 296 Bildanalyse 369 Bildauflösung 24 Bildfusion 412 Bildmatrix 23-24, 345, 348-352, 394, 402, 404 Bildsegmentierung 422 Bildtransformation 406-408 Bildverarbeitung 365-422, 369 Bildvorverarbeitung 397-414 Bildwiederholungsröhre 132 Binärbaum 79 Binärdarstellung 18 Bit, Byte, Bitfolgen 18, 19, 71, 73, 74 Bodensegment 368-369 Bodenspur (swath) 383, 386 Boolean, Datentyp 75 Bottom-Up-Entwicklung 103 Breitenkreis 169 Browser 68, 153, 154 Bubble-Jet-Verfahren 136 Buffer-Funktionen im Vektormodell 341-342 Bus, Bussystem 34, 38-39, 110 Bustopologie 148 Cache C/A-Code (bei GPS)
111 218
CAD-System 326 CASE, Computer Aided Software Engineering 104 CCD, Charge Couple Device 129 CD-ROM 124 Central Processing Unit, CPU 14 CGI, Common Gateway Interface 156 Character, Datentyp 74-75 CISC, Complex Instruction Set Computer 115 Clusteranalyse 101 Codierungen 19 Common Object Request Broker Architecture, CORBA 316 Compiler, compilieren 47, 48 Computational Geometry 91 Computer Aided Software Engineering, CASE 104 Computer Science 4 Computer, Computersystem 7, 11, 12, 14, 33-45, 109, 110, 113, 109-158 Computeranimation 245, 274 Computergestützte wissenschaftliche Visualisierung 247, 248-249 Computergraphik 245, 274 Computerkartographie 66, 246, 274-275 Content Standard for Digital Geospatial Metadata 210 D-Code (bei GPS) 218 Data Exchange Format, DXF 337 Datei, Dateisystem 80, 284, 285-288 Daten 10, 197-198 - Eingabedaten 10 - Geodaten 197 - Ausgabedaten 10 - Metadaten 197, 207-211 - Messdaten 197 - numerische Daten 10 - passive Daten 10 - Primärdaten 197 - Sekundärdaten 197 - aktive Daten 10 Datenaustausch in GIS 324 Datenbank, Datenbasis 228, 283-318, 284, 288-292 Datenbankentwurf 297-298 Datenbankmanagementsystem 283, 288291, 306, 308, 310, 323, 338-339 Datenbanksystem, Datenmodell 283, 288-293, 323, 325 Datenerfassung 197, 200-208 - Geometrie Vektorformat 200-202 - Geometrie Rasterformat 202
Sachverzeichnis - On Screen Geometrieerfassung 205-206 - mit GPS 206 Datenexploration 272-273 Datenfeld 80 Datenformat 36, 114, 144, 324, 364 Datenintegrität 290, 310, 311 Datenkonsistenz 310 Datenkonvertierung 203-204 Datenmanipulation 307 Datenmodelle für Datenbanksysteme 292-298 - hierarchisches Datenmodell 292 - Netzwerk-Datenmodell 293 - Codasyl-Datenmodell 293 - Relationales Datenmodell 293-298 - Objektorientiertes Datenmodell 293, 313 - Erweitertes Entity-Relationship Modell, EER-Modell 316 - Geschachteltes relationales Datenmodell 318 - Objektrelationales Datenmodell 313, 318 Datenpflege 283 Datenqualität 212, 207-214 Datenredundanz 287, 289-290, 300 Datensatz 59, 76, 80, 283 Datenschnittstellen 206, 215, 216, 228, 289, 290, 307, 324, 337, 364 Datenschutz 290 Datensegment 284 Datensicherheit 288, 290, 310-312 Datensicht (-ebene) in DBMS 291-292 - externe Sicht (-ebene) 291 - interne Sicht (-ebene) 291, 292 - konzeptuelle Sicht (-ebene) 291, 292 - Benutzersicht 292 Datenstandards 214-216 Datentyp 21, 39, 71 - Standarddatentyp 71-77 - strukturierter Datentyp 76 - abstrakter Datentyp 77 Datum siehe Geodätisches Datum Datumstransformation 186-188 Delaunay-Triangulation 360-363 Desktop Mapping, DTM 246, 268-270 Desktop Publishing, DTP 268 Dezimalsystem 20 Deutsches Hauptdreiecksnetz, DHDN 183, 186, 190 Diagrammdarstellung 259, 265 Differentielles GPS, DGPS 221-222, 247 Digitale Bildverarbeitung 365-422, 369 Digitale Topographische Karte, DTK 238-239 Digitales Geländemodell (DGM), Digitales Höhenmodell (DHM) 226, 357, 361-364
447 Digitales Kartographisches Modell, DKM 233, 236-239 Digitales Landschaftsmodell, DLM 232-236 DKM 25 237-238 DLM 25 233. 234-239 Digitalisiertablett 128, 197, 200, 202 Diskette 123 Distanzbestimmung 167-168 - im Kartesischen Koordinatensystem 167-168 - auf der Erdkugel 170 - bei GPS 219-220 Distanzgruppierung 101 Diskretisierung 166, 199, 200 Docking Station 128 Domäne 284 dots per inch, dpi 24 Drehung 173 Dreiecksvermaschung 360, 361-364 Drucker, Druckverfahren 135-140 Dualzahlensystem 20-22 Digital Versatile Disk – ROM (DVDROM) 124 Dynamik (von Geoobjekten) 161, 165 dynamisches Binden 63 EBCDI Zeichensätze 22 Ebenenprinzip 165, 334-335 Editor 50 Eingabegeräte 127-130 Einheitliche Datenbankschnittstelle, EDBS 228, 337 Einzugsbereiche in einem Netzwerk 354-355 Electronic Mail, E-Mail, email siehe Internet elektromagnetische Strahlungsvorgänge 370 elektromagnetisches Spektrum 370, 371-372 Ellipsoide 181-185, 188, 189 Enhanced Thematic Mapper (ETM) 381, 382 Entity, Entity-Set, Entity-Typ 294-295 Entity-Relationship-Diagramm 293, 298 Entity-Relationship-Modell (ER-Modell) 293-298, 316-317 Entity-Relationship-Transformationen 303-306 Entzerrung Rasterbilder 174, 175-176,206, 399-403 - polynomische E. 401 - direkte E. 401 - indirekte E. 402 Europäischer Terrestrischer Referenzrahmen, ETRF 185 European Geostationary Navigation Overlay Service, EGNOS 224 European Terrestrial Reference System, ETRS 185
448 EVA-Prinzip Extinktion
Sachverzeichnis 11, 13, 109 371
Fachapplikation, Fachschale 322 Fachinformationssystem 322 false easting, false northing 196 Farbabstufungen 267-268 Farbassoziationen 267 Farbcodierung 32 Farbdruck 30 Farbe, Einsatz von Farbe 26-32, 256, 265-268 Farbempfindungen 267 Farbkomposit 395 Farbmischung 27-32 - additive Farbmischung 27 - subtraktive Farbmischung 28 - autotypische Farbmischung 30 Farbmodell 27-32 - CMY-Farbmodell 29 - RGB-Farbmodell 29 - IHS-, HSV-, HSI-Farbmodell 31-32, 413 Farbraumtransformation 413 Farbtiefe 32 Farbton (hue) 31 Fernerkundung 365-422 - Einsatzmöglichkeiten 366-367 - Grundprinzip 367-369 - Physikalische Grundlagen 370-374 - Bilder in der Fernerkundung 394-396 Fernerkundungsdaten 395-396 Festplatte 123 Festwertspeicher 111 File 80 File Transfer, File Transfer Protocol FTP siehe Internet Filtermethoden in der Fernerkundung 408-410 Firewall 68 Firmware 13 Flash 69 Flashspeicher 125 Fließbandverarbeitung (Pipeling) 115 Flüssigkristallanzeige 133-134 Flussdiagramm 16, 17 Fokale Operatoren der Map Algebra 352 Gauß-Krüger-System 183-184,185, 190, 191-192 Galileo 224 Generalisierung 213-214 Geobasisdaten 225-242 Geocodierung siehe Georeferenzierung Geodaten 197, 212, 214, 207, 208, 210, 213, 225, 242-244
Geodateninfrastruktur GDI 242-244 Geodätische Abbildungen 177, 189-196 Geodätische Bezugssysteme 181-189 Geodätisches Datum 183-186 - Hermannkogel Datum 193 - Potsdam-Datum 184 - Pulkowo-St.Petersburg-Datum 184 Geographic Information Science 2 Geographische Breite, Länge 169, 170 Geographisches Gradnetz 178 Geoid 188, 189 Geoidundulation 189 Geoinformatics 3 Geoinformatik 1, 2, 3,4 Geoinformation 2 Geoinformationssystem (GIS) 1, 238, 246, 274, 275, 279, 319-364 - Definition 320-321 - Vierkomponentenmodell 322-325 - Entwicklung 366 - Vektormodell 328-331 - Rastermodell 332-334 - Gegenüberstellung Vektor- und Rastermodell 335-336 Geomatik 2 Geometrie 160 GeoMIS.Bund 211, 243-244 Geoobjekt 159-166, 197, 199, 319, 320 - Geometrisch-Topologische Modellierung im Vektormodell 328-331 - Geometrisch-Topologische Modellierung im Rastermodell 332-334 - Analyse von Geoobjekten im Vektormodell 337-345 - Analyse von Geoobjekten im Rastermodell 345-352 - Dimensionen 157, 164 - Dynamik von Geoobjekten 165-166 - Thematik von Geoobjekten 165, 334-335 - Geometrie von Geoobjekten 160-163 - Topologie von Geoobjekten 163-164 GeoPortal.Bund 243-244 Georeferenzierung 171-172, 175, 337, 399 geostationäre Satelliten 377-378 geosynchrone Satelliten 377-378 GeoVRML 69 Geräteauflösung 24 Geschachtelte relationale Datenbanksysteme 318 Gestaltungsmerkmale Graphik 261, 257-265 Global Navigation Satellite System GLONASS 217, 224
Sachverzeichnis
449
Global Positioning and Navigation Satellite System GNSS 224 Global Positioning System, GPS 206, 216-224 - Differentielles GPS 221-222 Gradnetz 170, 177 Graph, Typen von Graphen 94-95 Graphikadapter 120-121 Graphiksprachen 65 - Graphical Kernel System 66 - Open Graphic Language, OpenGL 67 - PHIGS 66 Graphikstandards 120 Graphiktablett 128 Graphische Benutzeroberfläche 145 Graphische Darstellung von Informationen 245 Graphische Informationsverarbeitung 65, 245-249, 274-276 Graphische Gestaltungsmittel 257-265 graphische Kommunikation 249-257 - Primärmodell 250 - Sekundärmodell 250-251 - Tertiärmodell 250-251 Graphische Semiologie 253-257 Graphische Variable 252, 254, 255 Graustufen, Grauwerte 23, 24, 29, 32, 336, 338, 341, 376, 395, 397-414 Großkreis 170 GRS80 182-185 Handheldgeräte 128 Hardware 12 Hauptkomponententransformation 408 Hauptspeicher siehe Arbeitsspeicher Helligkeit (value / intensity) 31 Helmert-Transformationen 186 Hexadezimalsystem 20 High Resolution Stereo Camera Airborne, HRSC-A 392-393 Histogrammangleich 406 Histogrammmatching 411 Hochpassfilter 410 Höhe 188-189, 190 - Höhe über NormallNull 189 - Höhe über dem Geoid 189 - ellipsoidische Höhe 189 HSI-Transformation 413 HTML Hypertext Markup Language 67, 153-155 hue (Farbton) 31, 266 Hypermap-Konzept 270-271 IDW Interpolation
358-359
IHS-Transformation 413 Interministerieller Ausschuss für Geoinformationswesen IMAGI 210, 243-244 Indexbilder 369, 406, 407 Indian Remote Sensing Satellite, IRS 387-388 Informatik 5 - Theoretische Informatik 6 - Praktische Informatik 6 - Technische Informatik 6 - Angewandte Informatik 6,7 - Kerninformatik 6,7 - Entwicklung der Informatik 7 - Informatik und Gesellschaft 8 Information 9 Informationssystem 319-320 - Begriff 319 - Vierkomponentenmodell 320 - Kommunales Informationssystem 322 - Regionales Informationssystem 322 Informationssysteme im Internet 155-156 Informatisierung der Geographie 1 Infrarot 372, 367 Inkrementelle Operatoren der Map Algebra 352 Instantaneous Field of View, IFoV 376, 379 Integer, Datentyp 72-73 intensity (Helligkeit) 31 Internationaler Terrestrischer Referenzrahmen ITRF 185 Internet, Internetdienste 151-156 - World Wide Web 153 - Electronic Mail, E-Mail, email 152 - Usenet News 152 - Terminal Emulation, Telnet 152 - File Transfer 153 Internetprogrammierung 68-70 Interoperabilität von Geodaten und Funktionalitäten 364 Interpreter 49 Inzidenz 94 Isodata-Verfahren 101, 415 Item 80 Iteration 56, 84, 85 Java 63-65, 67, 68, 155 Job Control Language JCL 144 Kalibrierung 201 Kanäle 374, 380-381, 382, 386, 394 Kante 79-80, 93, 94-95, 166, 202, 330-331, 332, 353, 356 Kappa-Koeffizient 421
450 Kapselung 62 Kardinalität 29 Karte 163, 177-181, 213-214, 246, 247, 248, 250-253, 257, 258-262, 271, 262, 263, 271 - Gestaltungsmerkmale 261-262 - Beschriftungen 264-265 Kartennetzentwürfe 177-181 Kartenprojektion 177-181 Kartenrandbehandlung 340 Kartographie 29, 245-248, 253, 257, 270-277 - Multimediale Kartographie 277-280 - Web-Kartographie 278-279 Kartographische Abbildungen 177 Kartographische Potenziale 274-277 Kathodenstrahlröhre 131-133 Kegelprojektion 178 Kettencodierung 333 Klassen, Klassenbibliotheken 62-64 Klasseneinteilung 262-264 Klassifikation 99-101, 415-419 - überwachte K. von Pixeln 416-419 - unüberwachte K. von Pixeln 415-416 Klassifikationsgenauigkeit 420-421 Kleingeldmethode 259-260 Knoten 79-80, 94-98, 166, 202, 330-331, 353-354, 356 Knoten-Kanten-Knoten Erfassung 202 Knoten-Kanten-Knoten-Topologie 330- 331, 352, 353 kognitive Karten 160 Kombination von Bildern 411-414 Kommandosprache 144 Kommunikationsschnittstelle 149-151 Komplementärfarben 28 Komplexität 87, 88, 296 Konfusionsmatrizen, Konfusionstabellen 420 Kontextmenü 146 Kontraststreckung 404-405, 413 Kontrastverbesserung 404-406 Koordinaten, Koordinatensystem 23, 89-94, 128, 161, 162, 167-177, 186-188, 190196, 196-197, 202, 328-331 - kartesische Koordinaten 161, 167-168, 172, 186,191 - Polarkoordinaten 168-169 - Geographische Koordinaten 161, 168-170, 187, 190 - Homogene Koordinaten 171, 173-174 Koordinatentransformation 171-176 - affine Transformation 172-173 - projektive Transformation 174 - polynomische Transformation 174
Sachverzeichnis Kriging Kürzeste Wege in einem Netzwerk
359 354
Landinformationssystem 321 Landsat 380-384, 396 Landschaftsinformationssystem 321 Längenkreis 169 Laserdrucker 137-138 Lauflängencodierung 333 Layerprinzip 165, 334 LED-Drucker (Light Emitting Diode Drucker) 139 Level of Detail LOD 257 Ligthness (Helligkeit) 266 Linken, Linker 48, 50 Liquid Crystal Display LCD 133-134 LCS-Drucker (Liquid Crystal Shutter Drucker) 139 Loader 50 Lokale Operatoren der Map Algebra 352 Loxodrome 181 Luftlicht 372 Magnetische Speicher 121 Magneto Optical Disk 123 Majority-Filter 409 Map Algebra 348-352 Masche 162 Maschinenprogramm 35, 41-43 Maschinensprache 17, 42, 46 Maskieren 350, 409, 418 Massenspeicher 121 Matrix 77 Matrixmultiplikation 84 Maximum-Likelihood-Klassifikation 416, 417-418, 422 Medianfilter 409 Mehrfachnutzung Daten 212, 214, 216, 324 Mehrbenutzersynchronisation in DBMS 312 Mercatorkarte 180-181 Meridian 169 Meridianstreifen 191-192, 193 Merkmale siehe Attribute Metadaten 197, 207-214, 324, 335 - Pragmatische M. 208 - Semantische M. 208 - Syntaktische M. 208 Metadaten-Informationssysteme 210-211 Meteosat 379, 396 Metrik, metrische Räume 167-168, 322 - Euklidische Metrik 167
Sachverzeichnis - City-Block-Metrik 168 168 - Lr-Metriken - Mahalanobis-Metrik 168 - Manhattan Metrik 168 Mikromaschine 37 Minimum-Distanz-Klassifikation 416, 417 Minimum Enclosing Rectangle MER 92 Mischpixelproblematik 419, 420 Mittellinienextraktion 204 Mittelwertfilter 409 Modalfilter 409 Modellierung von Flächen 356-358, 360-364 Modulare Programmierung 59-61 Modularisierung 103 Monitor 131-133 Mosaikierung 411-412 - radiometrische M. 411-412 Motherboard 110-113 Multimedia, Multimediale Visualisierung 245, 276, 270-273, 276 Multimediale Techniken 277-281 Multispectral Scanner, MSS (Landsat) 368, 380, 381-383 Multispektralklassifikation 414-421 Multi-Tasking 142 Multi-Threading 142 Nachbarschaft 159, 164, 166, 331, 332, 336, 340, 3480 Nachricht 9 Nassi-Shneiderman-Diagramm 16, 57, 104 Netztopologie 148 Netz unregelmäßiger Dreiecksflächen 361 Netzwerkanalyse 352-356 Netzwerke 147-156, 352 - Client-Server-Netzwerke 149 - Netztopologie 148 - Peer-to-Peer Netzwerk 149 - local area network 148 - wide area network 148 - Netzwerkprotokolle 149-151 NF2-Relationen 318 NOAA 379-380 Normalformen 300-303 Normalized Difference Vegetation Index NDVI 407 Normbasierte Austauschschnittstelle NAS 240 Normierung 215 Normungsorganisationen 215 Notepad 129 numerische Daten / Zeichen 10
451 Nutzerbezogenen Bestandsdatenaktualisierung (NBA)
240
Objekt Database Management Group (ODMG) 316 Objektabbildungskatalog, OBAK 228, 230 Objektklassenprinzip 165, 334-345 Objektorientierte Programmierung 62-65 Objektorientiertes Datenbanksystem 294, 313-316 Objektorientierung 2, 62-65, 104, 106-107, 313-316 Objektrelationales Datenbanksystem 293, 318 Objektschlüsselkatalog, OSKA 229 Österreichisches Bundesmeldenetz 193 Online-Informationssysteme 279, 364 O-Notation 87-88 On-Screen-Digitalisierung 197, 205-206, 345 Open GIS Consortium, OGC 216 Operating System 143-147 Operatoren der Map Algebra 352 Optical Character Recognition OCR 130 opto-elektronische Scanner 385 opto-mechanische Scanner 383, 400 Orbit, polnaher, geostationärer, sonnensynchroner Orbit 377-378 Orthodrome 170 Orthorektifizierung 401 Overlay-Funktionen im Vektormodell siehe Räuml. Überlagerungsfunktionen P-Code 218 Panoramaverzerrung 383 Parallelkreis 170 passive Daten 10 Passpunktbestimmung 175-176, 402 Pen Computer 129 Pentop 129 Personal Computer, PC 7, 12 Phase-Change-Technik 124 Photogrammetrie 370 physikalische Speicherbereich 114 Piezo Verfahren 136-137 Pipeling (Fließbandverarbeitung) 115 Pixel, picture element, Pixelgraphik 23, 162, 202 pixels per inch, ppi 24 Plotter 140-141 PlugIns 155 Polarkoordinaten 168-170 Polygon 93, 94, 330-331, 337, 360-361 Polymorphie, Polymorphismus 62-63 PostScript 140
452
Sachverzeichnis
Potsdam Datum 184 Precise Positioning Service PPS (GPS) 219 Primärdaten 197 Programm 12, 17 Programmablaufplan 16 Programmausführung 48, 49 Programmierebenen 49 Programmierkonzepte 17 - Objektorientierte Programmierung 52, 62-65 - Strukturierte Programmierung 55-59 - Modulare Programmierung 59-61 Programmiersprachen 47, 51-54 - Höhere Programmiersprachen 47, 51-54 - Funktionale (applikative) Programmiersprachen 52 - Imperative Programmiersprachen 52, 53 - Prädikative Programmiersprachen 52-53 - Objektorientierte Programmiersprachen 52-54 - Problemorientierte Programmiersprachen 47 Programmierung 45-70, 54-65 Programmierumgebung 50 Projektion - flächentreue P. 178 - längentreue P. 178 - normale P. 179 - winkeltreue P. 178 - Azimutalp. 178, 179 - Kegelp. 178, 180 - Zylinderp. 178, 180-181 Projektion in Datenbanksystem 307, 309 Prototyp, Prototyping 106 Prozedur 55 Prozess 12 Prozessor 33, 34, 36-38, 113-119 Pulkowo – St. Petersburg Datum 184 Quader-Klassifikation Quad-Tree-Modell Quellcode Quellprogramm
416, 417 333-334 17, 48 49
Radar-Fernerkundung 389-390 radiometrische Korrekturen 397-399 RAID, (Redundant Array of Inexpensive (Independent) Disks 126 Randanpassung 340 Randlinienextraktion 204 Random Acces Memory, RAM 38, 110, 111 Rastergraphik 23 Rasterisierung 203 Rastermodell 162, 332-334, 335-336
Rasterplotter 141 Rauminformationssystem (RIS) 322 Räumliche Interpolation 356-357, 358-359 Räumliche Überlagerungsfunktionen im Rastermodell 349-350 Räumliche Überlagerungsfunktionen im Vektormodell 341, 342-345 Read Only Memory ROM 111 Real, Datentyp 73-74 Rechenanlage 11 Rechenleistung 114 Rechensystem 11 Rechenwerk 36 Rechnerarchitektur 43-45 - SIMD-Architektur 43 - SISD-Architektur 43 - MIMD-Architektur 45 - MISD-Architektur 44 Record 76, 80 Recoveryfunktion in DBMS 312 Redundanzfreiheit in DBMS 289 referentielle Integrität in DBMS 306, 311 Referenzellipsoide 182 Reflexionskurven 373-374 Register 36-38 - Statusregister 37, 38 - Befehlsregister 37 - Zustandsregister 37 - Arbeitsregister 36 Rekursion 41, 84, 85 Relationale Datenbanksysteme RDBMS 278, 278, 293, 299-300, 313, 315 Relationship 295 - Relationship-Typen 296 - one-to-one Relationship 296 - one-to-many Relationship 296 - many-to-many Relationship 296 Remote Sensing siehe Fernerkundung Resampling 400, 402-404 Ringtopologie 148 RISC, Reduced Instruction Set Computer 115-116 RMS-Fehler 176, 201, 402-403 Rundreiseproblem 88, 97, 98, 354 Sachdatenkonvertierung - Raster-Vektor-Konvertierung - Vektor-Raster-Konvertierung Sättigung (saturation) Salz und Pfeffer-Effekt Satellitenpositionierungssystem SAPOS saturation (Sättigung)
347-348 347-348 347 31 420 221-222 31, 266
Sachverzeichnis Scalable Vector Graphics, SVG 69 Scanner 129-130 - CCD-Scanner 129 - CIS-Scanner 130 Scanner in der Fernerkundung 368, 374, 375-377, 383-385, 392, 400 Schleife 56 Schlüssel 284, 299 - Fremdschlüssel 285, 299 - Identifikationsschlüssel 285, 299 - Primärschlüssel 284 Schnittstelle - parallele Schnittstelle 112 - serielle Schnittstelle 112 - Universal Serial Bus, USB 112 - Graphikschnittstelle 110 - Benutzerschnittstelle 120 - Mensch-Maschine-Schnittstelle 129, 143, 145 - Kommunikationsschnittstelle 149-151 Schriftgestaltung 260, 264-265 Sekundärdaten 197 Selective Ability SA (bei GPS) 219 Selektion in DBMS 307, 309 Selektion in Programmiersprachen 56 Sensorsegment 368-369 sequentiell 40 Sequenz 56 Signal 9 Signaturen 257-261 - punkthaft 259 - linienhaft 259 - flächenhaft 259 - bildhafte (sprechende Signaturen 258 - geometrische (abstrakte) Signaturen 258 - Mindestgrößen 260 - Werteinheitsignaturen 259 Signaturenkatalog 239 Signaturkurven 368, 374 Single Tasking 142 Skalenniveau 71, 165 - metrisches Skalenniveau 71, 165 - nominales Skalenniveau 71, 165 - ordinales Skalenniveau 71, 165 Skelettierung, Skelett einer Rasterstruktur 204, 350 Sockelleiste, Slots 110, 112 Sockelplatz 110 Software 12 - Anwendungssoftware 12, 45 - Programmierung 45-70 - Systemsoftware 12, 45, 141 - Graphikssoftware 65-67, 69-70
453 - systemnahe Software 141 - Standardsoftware 157 - Branchensoftware 157 - Individualsoftware 157 Software Engineering 104 Softwareentwicklung 102-108 - Schrittweise Verfeinerung 103 - Bottom-Up-Entwicklung 103 - Top-Down-Entwicklung 103 - Objektorientierte Softwareentwicklung 107 Software-Hardware-Hierarchie 13 Softwarequalität 157 Softwarerisiko 157 solare Strahlung 371 sonnensynchrone Satelliten 377-378 Sourcecode 17, 48 spätes Binden 63 Speicher 38, 121-126 - Massenspeicher 121 - sequentielle Speicher 121 - Direktzugriffsspeicher 122 - Flashspeicher 125 - externe Speicher 111 Speicherung 80-81 - sequentielle Speicherung 80 - gestreute Speicherung 81 - indizierte Speicherung 81 spektraler Fingerabdruck 368 Spezialisierung in DBMS 316-317 Stammdatei 286 Standard Positioning Service SPS (bei GPS) 218 Standard Query Language SQL 308-309 Standarddatentypen 72-76 Standards von Daten u. Geodaten 214-216 Stapelbetrieb 142 Steckkarte 110 Sterntopologie 148 Steuerwerk 37-38 Strahlung 368, 70-373 - solare S. 371, 373 - elektromagnetische S. 370 - thermale S. 370 Strahlungsvorgänge in der Atmosphäre 367-368, 370, 371 Streuungsvorgänge 362 String, Datenty 75 Struktogramm 17 Strukturblock 55, 57 Strukturierte Analyse 104 Strukturierte Programmierung 55-59 Strukturierter Entwurf 104
454 superskalare Bauweise 115 Symbol 10 System 42/83 184, 186 Système Probatoire d´ Observation de la Terre SPOT 384-387, 396 systemkorrigierte Daten 368, 381-382 Taktfrequenz 114 TCP/IP 150-151 Thematik 165 Terminal Emulation, Telnet, siehe Internet Thermotransferdrucker 139 Thiessen-Polygone 360 Thin-Film-Transistor-(TFT) Display 134 Tiefpassfilter 408-409 TIN, Triangulated Irregular Network 361 Tintenstrahldrucker 136 TM, Thematic Mapper (Landsat) 380, 381-382 Topologie 163-165 Topologische Beziehungstypen 164 Trainingsgebiete 416-417 Transaktion in DBMS 311 Transformationen 171-176 - Affine T. 172-173 - Projektive T. 174 - Polynomische T. 174 Translation 173 Traversierung 80 Treiber 144 Trendflächenanalyse 357-358 Triangulation siehe Dreiecksvermaschung Trigger in DBMS 311 True Color, Truecolor 32 überwachte Klassifikation 416-419 Umweltdatenkatalog, UDK 208-209 Umweltinformationsnetz Deutschland 208-209 Umweltinformationssysteme (UIS) 321, 322 Universales Transversales Mercator Koordinatensystem, UTM 181, 186, 190, 195, 196 Unterprogramm 55 unüberwachte Klassifikation 415-416 URL 153 value (Helligkeit) 31 Variabilität, räumliche 166 Variablenkonzept 54 Vegetationsindizes 406-407 Vektorgraphik 23 Vektorisierung 203 Vektormodell 161, 328-321, 335-336 Vektorplotter 140
Sachverzeichnis Veredlungssegment 369 Verdickung im Rastermodell 349 Verdünnung im Rastermodell 349 Vererbung 62 Vergleich Vektor- und Rastermodell 335-336 Verknüpfung in DBMS 300, 307, 309 Verschneidung siehe Räuml. Überlagerungsfunktionen Verteiltes Arbeiten 153-156 Vielfach- bzw. Mehrbenutzerzugriff 290 Virtual Reality Modelling Language, VRML 69, 70 Virtuelle Realität, Virtual Real. 245, 276, 280 Visualisierung 247, 248, 272 von-Neumann-Rechner 33-41 - Konstruktionsprinzip 34 - Operationsprinzip 39 - Datumszustand 40 - Befehlszustand 40 von-Neumann-Zyklus 40 Vorgehensmodelle der Softwareentwicklung 103, 104-108 - Phasenmodell 104 - Spiralmodell 106 - Wasserfallmodell 106 - V-Modell 107-108 Voronoi-Polygone 360 Voxel 162 Web-Mapping 277-282 Wertebereich 294 Werteoberfläche 239, 357, 361, 362, 364 Wettersatelliten 378-380 WGS84 182, 185, 220 Wide Area Augmentation System, WAAS 223-224 Widerstandswerte in einem Netzwerk 353 Workstation 12 World Wide Web siehe Internet Write Once Red More (WORM)Platten 125 Wortlänge 36 X3D XML Zahlensysteme Zeichen Zeichensätze Zeiger, Datentyp Zentraleinheit Zentralpunkt Zonale Operatoren der Map Algebra
69 69 20-21 10 21 75 14 183 352