Eoinformatik-Kachelseite - (13-31) - Patrick 10.10.22
Eoinformatik-Kachelseite - (13-31) - Patrick 10.10.22
Eoinformatik-Kachelseite - (13-31) - Patrick 10.10.22
Geoinformatik
in Theorie
und Praxis
Grundlagen von Geoinformations-
systemen, Fernerkundung
und digitaler Bildverarbeitung
4. Auflage
Geoinformatik in Theorie und Praxis
Norbert de Lange
Geoinformatik in Theorie
und Praxis
Grundlagen von Geoinformationssystemen,
Fernerkundung und digitaler
Bildverarbeitung
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2002, 2006, 2013, 2020
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und
die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in
diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung
zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die
Rechte des jeweiligen Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen
und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist
ein Teil von Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort zur vierten Auflage
Seit der ersten Auflage dieses Lehrbuches hat sich die Geoinformatik unter dem
Einfluss technischer Veränderungen erheblich weiterentwickelt und vielfältig neu
ausgerichtet. Zu nennen sind vor allem die Einführung des Smartphones etwa seit
2007 sowie die rasante Bedeutungszunahme des Internets und das sich dadurch
verändernde Nutzerverhalten, das auch in der Geoinformatik zu neuen Anwen-
dungen geführt hat: u.a. OGC-Webservices, Aufbau von Geodateninfrastrukturen,
mobile Geoinformationssysteme und Informationssysteme über Geoobjekte im
Internet, die häufig verkürzt Web-GIS genannt werden. Inzwischen stehen vielen
Anwendern Daten ubiquitär auf mobilen Endgeräten zur Verfügung. Diese sind aus
dem Alltag und insbesondere aus Anwendungen in der Geoinformatik nicht mehr
wegzudenken. Das Thema „Digitalisierung“, das vielfältige räumliche Implikationen
hat und somit auch die Geoinformatik betrifft, wird die 2020er Jahre prägen.
Aus diesen Gründen wurden die Kapitel der letzten Auflage nicht nur aktuali-
siert, sondern vor allem auch neu akzentuiert. Ausführungen zu Computersyste-
men sind gegenüber den vorherigen Auflagen gekürzt worden. Weiterhin stellt das
dritte Kapitel Grundlagen aus der Informatik zusammen, um zum einen dem Be-
zug zur Informatik und der Brückenfunktion der Geoinformatik Rechnung zu
tragen, und zum anderen, um Anwendern ohne tiefe Informatikgrundkenntnisse
grundlegende Konzepte und Zusammenhänge aufzuzeigen. Sämtliche Kapitel
wurden ergänzt, wobei noch stärker auf den Anwendungsbezug z.B. bei der Arbeit
mit Geoinformationssystemen geachtet wurde. Insbesondere sind Hinweise und
Wünsche von Studierenden aus vielen Praxisveranstaltungen eingeflossen. Vor
dem Hintergrund eines zu wünschenden, ungehinderten Datenaustausches wurde
das Kapitel zu Geodatenstandards und Geodateninfrastrukturen ausgeweitet. Den
Geodatenbanken wurde größerer Raum gewidmet. Das Kapitel zur Fernerkun-
dung, die nach der vorliegenden Buchkonzeption einen integralen Bestandteil der
Geoinformatik darstellt, wurde hinsichtlich neuer Sensoren aktualisiert und um
neue Klassifikationsverfahren mit Methoden der Künstlichen Intelligenz erweitert.
Da viele Leser inzwischen das Buch in der digitalen Version lesen, sind Belege,
die auf Quellen im Internet verweisen, direkt verlinkt worden.
Diese Neuauflage hätte ohne die Unterstützung mehrerer Kolleginnen und Kolle-
gen nicht erstellt werden können. Der Autor dankt daher allen Personen, die ihm
wertvolle Hinweise und Anregungen gaben. Zu nennen sind die Studierenden des
Masterstudiengangs Geoinformatik der Universität Osnabrück, die sich in einer
Seminarveranstaltung mit aktuellen Fragen der Geoinformatik beschäftigt haben und
diese Inhalte eingefordert haben. Insbesondere möchte ich meinem Kollegen Herrn
Prof. Dr. B. Waske sowie vor allem meinem Mitarbeiter Herrn M. Sc. M. Storch für
die kritische Durchsicht der Kapitel und für viele wertvolle Anregungen danken. Ein
Dankeschön geht auch an meinen studentischen Mitarbeiter Herrn B. Sc. O. Lehm-
kuhl für die aufwendigen Materialrecherchen.
Schließlich danke ich dem Springer-Verlag sowie Frau Dochnal, Frau Dr. Preuss
und Frau Saglio für die zuvorkommende und bewährte gute Zusammenarbeit.
1 EINFÜHRUNG 1
1.1 Ansatz und Aufgaben der Geoinformatik ................................................ 1
1.2 Ethische Herausforderungen der Informatik und Geoinformatik ............ 9
9 GEOINFORMATIONSSYSTEME 373
9.1 Konzepte digitaler Informations- und Geoinformationssysteme ........ 373
9.1.1 Informationssysteme............................................................. 373
9.1.2 Vier-Komponenten-Modelle eines Informationssystems ..... 374
9.1.3 Begriff Geoinformationssystem ........................................... 375
9.1.4 Vier-Komponenten-Modell eines Geoinformationssystems. 376
9.1.5 GIS-Software ........................................................................ 378
9.1.6 Geoinformationssysteme und ähnliche Systeme .................. 380
9.2 Web-GIS .............................................................................................. 381
9.2.1 Begriff und Funktionsweise eines Web-GIS ........................ 381
9.2.2 Web-GIS in der Praxis.......................................................... 382
9.2.3 Web-Mapping als Web-GIS-Ersatz? .................................... 383
9.3 Modellierung von Geoobjekten in einem Geoinformationssystem ..... 384
9.3.1 Geoinformationssystem als Modell der realen Welt............. 384
9.3.2 Geometrisch-topologische Modellierung von Geoobjekten
im Vektormodell................................................................... 385
9.3.3 Geometrisch-topologische Modellierung in der Praxis ........ 390
9.3.4 Geometrisch-topologische Modellierung von Geoobjekten
im Rastermodell ................................................................... 392
9.3.5 Speicherung von Geometrien im Rastermodell .................... 393
9.3.6 Thematik von Geoobjekten .................................................. 395
9.3.7 Vergleich von Vektor- und Rastermodell ............................. 396
9.4 Bearbeitung und raumbezogene Analyse von Geoobjekten
im Vektormodell .................................................................................. 397
9.4.1 Erfassen und Editieren von Geoobjekten im Vektormodell . 397
9.4.2 Verwaltung von Geoobjekten: Datenabfragen und
Suchoperationen ................................................................... 399
9.4.3 Fortführung und Aktualisierung von Geoobjekten
im Vektormodel .................................................................... 399
9.4.4 Räumliche Überlagerungen und geometrisch-topologische
Analysefunktionen von Geoobjekten im Vektormodell ....... 401
9.5 Bearbeitung und raumbezogene Analyse von Geoobjekten
im Rastermodell................................................................................... 405
9.5.1 Aufbereiten von Rasterdaten ................................................ 405
9.5.2 Konvertieren von Sachdaten auf Rasterbasis........................ 407
9.5.3 Räumliche Analysen von Rasterdaten .................................. 408
9.5.4 Map Algebra ......................................................................... 411
9.6 Netzwerkanalysen................................................................................ 413
9.6.1 Das Netzwerkdatenmodell .................................................... 413
9.6.2 Analyse optimaler Wege in einem Netzwerk ....................... 414
9.6.3 Ermittlung von Einzugsgebieten .......................................... 415
9.6.4 Weitere Analysemöglichkeiten in einem Netzwerk ............. 416
Inhaltsverzeichnis XV
SACHVERZEICHNIS............................................................................... 511
1 Einführung
Mit der Geoinformatik ist ein interdisziplinäres Fachgebiet entstanden, das eine
Brückenfunktion zwischen Informatik, Geographischen Informationstechnologien
und Geowissenschaften oder raumbezogen arbeitenden Wissenschaften ausübt:
Die Etablierung der Geoinformatik als eigenständige Disziplin ist inzwischen voll-
zogen. Wissenschaftliche Einrichtungen und Professuren, Studiengänge, Lehrbü-
cher und Zeitschriften, Tagungen und Vereinigungen sind hierfür klare Indikatoren,
ebenso wie Fachmessen zur Geoinformatik oder die öffentliche Akzeptanz und Ver-
wendung des Begriffs als Bestandteil von Firmennamen. Eine breitere wissen-
schaftstheoretische Diskussion um Inhalte von Geoinformatik setzte erst allmählich
ein (vgl. Bill u. Hahn 2007 u. Ehlers 2006), sie ist allerdings ins Stocken geraten
und nicht abgeschlossen.
Gegenüber der jüngeren Bezeichnung Geoinformatik ist seit Längerem der sehr
schillernde Begriff GIS eingeführt, der im engeren Sinn nur für Geoinformations-
systeme steht, häufig aber mit dem neuen Arbeits- und Forschungsgebiet der Geoin-
formatik gleichgesetzt wird, ohne es allerdings abzudecken. Die ältere Bezeichnung
Geographische Informationssysteme für GIS deutet auf die Herkunft bzw. auf das
frühere Selbstverständnis als Werkzeug der Geographie hin. Die Dominanz von
„GIS“ u.a. in den raumbezogen arbeitenden Fachdisziplinen ist vor allem auf die
1964 Gründung des Harvard Laboratory for Computer Graphics and Spatial Analysis, in
dem zukunftsweisende Softwaresysteme wie SYMAP (ein erstes Raster-GIS) oder
ODYSSEY (ein erstes Vektor-GIS) entwickelt wurden
1971 operationeller Einsatz des Canada Geographic Information System (CGIS) durch Ro-
ger Tomlinson („Vater“ von GIS)
1972 Start des ersten Landsat-Satelliten (ursprünglicher Name ERTS-1)
1973 Veröffentlichung des Sollkonzepts für das Automatisierte Liegenschaftskataster als
Basis der Grundstücksdatenbank durch die Arbeitsgemeinschaft der Vermessungs-
verwaltungen der Länder der Bundesrepublik Deutschland
1983 Entwicklung der Map Algebra in der PhD-Dissertation von C. Dana Tomlin als eine
Menge grundlegender Operatoren zur Manipulation von Rasterdaten
1984 1. International Spatial Data Handling Symposium in Zürich mit richtungsweisenden
Vorträgen u.a. von Tomlinson und Goodchild
1985 Operationelle Verfügbarkeit von NAVSTAR GPS (Global Positioning System), des
weltweit wichtigsten, satellitengestützten Ortungssystems
1988 Gründung des National Centre for Geographic Information and Analysis (NCGIA),
Forschungsnetz zur Weiterentwicklung von Theorie, Methoden und Techniken der
Analyse von geographischen Informationen mit GIS
1989 Veröffentlichung der ATKIS-Gesamtdokumentation (Amtliches Topographisch-Kar-
tographisches Informationssystem) durch die Arbeitsgemeinschaft der Vermessungs-
verwaltungen der Länder der Bundesrepublik Deutschland
1989 erstes AGIT-Symposium in Salzburg (ursprünglich Angewandte Geographische In-
formationstechnologie), seitdem jährlich stattfindende, im deutschsprachigen Raum
bedeutendste Symposien für Angewandte Geoinformatik
1994 Gründung des Open Geospatial Consortium (OGC) als Open GIS Consortium, eine
gemeinnützige Organisation zur Entwicklung von Standards raumbezogener Infor-
mationsverarbeitung (insbesondere Geodaten) zur Gewährleistung der Interoperabili-
tät
1999 zivile Verfügbarkeit hoch aufgelöster Satellitenbilder von bis zu unter 1 m Bodenauf-
lösung (Erdbeobachtungssatellit IKONOS-2)
2000 Abschaltung der sog. Selective Availability der GPS-Signale und Beginn einer brei-
ten zivilen Nutzung von GPS (Navigationssysteme und Location Based Services)
2004 Start vom Open Street Map-Projekt, der Entwicklung von frei nutzbaren Geodaten
(Open Data) und einer Weltkarte ähnlich dem Konzept von Wikipedia
2005 Geohype durch zunehmende Verbreitung von Google Earth
2006 Gründung der Open Source Geospatial Foundation (OSGeo), eine gemeinnützige Or-
ganisation zur Entwicklung und Nutzung von freien und quelloffenen GIS
2007 Inkrafttreten der INSPIRE Richtlinie der EU (Infrastructure for Spatial Information
in Europe) zum Aufbau einer europäischen Geodateninfrastruktur
2007 Einführung des iPhone und Ausbau von Navigationssystemen sowie von standortbe-
zogenen Diensten für Smartphones und Tabletcomputer, die die gerätespezifische
Sensorik für Geo-Anwendungen nutzen
2009 Bundesgesetz über den Zugang zu digitalen Geodaten u.a. mit Regelung der geldleis-
tungsfreien Bereitstellung von Geodaten und Geodatendiensten des Bundes
2014 Start des ersten Sentinel Satelliten des Copernicus-Programms zur komplexen Erdbe-
obachtung für Umwelt, Verkehr, Wirtschaft und Sicherheitspolitik
2016 Allgemeine Verfügbarkeit von GALILEO, dem ersten, unter ziviler Kontrolle ste-
henden, weltweiten Satellitennavigations- und Ortungssystem der ESA
2016 Virtual und Augmented Reality (öffentlichkeitswirksam verbreitet durch Geo-Spiele
wie Pokémon Go)
4 Einführung
Während sich in den 90er Jahren im deutschen Sprachraum „GIS“ im Sinne von
Geoinformationssystemen etablierte, begann international eine Diskussion um
„GIS“ als Wissenschaft. Diese Neuorientierung setzte mit dem vierten „Internatio-
nal Symposium on Spatial Data Handling“ 1990 ein, auf dem von Goodchild in
seiner programmatischen Keynote Address „GIS“ als Geographic Information Sci-
ence eingefordert wurde:
„We need to move from system to science, to establish GIS as the intersection
between a group of disciplines with common interests, supported by a toolbox of
technology, and in turn supporting the technology through its basic research.“
(Goodchild 1990 S. 11).
Seit Mitte der 90er Jahre kommt im deutschen Sprachraum die Bezeichnung
Geoinformatik auf. In einer ersten Begriffsnäherung werden „unter Geoinformatik
jene Aspekte raumbezogener Informationsverarbeitung verstanden, die sich mit for-
malen und theoretischen Grundlagen befassen und mit Methoden der Informatik
untersucht werden“ (Kainz 1993 S. 19). Die überarbeitete Neuauflage des Buches
„GIS-Technologie“ (Bartelme 1989), verbunden mit einer Umbenennung in
„Geoinformatik“ (Bartelme 1995), markiert deutlich die Neuorientierung, nach wie
vor besteht jedoch eine enge Beziehung zu Geoinformationssystemen.
Allerdings ist Geoinformatik mehr als ein Geoinformationssystem (GIS). Zwei-
fellos sind Geoinformationssysteme die wichtigsten Werkzeuge der Geoinformatik,
was eben dazu geführt hat, dass die neue Disziplin selbst mit GIS gleichgesetzt
wurde und eine Diskussion „Werkzeug oder Wissenschaft“ einsetzte (vgl. Blaschke
2003). Jedoch sind Fernerkundung und digitale Bildverarbeitung untrennbare Be-
standteile der Geoinformatik. Sie erfassen und stellen räumliche Daten oder Geoin-
formationen bereit und analysieren sie im Hinblick auf raumrelevante Fragestellun-
gen. Ebenso erfolgt in Geoinformationssystemen häufig und in immer stärkerem
Maße eine gemeinsame Verarbeitung und Analyse von Fernerkundungsinformatio-
nen mit weiteren Geodaten. Vor allem Ehlers hat bereits früh in mehreren Beiträgen
die enge Zusammengehörigkeit von GIS und Fernerkundung thematisiert (vgl. Eh-
lers u.a. 1989 u. 1991, Ehlers u. Amer 1991 u. Ehlers 1993, Ehlers 2000).
Hier soll Geoinformatik sehr allgemein definiert werden. Deutlich sollen die
Nähe zur Informatik wie auch das Besondere der in der Geoinformatik zu verarbei-
tenden Informationen werden:
Die Geoinformatik widmet sich der Entwicklung und Anwendung von Methoden
und Konzepten der Informatik zur Lösung raumbezogener Fragestellungen unter
besonderer Berücksichtigung des räumlichen Bezugs von Informationen. Die
Geoinformatik beschäftigt sich mit der Erhebung oder Beschaffung, mit der Model-
lierung, mit der Aufbereitung und vor allem mit der Analyse sowie mit der Präsen-
tation und der Verbreitung von Geodaten.
Das folgende Anwendungsbeispiel verdeutlicht die Umsetzung dieser Defini-
tion: Für eine Stadt soll aufgezeigt werden, wie die Wohnbevölkerung durch den
ÖPNV versorgt wird. Auswertung von Fahrgastzahlen, Befragungen von Fahrgäs-
ten oder der Wohnbevölkerung sowie Bewertungen von Zugänglichkeit oder Aus-
Ansatz und Aufgaben der Geoinformatik 5
stattung einer Haltestelle können methodische Ansätze zur Bearbeitung der Auf-
gabe sein. Die Geoinformatik untersucht hingegen die raumbezogene Fragestellung,
wobei der räumliche Bezug der Informationen, d.h. die Standorte der Haltestellen
und der Haushalte sowie die Wege, berücksichtigt werden: Die Bewohner wie vieler
Haushalte erreichen die nächstgelegene Bushaltestelle innerhalb von maximal zehn
Gehminuten? Darauf aufbauend können die Fahrtenanzahl pro Richtung und Tag
oder das Platzangebot einer Linie untersucht werden.
In einer ersten und einfachen Umsetzung der Fragestellung werden ausgehend von
einer Bushaltestelle die Einzugsbereiche mit Radius 500 m ermittelt (vgl. Abb. 1.2).
Hierdurch wird die traditionelle Zirkelschlagmethode operationalisiert. Die kom-
plexe Umsetzung berücksichtigt hingegen das vorhandene Wegenetz und bestimmt
ausgehend von einer Bushaltestelle sämtliche kürzesten Wege einer bestimmten
Länge, die in etwa 10 Gehminuten entspricht. Hierdurch entsteht eine Spinne von
Linien, die im Hinblick auf die Zielgruppe einzelne Straßen (aber keine Schnell-
straßen), Einbahnstraßen oder Fußwege umfassen (vgl. Abb. 9.26). Die Verbindung
der Enden dieser Spinne grenzt das Einzugsgebiet der Bushaltestelle im Zentrum
der Spinne ab. Das Wegenetz wird mit Hilfe von Methoden der Informatik als ge-
wichteter Graph modelliert. Wegealgorithmen liefern die kürzesten Wege. Die kon-
vexe Hülle der Endknoten definiert das Einzugsgebiet. Die Umsetzung in einer
6 Einführung
Der Informatik kommt eine Schlüsselrolle in den jüngeren Entwicklungen zu, die
alle Wirtschafts- und Gesellschaftsbereiche erfasst. Dies ist im Automobilbau be-
sonders auffällig. Während bislang primär Ingenieurleistungen die Entwicklung be-
stimmten, wird zukünftig die Informatik an ihre Stelle treten. Hardware wie Elekt-
romotoren, die u.a. Getriebe oder Abgasanlagen überflüssig machen, werden stan-
dardisiert als Bausteine zur Verfügung stehen. Software steuert den Antrieb, über-
nimmt die Navigation und regelt das autonome Fahren. Generell wird Mobilität der
Zukunft durch Informatik bestimmt.
Von der Informatik werden gewaltige Umbrüche ausgehen, die auch traditionelle
personenbezogene Interaktionen betreffen (verstärkte Zunahme von digitalen Bera-
tungsleistungen z.B. im Bank- und Versicherungsgewerbe, E-Learning). Vermut-
lich reicht die Phantasie nicht aus, sich die Möglichkeiten vor allem der sog. Künst-
lichen Intelligenz auszumalen. Informatik wird zu erheblichen Arbeitserleichterun-
gen führen und auch große Rationalisierungseffekte auslösen. Neben einer Reduk-
tion von Arbeitsplätzen wird es zur Schaffung neuer Arbeitsplätze kommen, so dass
vermutet werden kann, dass der Einsatz dieser neuen Technologien stabilisierende
Effekte auf wirtschaftliche und soziale Entwicklungen haben wird. Insbesondere ist
auf die durch die neuen Technologien entstandenen Möglichkeiten hinzuweisen, die
mit dem flexiblen Arbeiten von zuhause verbunden sind („Homeoffice“).
Informatik hat bereits tiefgreifende Einflüsse auf unsere Gesellschaft. Vor die-
sem Hintergrund hat 2018 das Präsidium der Gesellschaft für Informatik (GI) in 12
Artikeln Ethische Leitlinien verabschiedet, die die 1994 erstmals formulierten und
2004 überarbeiteten Leitlinien ersetzen. Vor allem der Artikel 10 (Soziale Verant-
wortung) zielt auf die ethische Verantwortung der Informatiker ab:
„Das GI-Mitglied soll mit Entwurf, Herstellung, Betrieb und Verwendung von
IT-Systemen zur Verbesserung der lokalen und globalen Lebensbedingungen bei-
tragen. Das GI-Mitglied trägt Verantwortung für die sozialen und gesellschaftlichen
Auswirkungen seiner Arbeit. Es soll durch seinen Einfluss auf die Positionierung,
Vermarktung und Weiterentwicklung von IT-Systemen zu deren sozial verträgli-
cher und nachhaltiger Verwendung beitragen“ (Gesellschaft für Informatik 2019).
Vielfältige Themen betreffen Ethik in der Informatik:
- Cyberwar
- Cyberkriminalität (d.h. Computerkriminalität und Internetkriminalität)
- Computerspiele und Spielsucht
- Rechte an eigenen Daten und Sicherheit eigener Daten
- Copyright und Eigentum an Software
- Computer und Bildung
- eHealth und digitale Gesundheitsakte
- Privatsphäre und Anonymität
Auch die Geoinformatik muss sich dem Thema Ethik stellen. Allerdings reicht
hier die Phantasie ebenso nicht aus, alle Auswirkungen zu übersehen.
10 Einführung
Das Konzept „Digital Earth“, eine digitale Nachbildung des gesamten Planeten,
erscheint erstmalig in Gore 1992 und wurde 1998 in einer Rede zur Eröffnung des
California Science Center weiterentwickelt (vgl. Gore 1998). Bereits jetzt veran-
schaulicht das öffentliche Datenarchiv der Google Earth Engine diese Vision durch
Bereitstellen riesiger Mengen von georeferenzierten Informationen. Das Archiv
umfasst historische Bilddaten aus mehr als vierzig Jahren und wissenschaftliche
Datensätze, die täglich aktualisiert und erweitert werden (vgl. Google Earth Engine
2019). Technisch möglich ist bereits jetzt die Vision, dass durch den ubiquitären
Zugang zu Daten mobile Endgeräte wie Tabletcomputer direkt im Gelände in der
Lage sind, die reale Ansicht z.B. einer Straße mit angrenzenden Gebäuden um Da-
ten und Ansichten wie z.B. das unterirdische und real nicht sichtbare Leitungssys-
tem zu ergänzen (augmented reality).
Die Mobilitäts-App der Zukunft, wobei die Zukunft in Vilnius bereits begonnen
hat, navigiert, bezahlt das elektronische Eisenbahn- oder Busticket, ruft und bezahlt
das Sammeltaxi, entriegelt den Mietwagen oder das Leihfahrrad. Dies ist sicher nur
eine Vorstufe von zukünftigen Mobilitätskonzepten, die mit dem Stichwort „auto-
nomes Fahren“ erst schemenhaft erkennbar sind.
Aufgrund der explosionsartigen Verbreitung von Smartphones und Geo-Apps
ergeben sich aus räumlicher Sicht für die Geoinformatik besondere ethische Her-
ausforderungen. Smartphones ermöglichen die ständige Lokalisierung seines Besit-
zers und (Rück-)Verfolgung seines räumlichen Fingerabdrucks. Google erkennt au-
tomatisch den Standort des Computers anhand seiner IP-Adresse, des Standortver-
laufs, sofern dieser aktiviert ist, sowie der zuletzt gesuchten Standorte. Diese Tech-
nik wird bei der Lokalisierung von Staus inzwischen gerne genutzt (vgl. aktuelle
Verkehrslage in Google Maps, nach – bewusster oder unbewusster – Aktivierung
von Standorterkennung auf Android-Geräten). Die Integration von Android Auto
von Google oder CarPlay von Apple in sog. Infotainmentsysteme von Kraftfahr-
zeugen steht 2019 kurz vor einer breiten Einführung.
Herausforderungen an Datenschutz und Ethik ergeben sich durch den Zugang zu
räumlich detailliert aufgelösten Informationen. Bereits jetzt ist in China durch Ka-
meras im Straßenraum und mittels Gesichtserkennung eine Personenidentifizierung
möglich, mit automatischer Zustellung von Bußgeldbescheiden bei Überschreiten
von Verkehrsgeboten. Durch hoch aufgelöste Satellitenbilder, die bereits vorhanden
sind, aber auch zivilen Nutzungen zur Verfügung stehen werden, sind selbst kleine
Objekte auf der Erde zu ermitteln. Durch Erkennen von Gesichtern oder Nummern-
schildern und Abgleich mit Datenbanken wird es technisch möglich sein, Kennt-
nisse von Personen zu haben und zu speichern, wer sich wann wo befindet. Dobson
und Fisher (2003) kennzeichneten diese Vision als „geoslavery“.
Allerdings möchte nicht jeder seine personenbezogenen Daten freigeben. Zumin-
dest ist zum sensiblen Umgang mit diesen eigenen Geodaten aufzurufen. Insbeson-
dere ist eine juristische Aufarbeitung darüber notwendig, welche Daten geschützt
werden müssen (vgl. Datenschutzprobleme von Google Street View, Unkenntlich-
machen von Gesichtern und Nummernschildern, kontroverse Diskussion um das
Erfassen von Einfamilien- oder kleineren Mehrfamilienhäusern oder bei Gehöften,
Erheben von WLAN-Parametern bei der Bilderfassung).
Literatur 11
Literatur
Goodchild, M. F. u.a. (2012): Next-generation Digital Earth. In: Proceedings of the National Acad-
emy of Sciences of the United States of America. 10, 2012, S. 11088–11094.
www.pnas.org/cgi/doi/10.1073/pnas.1202383109 (24.07.2019)
Google Earth Engine (2019): A planetary-scale platform for Earth science data & analysis.
https://earthengine.google.com (24.07.2019)
Gore, A. (1998): The Digital Earth: Understanding our planet in the 21st Century. http://por-
tal.opengeospatial.org/files/?artifact_id=6210 (24.07.2019)
Gore A (1992) Earth in the Balance: Ecology and the Human Spirit. Boston: Houghton Mifflin.
Hennermann, K. (2014): Kartographie und GIS. Eine Einführung. Darmstadt: Wiss. Buchgesell-
schaft. 2. Aufl.
Kainz, W. (1993): Grundlagen der Geoinformatik. In: Kartographie und Geo-Informationssysteme.
Grundlagen, Entwicklungsstand und Trends. Kartographische Schriften 1. S. 19–22. Bonn:
Kirschbaum.
Kappas, M. (2012): Geographische Informationssysteme. Braunschweig: Westermann = Das Geo-
graphische Seminar. 2. Aufl.
Kohlstock, P. (2018): Kartographie. Grundriss Allgemeine Geographie. Paderborn: Schöningh. 4.
Aufl.
Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (1999, Hrsg.): Geographical Infor-
mation Systems I. Principles and Technical Issues. New York: John Wiley. 2. Aufl.
Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (1999, Hrsg.): Geographical Infor-
mation Systems II. Management Issues and Applications. New York: John Wiley. 2. Aufl.
NCGIA (1990): Core Curriculum-Geographic Information Systems (1990). Ein Zugang zur digita-
len Version des Curriculum von 1990 findet man über die Einstiegsseite: https://escholar-
ship.org/uc/spatial_ucsb_ncgia_cc (24.07.2019)
Penzkofer, M. (2017): Geoinformatik: Von den Grundlagen zum Fachwissen. München: C.H. Beck.
2. Aufl.
Strobl, J., Zagel, B., Griesebner, G. u. T. Blaschke (2019, Hrsg.): AGIT. Journal für Angewandte
Geoinformatik 5-2019. Berlin: Wichmann.
Zimmermann, A. (2012): Basismodelle der Geoinformatik. Strukturen, Algorithmen und Program-
mierbeispiele in Java. München: Hanser.
2 Grundbegriffe und allgemeine Grundlagen der
Informationsverarbeitung
In der Informatik kommt den „Informationen“ eine zentrale Bedeutung zu. Ebenso
verbinden sich in der Informatik mit den Begriffen Nachricht, Signal, Zeichen und
Datum klar definierte Inhalte, die sich nicht mit umgangssprachlichen Bedeutungen
decken:
Information umfasst eine Nachricht zusammen mit ihrer Bedeutung für den
Empfänger.
Eine Nachricht ist eine endliche Folge von Signalen einschließlich ihrer räumli-
chen und zeitlichen Anordnung, die somit nach vorher festgelegten Regeln zusam-
mengestellt ist.
Signale sind elementare feststellbare Veränderungen wie z.B. ein Ton, eine Mi-
mik, ein Lichtblitz, eine Farbveränderung, eine Bewegung oder ein elektrischer Im-
puls. Unterschieden werden analoge Signale, die einen zeitlich/räumlich kontinu-
ierlichen Verlauf besitzen (z.B. Schallwellen), und digitale Signale, die zeitlich kurz
sind und nur eine begrenzte Zahl von Werten, d.h. diskrete Werte annehmen kön-
nen. Während in analogen Signalen die Information mit Hilfe von Signalhöhe und
-dauer verschlüsselt ist, wird in digitalen Signalen die Information durch Signalan-
zahl, -abstand und eventuell -dauer verschlüsselt. In einem Digitalrechner (abgelei-
tet aus engl. „digit“ für Ziffer) werden Daten auf der Basis diskreter Zahlendarstel-
lungen verarbeitet, die durch zwei diskrete und klar zu trennende Signale (0 und 1)
dargestellt werden (vgl. Kap. 2.5).
Die in der Abbildung 2.1 aufgelisteten Nachrichten, die sich aus einer strukturierten
Abfolge von Signalen, d.h. hier von Helligkeitsänderungen auf einer weißen Pa-
piergrundlage, zusammensetzen, haben zunächst für den Leser und Empfänger
keine Bedeutung. Erst durch die Verarbeitung dieser Nachricht beim Empfänger,
wozu u.a. Entschlüsselung, Berechnung und Interpretationen gehören können, er-
hält die Nachricht einen Sinn und wird für den Empfänger zur Information.
Das japanische Zeichen steht für die Silbe „dai“ mit der Bedeutung „groß“.
Die Zahl 13 erhält für den Empfänger z.B. erst dann eine Bedeutung, wenn Tem-
peraturdaten in Grad Celsius übermittelt werden sollen (nicht 13 Grad Fahrenheit,
13 Jahre oder 13 Franken).
Die letzte Zeichenfolge stellt Morsesignale dar. Dann kann die Signalfolge als
die Buchstabenfolge SOS entschlüsselt werden. Diese Nachricht wird erst dann
beim Empfänger zu einer Information, wenn er die international anerkannte Bedeu-
tung dieser Buchstabenfolge kennt (Hilferuf, „Save Our Souls“).
Zur Darstellung von Informationen werden zumeist Zeichen verwendet, worun-
ter ein Element aus einer zur Darstellung von Information vereinbarten endlichen
Menge von Objekten (dem Zeichenvorrat) verstanden wird. Ein linear geordneter
Zeichenvorrat wird allgemein als Alphabet bezeichnet. Alphanumerische Zeichen
entstammen einem Zeichenvorrat, der aus Ziffern, Buchstaben und Sonderzeichen
(z.B. Punkt, Komma, Klammer) besteht. Numerische Zeichen entstammen einem
Zeichenvorrat, der sich aus Ziffern und denjenigen ergänzenden Buchstaben und
Sonderzeichen (+, –, Dezimalpunkt) zusammensetzt, die zu einer solchen Zahlen-
darstellung erforderlich sind. Numerische Zeichen können als Teilmenge der alpha-
numerischen Zeichen verstanden werden. Die Folge 49076 von alphanumerischen
Zeichen wird als Name verstanden, mit dem keine Rechenoperationen verbunden
werden können. Die Folge 49076 von numerischen Zeichen kennzeichnet z.B. die
Einwohnergröße einer Stadt, die zu einer anderen Einwohnerzahl hinzuaddiert wer-
den kann. Diese unterschiedliche Semantik von Zeichen wird in der Informatik bzw.
in Programmiersprachen durch das Datentypenkonzept umgesetzt (vgl. Kap. 3.2).
Daten sind Zusammensetzungen aus Zeichen oder kontinuierliche Funktionen,
die auf der Basis von Konventionen Informationen darstellen. Sie dienen vorrangig
der Verarbeitung oder als deren Ergebnis, wobei die Verarbeitung die Durchfüh-
rung mathematischer, umformender, übertragender und speichernder Operationen
umfasst. Digitale Daten bestehen nur aus Zeichen, analoge Daten nur aus kontinu-
ierlichen Funktionen. Nach Anwendungsbereichen ergeben sich mehrere Klassifi-
zierungen von Daten. Zu unterscheiden sind mindestens:
- Eingabedaten liefern die zur Lösung einer Aufgabenstellung notwendigen Infor-
mationen, während Ausgabedaten die Lösung der Aufgabe beschreiben.
- Aktive Daten wie z.B. Programmanweisungen steuern und kontrollieren einen Ar-
beitsprozess, während passive Daten wie z.B. Eingabedaten in einem Arbeitspro-
zess verarbeitet werden.
- Numerische Daten umfassen Ziffern und bestimmte Sonderzeichen wie z.B. die
Vorzeichen, alphanumerische Daten setzen sich aus beliebigen Zeichen des Zei-
chenvorrats zusammen (d.h. Buchstaben, Ziffern, Sonderzeichen).
Die Grundbegriffe der Informationsverarbeitung, zu denen die hier genannten
Begriffe gehören, wurden in den neun Teilen der DIN 44300 definiert. Das Deut-
sche Institut für Normung hat sich mit dieser Terminologienorm um eine deutsch-
sprachige Umschreibung oder Festlegung zentraler Begriffe bemüht, die zuweilen
aber recht umständlich erscheinen. Die DIN 44300 ist inzwischen zurückgezogen
und durch die Norm ISO/IEC 2382 ersetzt worden.
Automat, Computer, Programm, Hard- und Software 15
Derartige Kartenautomaten arbeiten wie sämtliche Automaten, also auch wie die
hier eingehender zu behandelnden Computer und Automaten zur Informationsver-
arbeitung, nach einem zentralen Prinzip, das den Grundablauf der technischen
Funktionen eines Automaten „Eingabe“, „Verarbeitung“, „Ausgabe“ umschreibt
und als das EVA-Prinzip bezeichnet wird (vgl. Kap. 2.3). Gegenüber diesen noch
anschaulichen Beispielen versteht man in der Informatik unter Automaten abstrakte
mathematische Modelle von Geräten, die Informationen verarbeiten.
Ein Computer ist ein Automat, der durch Programme gesteuert wird. Die Ver-
wendung verschiedener Programme zur Lösung unterschiedlicher Aufgaben macht
einen Computer universell einsatzfähig. Gerade die freie, beliebige Programmier-
barkeit kennzeichnet ein grundsätzliches Merkmal eines Computers.
Computer, Computersysteme bzw. digitale Rechenanlagen können aufgrund der
Leistungsfähigkeit oder Kosten in unterschiedliche Kategorien eingeteilt werden.
Klassisch ist die Unterscheidung in Mikrocomputer, Minicomputer, Großrechner
und Supercomputer. Dabei wird die Klasse der Mikrocomputer als Personal Com-
puter (PC) und die der Minicomputer als Workstation bezeichnet. Gerade diese bei-
den Klassen von Computersystemen werden für Anwendungen in der Geoinforma-
tik eingesetzt. Allerdings sind die Übergänge zumeist fließend.
16 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Ein Programm besteht aus einer Folge von Anweisungen oder Ausführungsvor-
schriften in einer nach den Regeln der verwendeten Programmiersprache festgeleg-
ten Syntax zur Eingabe, Verarbeitung und Ausgabe von Informationen (vgl. Kap.
3.1). Ein Programm setzt dabei die Arbeitsschritte einer allgemein formulierten
Handlungsanweisung in eine Programmiersprache um (zum Begriff Algorithmus
vgl. Kap. 2.4 u. 3.3). Die einzelnen Schritte eines Programms werden in der Regel
nacheinander (d.h. sequenziell) ausgeführt, wobei durchaus Wiederholungen, d.h.
sog. Schleifen, oder Sprünge auftreten können. Inzwischen bestehen auch Pro-
gramme, die eine Parallelverarbeitung von Programmschritten erlauben.
In Abhängigkeit von den äußeren Bedingungen, vor allem in Abhängigkeit der
Eingaben und der Zustände des Computers, kann für ein identisches Programm die
Dynamik des Programmablaufs verschieden sein. Daher wird die Programmausfüh-
rung, also das Programm zusammen mit den dazugehörigen Eingaben (d.h. Daten),
als ein Prozess definiert.
Die Software umfasst die Gesamtheit oder Teile der Programme, die auf einem
Computersystem eingesetzt werden können. Die Programme ermöglichen den Be-
trieb eines Computersystems und die Lösung von Aufgaben mit Hilfe eines Com-
putersystems. Entsprechend muss grob zwischen Systemsoftware und Anwen-
dungssoftware unterschieden werden (vgl. eingehender Kap. 2.7).
Unter der Systemsoftware werden alle Programme zusammengefasst, die für den
korrekten Ablauf einer Rechenanlage erforderlich sind (z.B. Betriebssysteme) und
die die Programmerstellung leisten. Unter der Anwendungssoftware wird die aufga-
benbezogene und fachspezifische Software zur Lösung von Benutzerproblemen
(z.B. zur Textverarbeitung, zur Buchhaltung, zur Simulation) verstanden. Die Vor-
silbe „soft“ soll verdeutlichen, dass es sich bei der Software um leicht veränderbare
Komponenten einer Rechenanlage handelt.
Die Hardware umfasst die Gesamtheit oder Teile der Bauelemente und techni-
schen Geräte eines Computersystems (vgl. eingehender Kap. 2.6). Hierzu gehört
vor allem der sog. Prozessor, der die Prozesse (d.h. die Programme mit den zuge-
hörigen Daten) ausführt. Zur Hardware gehören ferner die (internen und externen)
Speicher, die Peripheriegeräte (u.a. Drucker, Scanner) zur Ein- und Ausgabe sowie
die Bestandteile der Vernetzung. Die Vorsilbe „hard“ soll verdeutlichen, dass es
sich bei der Hardware um die physikalisch materiellen Teile einer Rechenanlage
handelt, die (abgesehen von einem Austausch einzelner Bauteile) unveränderbar
sind.
Häufig können Funktionen des Computers sowohl durch die Software als auch
durch die Hardware realisiert werden (z.B. komplexe Rechenoperationen oder
Zoomfunktionen am Bildschirm). Dabei ist die Hardwarerealisation im Allgemei-
nen schneller, wohingegen die Softwarerealisation flexibler ist. So fehlte dem 8086-
Mikroprozessor von Intel, d.h. dem Urahn der Intel-80*86-Familie und somit dem
modernen Personal Computer, ein Baustein für Gleitkommaoperationen, die soft-
waretechnisch umgesetzt wurden. Er konnte aber mit dem 8087-Koprozessor zu-
sammenarbeiten, der die Gleitkommaoperationen ausführte.
Zur Entwicklung eines Programms werden fast ausschließlich höhere Program-
miersprachen benutzt (vgl. Kap. 3.1.1 u. 3.1.3), die eine recht einfache Formulie-
rung von Algorithmen ermöglichen und die mächtige Anweisungen und Werkzeuge
EVA-Prinzip der Informationsverarbeitung 17
bereitstellen (zum Begriff Algorithmus vgl. Kap. 2.4.1). Diese Instruktionen müs-
sen vor der Ausführung im Rechner in Befehle der sog. Maschinensprache übersetzt
werden, d.h. in binärcodierte Maschinenbefehle, die das sog. Maschinenprogramm
ausmachen (vgl. im Unterschied hierzu die Programmiersprache Java, vgl. Kap.
3.1.1). Die Ausführung eines Befehls in der Maschinensprache erfolgt letztlich
durch mehrere elementare Operationen in der Hardware (z.B. Schaltungen). Diese
elementaren Operationen werden durch Mikrobefehle gesteuert, die jeweils ein
Mikroprogramm bilden.
Die Firmware bezeichnet bei mikroprogrammierbaren Rechenanlagen die
Menge aller in einem Prozessor realisierten Mikroprogramme. So besitzen die gän-
gigen Prozessoren der Personal Computer Kopierbefehle, die aus Mikroprogram-
men bestehen, mit denen Daten aus einer Speicherzelle in eine andere Speicherzelle
kopiert werden. Die Vorsilbe „firm“ soll verdeutlichen, dass die Mikroprogramme
prinzipiell verändert werden können, jedoch über einen längeren Zeitraum fest blei-
ben. Änderungen an der Firmware nimmt in der Regel nur der Hersteller von Com-
putern vor. Die Firmware wird weder zur Hard- noch zur Software gezählt. Sie steht
zwischen den Geräten und den Programmen.
Insgesamt besteht hinsichtlich Universalität und Anwenderbezug eine ausge-
prägte Software-Hardware-Hierarchie.
Abb. 2.3: EVA-Prinzip der Informationsverarbeitung und schematische Darstellung eines Com-
putersystems
Während sich die Verarbeitung der Daten immer in der Zentraleinheit vollzieht,
erfolgen die Ein- und Ausgabe sowie die Speicherung der Daten mit sehr unter-
schiedlichen Geräten:
- Geräte für die Eingabe von Daten (z.B. Tastaturen, Scanner, Mikrophone),
- Geräte für die Ausgabe von Daten (z.B. Monitore, Drucker, Lautsprecher),
- Geräte für die Speicherung von Daten (z.B. Festplatten, DVD-Laufwerke).
Hier wird deutlich, dass die zumeist umgangssprachlich benutzte Bezeichnung
„Computer“ kaum mit der abstrakten Definition eines digitalen Rechensystems
übereinstimmt. Vor dem Hintergrund der Komponentenvielfalt und dem system-
technischen Aufbau soll von einem Computersystem gesprochen werden, das sich
aus vielen Einzelkomponenten, stets aber aus den drei Hauptgruppen Zentraleinheit,
Ein- und Ausgabegeräte, Speichergeräte zusammensetzt (vgl. auch Kap. 2.6). Für
die Gesamtheit der Systemkomponenten könnte dann allenfalls vereinfacht oder
verkürzt der Begriff Computer herangezogen werden.
2.4.1 Algorithmusbegriff
ܽ
(ݔ + )
ݔ
ݔାଵ =
2
x y
Eingabe: a Schritt 0 16 1
x := a
y := 1 Schritt 1 8,5 1,8824
e := 0.00000001
falls x < 1
vertausche x und y Schritt 2 5,1912 3,0821
Wiederhole
x := (x + y) / 2 Schritt 3 4,1367 3,8678
y := a / x
solange wie (x – y) > e Schritt 4 4,0023 3,9977
Wurzel (a) = x
Ausgabe (x) Schritt 5 4 4
Ein Algorithmus, der für die Abarbeitung in einem Computer entwickelt werden
soll, muss rechnergerecht vorbereitet werden. Zunächst kann ein Grobkonzept des
Algorithmus auch auf Papier oder – bei wenig komplexen Algorithmen – sofort
interaktiv mit Hilfe des Computers am Bildschirm entworfen werden. Dabei lässt
Algorithmen und Programme in Computersystemen 21
sich das Ablaufschema eines kleineren Algorithmus durch Graphiken (sog. Fluss-
diagramme oder Programmablaufpläne) aufzeigen, die normierte graphische Sym-
bole benutzen. Allerdings sind die Ablaufpläne nur für kurze Algorithmen geeignet.
Mit zunehmender Länge und Komplexität werden sie unübersichtlich. Derartige
Flussdiagramme entstammen einer Zeit, als noch relativ maschinenorientiert sowie
mit Hilfe von Sprungbefehlen programmiert werden musste und leistungsfähige
Programmiersprachen, die elegantere Umsetzungen ermöglichen, noch nicht entwi-
ckelt waren. Somit werden Programmablaufpläne heute nur für kleinere Programme
verwendet. Struktogramme bieten übersichtlichere Darstellungsmöglichkeiten (sog.
Nassi-Shneiderman-Diagramme). Diese graphischen Ausdrucksmittel gehören zur
sog. strukturierten Programmierung (vgl. Kap. 3.1.4.1). Bei dieser Veranschauli-
chung wird ein Programm in mehrere Strukturblöcke zerlegt (vgl. Abb. 2.5).
In der Informatik können durch derartige graphische Hilfsmittel zentrale Verar-
beitungsvorschriften und Programmabläufe auch einem breiten Anwenderkreis an-
schaulich zugänglich gemacht werden, ohne dass Programmdetails preisgegeben o-
der Kenntnisse einer Programmiersprache vorausgesetzt werden. Sie können auch
zur Formalisierung und Verdeutlichung allgemeiner Lösungswege und Lösungs-
strategien herangezogen werden und besitzen somit eine allgemeine Bedeutung zur
Formulierung von Forschungsabläufen und Prozessen.
und ausgeführt. Die Übersetzerprogramme (d.h. Compiler, vgl. Kap. 3.1.2) sind
prozessorabhängig, da sie auf den Befehlsvorrat des jeweiligen Prozessors abge-
stimmt sind. Somit sind die für bestimmte Prozessoren erstellten Maschinenpro-
gramme nicht auf anderen Prozessoren einsatzfähig (vgl. Maschinenprogramme für
Prozessoren von Intel oder für Apple-Computer oder für Smartphones). Der große
Erfolg der 80*86-Prozessorfamilie von Intel ist u.a. darauf zurückzuführen, dass die
für einen älteren Prozessortyp entwickelten Programme auch weiterhin für einen
jüngeren Prozessortyp lauffähig sind.
von Aussagen mit dem Wahrheitsgehalt „wahr“ oder „falsch“ zurückgeführt wer-
den, so dass letztlich die Mathematik auch die Grundlage für Schaltlogiken bietet
(vgl. Broy 1998 S. 291 ff.).
Das gesamte Kapitel 2.5 will das Grundprinzip verdeutlichen: Digitalisierung
sämtlicher Informationen der realen Welt und Verarbeitung der digitalen Informa-
tionen in der digitalen Welt.
Die kleinstmögliche Einheit der Information stellt ein Bit (Abkürzung für binary
digit) dar. Ein Bit kennzeichnet die Informationsmenge in einer Antwort auf eine
Frage, die nur zwei Möglichkeiten zulässt wie z.B. ja oder nein, wahr oder falsch,
links oder rechts. Derartige Antworten, die nur zwei Möglichkeiten umfassen, las-
sen sich einfach durch zwei Zeichen codieren. Dabei werden zumeist die Zeichen 0
und 1 benutzt. Zumeist lässt die Beantwortung einer Frage mehr als ein Bit an In-
formation zu. Sind auf die Frage der vorherrschenden Windrichtung vier Antworten
(Nord, Ost, Süd, West) möglich, beträgt dennoch der Informationsgehalt der Ant-
wort nur 2 Bit. Die ursprüngliche Frage kann in zwei andere Fragen verzweigt wer-
den, die jeweils nur zwei Antworten zulassen (ja = 1, nein = 0). Die intuitive Um-
setzung in die beiden Fragen führt aber zu keiner Eindeutigkeit:
- Ist die vorherrschende Windrichtung Nord oder Ost (ja/nein)?
- Ist die vorherrschende Windrichtung Süd oder West (ja/nein)?
N O S W
Nord oder Ost 1 1 0 0
Süd oder West 0 0 1 1
Erst die Umsetzung in die beiden folgenden Fragen führt zur Eindeutigkeit:
- Ist die vorherrschende Windrichtung Nord oder Ost (ja/nein)?
- Ist die vorherrschende Windrichtung Ost oder West (ja/nein)?
N O S W
Nord oder Ost 1 1 0 0
Ost oder West 0 1 0 1
Zahl wie 123456 dadurch darzustellen, dass für jedes Zahlzeichen 7 oder 8 Bit ver-
wendet werden. So werden Zahlen und auch logische Werte durch besondere Bit-
folgen verdeutlicht.
In einem Computersystem werden immer große Mengen von Bitfolgen verarbei-
tet, wobei stets Gruppen von Bit genommen werden, entweder 8 Bit, 16 Bit, 32 Bit
oder 64 Bit. Immer ist die Länge eines Bitblocks ein Vielfaches von 8. Daher wird
eine Gruppe von 8 Bit auch als 1 Byte bezeichnet. Für 1 Byte wird die Abkürzung
1 B benutzt. Bei binärer Adressierung ergeben sich Speicherkapazitäten von 2n
Byte. Da bis zur internationalen Normierung keine Einheitenvorsätze für Zweier-
potenzen vorlagen, waren die dezimalen Präfixe mit dem Faktor 210 = 1024 statt
1000 üblich geworden (z.B. 1 Kilobyte = 1024 Byte). Die ISO-Norm IEC 80000-
13:2008 sieht nun für die Bezeichnung von Zweierpotenzen neue Binärpräfixe vor
und empfiehlt, die (üblichen) Dezimalpräfixe auch nur noch in der dezimalen Be-
deutung zu benutzen. Allerdings sind die neuen Binärpräfixe noch recht ungewöhn-
lich:
Dezimalpräfixe Binärpräfixe
Name Symbol IEC-Name IEC-Symbol
Kilobyte kB 103 Byte Kibibyte KiB 210 Byte
Megabyte MB 106 Byte Mebibyte MiB 220 Byte
Gigabyte GB 109 Byte Gibibyte GiB 230 Byte
Terabyte TB 1012 Byte Tebibyte TiB 240 Byte
Petabyte PB 1015 Byte Pebibyte PiB 250 Byte
Die Werte „falsch“ („false“) und „wahr“ („true“) sind logische Werte. Sie können
mit Hilfe von genau einem Bit dargestellt werden.
2.5.4 Zahlen
Zahlen können durch Bitfolgen dargestellt werden, indem sie in das Dualzahlensys-
tem überführt werden (von lat. duo „zwei“, auch Zweiersystem oder Binärsystem).
Zugrunde liegt dabei ein Formalismus der Mathematik, der die Zahlendarstellung
in unterschiedlichen Stellenwertsystemen gestattet. Allgemein wird ein System zur
Darstellung von Zahlen durch Ziffern als Stellenwertsystem bezeichnet, wenn der
Wert einer Ziffer von der Stelle abhängt, an der sie innerhalb der Zahl geschrieben
wird. Bei dieser Formalisierung ist nicht wesentlich, wie viele verschiedene Ziffern
überhaupt bestehen. Allgemein lassen sich in Stellenwertsystemen sämtliche (posi-
tive) Ganze Zahlen z in der sog. Radix-Schreibweise darstellen mit B als Basis und
folgenden Ziffern zj (d.h. von rechts notiert):
ݖ = ݖ ή ܤ + ݖଵ ή ܤଵ + ݖଶ ή ܤଶ + ڮ
Das bekannteste Stellenwertsystem ist das Dezimalsystem, d.h. das Stellenwertsys-
tem zur Basis 10. Bei der Zahl 135 ergibt sich der Wert der Zahl „3“ durch die
Darstellung von Informationen in Computersystemen durch Bitfolgen 25
Stellung innerhalb der Ziffernfolge, wobei sich jede Stelle als Potenz der Zahl 10,
d.h. der Zahl der verschiedenen Ziffern ergibt.
135ଵ = 5 ή 10 + 3 ή 10ଵ + 1 ή 10ଶ
Analog wird das Hexadezimalsystem definiert, d.h. das Stellenwertsystem zur Basis
16. Jetzt liegen 16 Ziffern vor: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F. Die Zahlen
135 und 1DE (im Hexadezimalsystem) bedeuten im Dezimalsystem:
135ଵ = 5 ή 16 + 3 ή 16ଵ + 1 ή 16ଶ = 309ଵ
1ܧܦଵ = 14 ή 16 + 13 ή 16ଵ + 1 ή 16ଶ = 478ଵ
Entsprechend ist das Dualzahlensystem aufgebaut, d.h. das Stellenwertsystem zur
Basis 2. Es besitzt genau die beiden Zeichen 0 und 1 und eignet sich somit, Zahlen
als Bitfolgen darzustellen:
101ଶ = 1 ή 2 + 0 ή 2ଵ + 1 ή 2ଶ = 5ଵ
1111011ଶ = 1 ή 2 + 1 ή 2ଵ + 0 ή 2ଶ + 1 ή 2ଷ + 1 ή 2ସ + 1 ή 2ହ + 1 ή 2 = 123ଵ
Im Dualzahlensystem lassen sich neben ganzen auch gebrochene Dezimalzahlen
darstellen, so dass die ganze Breite von Dezimalzahlen umsetzbar ist:
0.101ଶ = 1 ή 2ିଵ + 0 ή 2ିଶ + 1 ή 2ିଷ
Für Transformationen zwischen Dualzahlen- und Zehnersystem bestehen geeignete
Umrechnungsmethoden und -algorithmen (vgl. z.B. Gumm u. Sommer 2013 S. 17
ff.). Die Tabelle 2.1 zeigt einige Beispiele von Dualzahlen.
0 0
1 1
10 2
101 5
11110101101 1965
0,1 0,5
0,01 0,25
111,111 7,875
11010,101 26,625
10101010,10011001 170,59765625
0,00011001100110011... 0,1
Die letzte Zeile in Tabelle 2.1 belegt, dass die Dezimalzahl 0,1 nur als unendlich
lange, periodische, gebrochene Dualzahl dargestellt werden kann. Da in einem
Computersystem jede Stelle einer Dualzahl in einer Speicherzelle gespeichert wird
und nur endlich viele Speicherzellen zur Verfügung stehen, wird die sehr einfach
im Zehnersystem darzustellende Zahl 0,1 in Computersystemen „ungenau“ gespei-
chert. So werden für eine Zahl zumeist nur 32 oder 64 Bit technisch zur Verfügung
26 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
gestellt. Selbst eine Erweiterung auf z.B. 256 Bit löst das prinzipielle Problem nicht,
dass letztlich nur endlich lange Dualzahlen zu verarbeiten sind! Allerdings treten
nicht bei jeder Problemstellung beliebig große Zahlen auf, auch bestehen bei ver-
schiedenen Berechnungen häufig unterschiedlich hohe Genauigkeitsanforderungen.
Daher sind in der Informatik verschiedene Darstellungen von Zahlen mit unter-
schiedlich langen Bitfolgen (bzw. deren Speicherungen) üblich und technisch rea-
lisiert. Die Informatik stellt hierfür das Konzept der Datentypen zur Verfügung (vgl.
Kap. 3.2).
2.5.5 Texte
Textzeichen werden in einem Rechner dargestellt, indem das Alphabet und Satzzei-
chen in Bitfolgen kodiert werden. Dezimalziffern, Buchstaben und die Sonderzei-
chen werden einzeln durch eine Bitfolge fester Länge konkretisiert. Dabei kommt
man für die Darstellung aller Zeichen bereits mit 7 Bit aus, die 128 verschiedene
Möglichkeiten ausmachen. 26 Klein- und Großbuchstaben, Satzzeichen, Spezial-
zeichen wie & und nicht druckbare Formatierungszeichen wie Zeilenumbruch er-
geben etwa 100 Zeichen einer Schreibmaschinentastatur (d.h. einer Standard-Com-
putertastatur ohne Sonderzeichen). Gebräuchlich sind mehrere sog. Zeichensätze,
die eine Kodierung festlegen (vgl. Tab. 2.2):
- der ASCII-Code (American Standard Code for Information Interchange, 7 Bit pro
Zeichen, insgesamt 128 verschiedene Zeichen, davon 95 druckbare Zeichen),
- der ANSI-Code (American National Standards Institute, 8 Bit pro Zeichen),
- der EBCDI-Code (Extended Binary Coded Decimal Interchange Code, 8 Bit pro
Zeichen, Einsatz auf Großrechnern, d.h. fast ausschließlich auf IBM-
Großrechnern),
- UTF-8 (8-Bit UCS (Universal Character Set) Transformation Format).
Zur Darstellung und Speicherung z.B. der Zahl 123 als Text, d.h. durch alphanume-
rische Zeichen, werden 24 Bit benötigt. Als Dualzahl reicht hingegen eine Bitfolge
der Länge 7 aus (12310 = 11110112). Dieses Beispiel zeigt, dass Zahlen im Dual-
zahlensystem effizienter als durch den ASCII-Code dargestellt und gespeichert wer-
den können (zur internen Speicherung von Zahlen vgl. Kap. 3.2.2).
UTF-8 ist die am weitesten verbreitete Kodierung für Unicode-Zeichen. Dabei
bezeichnet Unicode einen internationalen Standard, der für sämtliche Zeichen aller
Schriften einen jeweiligen Code zur Kodierung festlegen soll (32 Bit pro Zeichen
möglich, westliche Zeichensätze kommen mit 8 Bit aus). Die Heterogenität unter-
schiedlicher Zeichenkodierungen und die entstandenen Inkompatibilitäten sollen
aufgehoben werden. Der Universal Character Set (UCS), die nach ISO10646 fest-
gelegte Zeichenkodierung, ist fast identisch zum Unicode. Zeichen, die im Wer-
tebereich von 0 bis 127 kodiert werden, entsprechen dabei genau der Kodierung im
ASCII-Format.
Hinzuweisen ist auf die 8-Bit-Zeichensätze der Normenfamilie ISO/IEC 8859,
die im World Wide Web eine zentrale Bedeutung besitzen. Die Kodierung wird z.B.
Darstellung von Informationen in Computersystemen durch Bitfolgen 27
Die digitale Darstellung räumlicher Informationen ist ein zentrales Anliegen der
Geoinformatik (vgl. eingehender Kap. 5.2). Dabei bestehen zwei grundlegend un-
terschiedliche Ansätze:
Im Vektormodell werden räumliche Informationen durch Punkte aufgelöst, die in
Form von Koordinaten, d.h. mathematisch von Vektoren erfasst werden. Die Dar-
stellung von punkthaften Objekten wie z.B. Bäumen ist eindeutig. Linienhafte Ob-
jekte wie z.B. Straßenseitenlinien oder Straßenmittellinien sowie auch sehr abs-
trakte Untersuchungseinheiten wie Gemeindegrenzen werden in Folgen von Vek-
toren zerlegt. Von flächenhaften Objekten wie z.B. Gebäuden oder Wasserflächen
werden die Umrisslinien erfasst (vgl. Abb. 2.6). Eine kurvenförmige Linie wird da-
bei in der Regel durch einen Linienzug aus geraden Streckenabschnitten angenä-
hert. Im Vermessungswesen wird jedoch die Verbindung häufig auch durch Kurven
beschrieben (u.a. Angabe eines Kurvenradius z.B. bei der Darstellung von Straßen-
kurven). Die Anfangs- und Endpunkte dieser Streckenabschnitte sind stets Koordi-
naten in einem Bezugssystem, d.h. sog. Vektoren (Vektormodell, Vektorgraphik).
Diese Koordinaten werden letztlich als Zahlenwerte kodiert. Die Art der Verbin-
dung, d.h. Farbe, Breite oder Form der Linie oder auch die Ausgestaltung als Gerade
oder Kurve mit einem bestimmten Radius, wird ebenfalls durch Zahlenwerte ko-
diert.
28 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Abb. 2.7: Funktionsprinzip der Erfassung von Koordinaten mit einem Digitalisiertablett
2.5.7 Farbinformationen
Farben haben in der Geoinformatik eine besondere Bedeutung. Sie dienen zur Vi-
sualisierung vor allem von graphischen Informationen auf Monitoren oder Dru-
ckern, sie sind wesentlicher Bestandteil und Informationsträger in digitalen oder
analogen Präsentationen. Die für das menschliche Auge sichtbaren Farben sind aber
nur ein recht kleiner Teil des elektromagnetischen Spektrums. Dieses sog. sichtbare
Licht umfasst den Wellenlängenbereich zwischen ca. 400 nm und 800 nm (zum
30 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
2.5.8 Sensordaten
2.5.9 Dualzahlenarithmetik
Die Arithmetik von Dualzahlen ist grundlegend zum Verständnis der Verarbeitung
von Informationen, die durch Bitfolgen kodiert wurden. Dargestellt wird ein sehr
elementares Rechnen, das aber Grundlage sämtlicher Rechenoperationen in Com-
putersystemen ist (vgl. Gumm u. Sommer 2013 S. 17 ff.). Diese Rechenschritte sind
insbesondere durch Transistorschaltungen hardwaretechnisch umgesetzt.
Die Addition ist für den einfachsten Fall der beiden Dualzahlen 0 und 1 definiert
durch:
32 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
0+0 = 0
0+1 = 1
1+0 = 1
1+1 = 10
Die Addition der beiden Dualzahlen erfolgt somit, wie man es analog auch von der
Addition von Dezimalzahlen gewohnt ist. Ein an einer Ziffernposition entstehender
Übertrag wird zur nächsthöheren Ziffernposition addiert.
1 0 1 0 1 0 42
+ 1 1 0 1 1 1 1 111
Übertrag 1 1 1 1 1
Summe 1 0 0 1 1 0 0 1 153
Etwas komplexer als die Addition ist die Subtraktion zweier Dualzahlen. Hierbei
wird die Subtraktion auf die Addition zurückgeführt: Der Subtrahend wird nicht
abgezogen, sondern der negative Subtrahend wird addiert. Im Dualzahlensystem
werden zur Subtraktion somit negative Dualzahlen benötigt, die durch Komple-
mentbildung dargestellt werden. In einem Zwischenschritt wird zunächst das sog.
Einer-Komplement gebildet. Dabei bleiben die positiven Dualzahlen unverändert,
während das Einer-Komplement einer negativen Zahl dadurch entsteht, dass in der
entsprechenden positiven Zahl die Ziffern 0 und 1 gegen ihre komplementären Zif-
fern 1 und 0 ausgetauscht werden.
Im zweiten Beispiel, das 13 + (–56) errechnet, entsteht kein Überlauf. Das Ender-
gebnis wird eine Negativzahl sein:
0 0 0 0 1 1 0 1 13
+ 1 1 0 0 1 0 0 0 –56
Summe 0 1 1 0 1 0 1 0 1
Das Endergebnis liegt jetzt noch nicht vor. Das errechnete Zweier-Komplement
1101 0101 muss weiter verarbeitet werden. Durch „Zurücknehmen“ der Addition
von 1 entsteht eine Dualzahl, die als ein Einer-Komplement anzusehen ist: 1101
0100. Danach ist die Komplementbildung zurückzunehmen: 0010 1011. Die Dezi-
malzahl (ohne Vorzeichen) lautet dann: 43. Da schon bekannt ist, dass das Ender-
gebnis eine Negativzahl ist, ergibt sich als Ergebnis: –43.
Für die Multiplikation und Division mehrstelliger Dualzahlen bestehen recht ein-
fache Rechenverfahren, die analog zu den Verfahren im Zehnersystem aufgebaut
sind. Die Multiplikation einer Dualzahl mit einer 1, die an i-ter Stelle einer mehr-
stelligen Dualzahl steht, ist mit einem „Verschieben“ der Dualzahl um (i–1)-Stellen
und einem „Auffüllen“ mit 0 gleichzusetzen.
110 • 101 1 (d.h. 6 • 11) 1000010 : 110 = 1011
11000 0 110
0 1001
110 0 110 d.h. 66 : 6 = 11
11 0 110
100001 0 = 66 110
In Computersystemen wird die Multiplikation auch als wiederholte Addition
durchgeführt. Die fortgesetzte Subtraktion, die aber ebenfalls auf eine Addition zu-
rückgeführt werden kann, ersetzt die Division ganzer Zahlen. Somit kann im Hin-
blick auf die technische Realisierung das Rechenwerk eines Prozessors prinzipiell
sehr einfach gestaltet sein, da es nur in der Lage sein muss, Additionen durchzufüh-
ren. Wie hier andeutungsweise gezeigt wurde, können sämtliche arithmetische Ope-
rationen im Wesentlichen auf die Addition von Dualzahlen zurückgeführt werden.
Allerdings besitzen moderne Prozessoren neben einem Addierwerk durchaus wei-
tere arithmetische Rechenwerke.
Die hier für ganze Zahlen erläuterten Techniken der Dualzahlenarithmetik kön-
nen entsprechend auf gebrochene Dualzahlen übertragen werden, die in normierter
Darstellung mit Mantisse und Exponent gespeichert werden (vgl. Kap. 3.2.2.3). Da-
bei sind Mantisse und Exponent getrennt zu berücksichtigen. So muss z.B. vor einer
Addition die Größenordnung der Exponenten verglichen werden, wobei entspre-
chend die Mantisse, die zur Zahl mit dem kleineren Exponenten gehört, angepasst
werden muss. Das nachstehende Beispiel im Dezimalsystem verdeutlicht (bei einer
Rechengenauigkeit von drei Stellen!) das Rechenprinzip:
0.123 • 103 + 0.456 • 105 = 0.001 • 105 + 0.456 • 105 = (0.001 + 0.456) • 105 = 0.457 • 105
Die zunächst komplex und umständlich erscheinende Arithmetik besitzt für die
Ausführung mit einer automatischen Rechenanlage erhebliche Vorteile:
Die Zahlen werden als technisch einfach zu realisierende Bitfolgen dargestellt.
Die Rechenoperationen werden auf technisch einfach umzusetzende Grundope-
rationen wie z.B. Addition und Komplementbildung zurückgeführt.
34 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
mehrere Rasterpunkte erscheinen. Die meisten modernen Plotter, die gerade für
Aufgaben in der Geoinformatik Anwendung finden, arbeiten allerdings nach dem
Prinzip von Tintenstrahldruckern (daneben noch Laser- und Photoplotter). Die ein-
zelnen Zeichen werden aus einem Raster von Punkten aufgebaut, die sehr klein und
dicht aufeinanderfolgen können und somit die Auflösung und Schärfe der Textaus-
gabe oder der graphischen Darstellung bestimmen.
Der Betrieb eines Computersystems wird erst durch die Software möglich, die sich
in System- und Anwendungssoftware gliedert. Zentraler Bestandteil der Systemsoft-
ware ist das Betriebssystem, das je nach Leistung verschiedene Betriebsarten und
Nutzungsformen des Computersystems ermöglicht und das vor allem die Ausfüh-
rung der Anwenderprogramme regelt. Zur Systemsoftware werden weiterhin die
Übersetzungsprogramme der Programmiersprachen gezählt, die eine Übersetzung
der zumeist in einer höheren Programmiersprache verfassten Programme in die vom
Computersystem auszuführende Maschinensprache leisten. Die systemnahe Soft-
ware umfasst den nicht eindeutig abzugrenzenden Bereich zwischen System- und
Anwendungssoftware, systemnah kennzeichnet die Nähe zur Prozessorarchitektur
36 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Die Software macht letztlich ein Computersystem universell einsetzbar. Die An-
wendungssoftware dient dabei zur Lösung von benutzer- und aufgabenspezifischen
Problemen. Generell kann zwischen Branchensoftware sowie Individual- und Stan-
dardsoftware unterschieden werden. Branchensoftware ist auf die speziellen Anfor-
derungen einzelner Branchen wie z.B. Bauwesen, Handwerk, Handel, Banken oder
Steuerberater mit zumeist sehr spezifischen Aufgaben zugeschnitten. Individual-
software ist eigens für einen Anwendungsfall erstellt und auf die spezifischen Be-
dürfnisse eines Anwenders und seines Aufgabenprofils ausgerichtet. Zumeist wer-
den nach Vorgaben eines Anwenders oder nach Ausarbeitung eines Anforderungs-
konzeptes spezielle Softwarelösungen programmiert. Jedoch kann auch eine benut-
zerspezifische Anpassung von Standardsoftware erfolgen, die in der Regel weniger
kostenintensiv als die sehr aufwendige Individualprogrammierung ist. Standard-
software ist (weitgehend) unabhängig von den Anforderungen einer bestimmten
Branche. Hierzu gehören sog. Office-Pakete, die Programme u.a. zur Textverarbei-
tung, zur Tabellenkalkulation oder zur Präsentation umfassen.
Die Vorteile von Standardsoftware gegenüber Individualprogrammierung sind
vor allem Kostenvorteile, eine sofortige Verfügbarkeit und direkte Einsatzmöglich-
Aufbau eines Computersystems: Software 37
zerfällt die für Anwendungen und Aufgaben der Geoinformatik spezifische Soft-
ware im Wesentlichen in vier große Kategorien:
- Kartographie-, Präsentations- und Visualisierungssysteme,
- Datenbankverwaltungssysteme,
- Geoinformationssysteme,
- Softwaresysteme zur Fernerkundung und digitalen Bildverarbeitung.
Von zentraler Bedeutung sind dabei Geoinformationssysteme, die als integrierte
Programme u.a. auch Datenbankverwaltung und Präsentation ermöglichen. Geoin-
formationssysteme sind in der Regel Standardprogramme, die für sehr unterschied-
liche Aufgaben wie z.B. zur Verwaltung von Altlastenverdachtsflächen oder im Ge-
omarketing zur Optimierung des Absatzgebietes eingesetzt werden können. Gerade
die benutzerspezifische Anpassung von Geoinformationssystemen im Umweltbe-
reich ist ein wichtiges Aufgabenfeld der Geoinformatik.
Ein erster Schritt zur Entwicklung freier Software war Anfang der 1980er Jahre das
GNU-Projekt, das sich die Entwicklung eines freien, UNIX-ähnlichen Betriebssys-
tems zum Ziel setzte (GNU als rekursives Akronym für „GNU’s not UNIX“). Im
Jahre 1985 wurde die Free Software Foundation (FSF) gegründet, um dem GNU-
Projekt einen formalen Rahmen zu geben. Sie definiert vier Freiheiten, die im
Grunde Freiheiten der Nutzer und der Entwickler sind bzw. die Entwicklung von
Software betreffen. Die Freiheit (vgl. GNU 2019a):
1. die Software für einen beliebigen Zweck auszuführen,
2. die Funktionsweise der Software zu studieren und sie an Ihre eigenen Bedürf-
nisse anzupassen,
3. Kopien der Software weiterzugeben,
4. die Software zu verbessern und diese Verbesserungen zu veröffentlichen.
Der freie Zugang zum Quelltext ist notwendige Voraussetzung für die Freiheiten
(2) und (4). Somit umfasst Freie Software nach der Free Software Foundation mehr
als eine öffentliche Zugänglichkeit zum Quellcode, die noch nicht die Möglichkeit
beinhalten muss, den Quelltext zu verwenden, ihn zu verändern oder ihn weiterzu-
geben.
Gegenüber der bisherigen unscharfen Verwendung des Begriffes „Open Source“
besteht mit der Open Source Definition der Open Source Initiative (OSI) ein Krite-
rienbündel für Softwarelizenzen, das sehr große Ähnlichkeit zur Freien Software
aufweist, aber Fehlinterpretationen des Wortes „frei“ vermeidet. Nach der Open
Source Definition der OSI wird von einer Lizenz für Open-Source-Software ver-
langt:
1. freie Weitergabe der Software, d.h., die Lizenz darf die Weitergabe der Software
nicht einschränken;
2. verfügbarer Quellcode, d.h., der Quellcode muss für alle Nutzer frei verfügbar
sein;
3. abgeleitetes Arbeiten, d.h., die von der Ausgangssoftware entwickelte neue
Software und deren Vertrieb erfolgt unter derselben Lizenz wie die Basissoft-
ware;
4. Integrität des Autoren-Quellcodes, d.h., die Lizenz kann die Verbreitung von
veränderter Software dahingehend einschränken, dass die Verbreitung von sog.
Patchfiles nur mit dem Quellcode erlaubt ist. Die Lizenz muss die Verbreitung
von Software gestatten, die auf veränderten Originalquellcodes beruht. Die Li-
zenz kann von einer abgeleiteten Version einen neuen Namen oder eine neue
Versionsnummer verlangen.
5. keine Diskriminierung von Personen oder Gruppen, d.h., die Nutzung darf nicht
für einzelne Personen oder Gruppen verweigert werden;
6. keine Nutzungseinschränkung, d.h., die Lizenz darf die Nutzung nicht auf ein-
zelne Verwendungszwecke einschränken;
7. Lizenzverbreitung, d.h., die Lizenz darf sofort ohne den Erwerb anderer Lizen-
zen genutzt werden;
8. Produktneutralität, d.h., die Lizenz darf sich nicht auf eine bestimmte Software-
Distribution beziehen;
40 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
9. keine Einschränkung anderer Software, d.h., die Lizenz darf z.B. nicht die Ver-
breitung nur mit Open-Source-Software verlangen;
10. technologieneutral, d.h. die Bereitstellung der Lizenz darf keine Technologie
oder Vertriebsformen wie z.B. über das Internet ausschließen.
Die Open Source Definition der OSI ist somit eine Richtlinie zur Bewertung von
Softwarelizenzen (vgl. Open Source Initiative 2019).
Zur Umsetzung des freien Softwaregedankens wurden mehrere formal-juristi-
sche Softwarelizenzmodelle entwickelt, die die Freiheiten einer Software bzw. de-
ren Art der Nutzung sicherstellen sollen. Am weitesten verbreitet ist GNU-GPL, die
GNU General Public License, die vor allem das sog. Copyleft-Prinzip beinhaltet.
Diese Regelung (auch „share alike“ genannt) garantiert, dass Freie Software stets
Freie Software bleibt und somit Freiheiten bei der Verbreitung nicht eingeschränkt
werden dürfen. Somit dürfen Programme, die aus einer unter GPL stehenden Soft-
ware entwickelt werden, ebenfalls nur unter Bedingungen der GPL weitergegeben
werden. Dieses Lizenzmodell führt dann zu Konflikten, wenn GPL-lizenzierte Soft-
ware z.B. als Programmbibliothek in proprietäre Programme eingebunden werden
soll. Vor diesem Hintergrund wurde die GNU-LGPL, GNU Lesser General Public
License, entwickelt, die die Benutzung von LGPL-lizenzierten, freien Programmen
auch in proprietären Programmen gestattet (zu weiteren GNU-Lizenzmodellen vgl.
GNU 2019b).
by x
by-sa x x
by-nd x x
by-nc x x
by-nc-sa x x x
by-nc-nd x x x
Die vereinfachte Sicht, dass der Einsatz Freier Software auch völlig kostenfrei
sei, muss korrigiert werden. Die Implementierung Freier Software in einer Kom-
mune oder in einem Unternehmen erfolgt in der Regel durch einen IT-Dienstleister,
der sehr häufig auf der Grundlage Freier Software individuelle Softwareanpassung
oder -weiterentwicklung vornehmen muss, so dass die Freie Software sich in die
vorhandene Softwareumgebung einfügt. Geschäftsmodelle im Rahmen Freier Soft-
ware zielen neben der technischen Anpassung und Wartung auf Schulung sowie
allgemein auf Unterstützung der Kunden ab. Somit kann durchaus der Umstieg von
ehemals proprietärer auf Freie Software zumindest in einer Anfangsphase kosten-
intensiver als eine Verlängerung eines Lizenzvertrages sein. Eine Kostenersparnis
kann sich mittelfristig einstellen, da jetzt beliebig viele Lizenzen einzusetzen sind
und (jährliche) Lizenzgebühren nicht mehr anfallen.
Unter einem Computernetz oder Netzwerk ist die Gesamtheit von Leitungen, Ver-
mittlungsstellen und Teilnehmereinrichtungen zu verstehen, die sämtlich der Da-
tenkommunikation dienen. Mehrere unabhängige Computerstationen bzw. Arbeits-
plätze sind verbunden und können gemeinsam auf Datenbestände zugreifen, Daten
austauschen und Betriebsmittel wie z.B. Drucker oder Sicherungsgeräte nutzen.
Hinsichtlich der Hardware besteht ein Computernetz mindestens aus dem Leiter-
system, das in der Regel aus Koaxialkabel, auch aus Glasfaserkabel oder aus einer
drahtlosen Verbindung z.B. über Funk (z.B. Bluetooth), Infrarot oder Satellit auf-
gebaut sein kann, sowie aus den angeschlossenen Rechnern, die über geeignete
Netzwerkadapter verfügen müssen. Ein verbreiteter und von der IEEE (Institute of
Electrical and Electronics Engineers) genormter Netzwerktyp für lokale Netze ist
das sog. Ethernet, das Übertragungsgeschwindigkeiten von 10 MBit/sec. bzw. 100
MBit/sec. (Fast-Ethernet) bzw. 1000 MBit/sec. (GBit-Ethernet) bis 10 GBit/sec. er-
reichen kann. Hinsichtlich der Software besteht ein Computernetz aus spezieller
Steuerungssoftware oder aus einem geeigneten Betriebssystem, das den Zugang
zum Rechnernetz steuert und die Ressourcen (u.a. verbundene Geräte, aber auch
Software) verwaltet. Netzwerke lassen sich nach mehreren Gesichtspunkten klassifi-
zieren:
Nach der Größe des Netzes oder räumlichen Entfernung der Rechner:
In einem lokalen Rechnernetz (LAN, local area network) sind die Rechner an
einem Standort (Gebäude, Betriebsgelände) eingebunden. In Weitverkehrsnetzen
(WAN, wide area network) befinden sich die Rechner weit entfernt voneinander,
Weitverkehrsnetze können auch mehrere lokale Rechnernetze verbinden. Hinsicht-
lich der lokalen Rechnernetze sind leitungsgebundene von solchen Netzen zu un-
terscheiden, bei denen die Daten über Funk und somit kabellos übertragen werden
(WLAN, wireless local area network, Funknetz). Sehr häufig sind sog. WLAN-
42 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
Router im Einsatz, die mit einem Local Area Network oder einem anderen kabel-
gebundenen Datennetz (z.B. Telefonnetz) verbunden sind und als sog. Wireless Ac-
cess Points eine Funkverbindung z.B. zu mobilen Endgeräten wie Notebooks her-
stellen. Die Datenübertragungsraten sind bei WLANs im Allgemeinen deutlich ge-
ringer als bei einem LAN. Allerdings bestehen erhebliche Schwierigkeiten, die Da-
tenübertragungsraten zu vergleichen, da sowohl bei WLAN als auch bei LAN ver-
schiedene technische Standards bestehen (bei LAN Ethernet, Fast-Ethernet, Gi-
gabit-Ethernet), wobei die Verkabelung (Kupferkabel nach verschiedenen Katego-
rien wie z.B. CAT 5 oder Glasfaserkabel) und die eingesetzten Netz-Hardwarekom-
ponenten (z.B. Hubs, Switches, Gigabit-Ethernet-Switches) von großer Bedeutung
sind. So kann ein optimal konfiguriertes WLAN nach dem weit verbreiteten IEEE
802.11ac Standard schneller als ein altes LAN sein. Aktuelle ac-Router erreichen
Übertragungsraten von bis zu 1.300 Mbit/s. Zuweilen besteht in Gebäuden mit mas-
siven und dicken Wänden eine ungünstige Verbindungsqualität, die zusammen mit
einer oftmals komplexen Handhabung eines Routers und Spekulationen über Ge-
sundheitsgefahren durch elektromagnetische WLAN-Felder als mögliche Alterna-
tive Strom-LANs (PowerLAN) sinnvoll erscheinen lassen. Der Datenaustausch fin-
det hierbei über das hausinterne Stromnetz statt, wobei nach dem IEEE 1901.FFT-
Standard Reichweiten bis zu 300 m, allerdings nicht über verschiedene, durch ei-
gene Fehlerstromschutzschalter abgesicherte Stromkreise, und Datenübertragungs-
raten von bis zu 2.000 MBit/sec möglich sein sollen.
Nach der Netzwerktopologie: Als Netzwerktopologie oder Netzwerkstruktur
wird die Anordnung bezeichnet, wie die einzelnen Rechner untereinander verbun-
den sind. Die wichtigsten Netzwerktopologien sind, wobei der hier skizzierte logi-
sche Aufbau eines Netzes nicht dem physikalischen Aufbau entsprechen muss:
Bus-Topologie: Sämtliche Teilnehmer sind über eine gemeinsame Leitung (Bus)
miteinander verbunden. Falls eine Station ausfällt, wird die Übertragung nicht be-
einträchtigt.
Ring-Topologie: Sämtliche Teilnehmer sind ringförmig von Station zu Station
miteinander verbunden. Falls eine Station ausfällt, entsteht ein Totalausfall des gan-
zen Netzes.
Stern-Topologie: Die Teilnehmer sind sternförmig mit einem zentralen Rechner
(sog. HUB) verbunden. Falls eine Station ausfällt, wird die Übertragung nicht be-
einträchtigt.
Nach der Art der verteilten Verarbeitung:
Beim sog. Peer-to-Peer-Netzwerk sind in der Regel mehrere vollwertige Perso-
nal Computer eingebunden, die auch unabhängig, d.h. unvernetzt betrieben werden
können. Die einzelnen Rechner sind gleichrangig und übernehmen jeweils die Ver-
waltungs- und Steuerungsaufgaben, es besteht kein festgelegter Server. Mit einem
Peer-to-Peer-Netz ist ein Datenaustausch (gemeinsamer bzw. gegenseitiger Zugriff
auf Datenträger, Verschicken von Nachrichten) und eine gemeinsame Nutzung von
Peripheriegeräten wie z.B. Druckern möglich. Diese Form ist für kleinere Netze mit
bis etwa 15 Rechnern geeignet.
Die sog. Client-Server-Netzwerke stellen die wichtigste moderne Verteilungs-
form dar (vgl. Abb. 2.12). Hierbei sind die beteiligten Rechner nicht gleichberech-
tigt. Es besteht eine klare Funktionstrennung zwischen leistungsfähigen Rechnern,
Netze und Vernetzung 43
die als Server Dienstleistungen anbieten, und weiteren Rechnern, die als Clients
diese Dienstleistungen nachfragen. Entsprechend den Dienstleistungen werden Da-
ten- und Programmserver (sog. file bzw. application server), die Daten und/oder
Programme zur Verfügung stellen, Druckserver, die zwischengespeicherte Druck-
aufträge abarbeiten, und Kommunikationsserver unterschieden. Dabei müssen nicht
unterschiedliche Rechner zum Einsatz kommen. Ein leistungsfähiger Rechner kann
mehrere Aufgaben übernehmen. Die Funktionsverteilung wird letztlich durch Soft-
ware geregelt, deren Funktionsfähigkeit somit auch über die Leistung des Netzwer-
kes im Hinblick u.a. auf Reaktionszeit und Verarbeitungsgeschwindigkeit der Pro-
gramme entscheidet.
Ein Rechner kann sowohl Server als auch Client sein. Passive Server stellen nur
Daten oder Programme bereit. Demgegenüber führen aktive Server selbst Pro-
gramme aus (verteilte Verarbeitung).
2.8.2 Internet
Das International Network, Abkürzung Internet, ist eine weltweite Verbindung un-
terschiedlicher Netze, wobei im Prinzip kein Netz ständiger Verbindungen besteht,
sondern der Zusammenschluss auf Vereinbarungen über Kommunikationsformen
beruht. Der Informationsaustausch zwischen sehr unterschiedlichen Rechnerplatt-
formen erfolgt über das TCP/IP-Protokoll, das bis etwa 1982 spezifiziert wurde. Die
vom US-Verteidigungsministerium eingerichtete Forschungseinrichtung ARPA
(Advanced Research Projects Agency) initiierte 1969 das sog. ARPANET, das ab
Anfang der 1970er Jahre Universitäten und Forschungseinrichtungen verband, die
mit dem US-Verteidigungsministerium zusammenarbeiteten. Die eigentliche Ge-
burtsstunde des Internets kann etwa auf das Jahr 1983 datiert werden, als das
ARPANET auf das Kommunikationsprotokoll TCP/IP umgestellt wurde. Die eins-
tige Zielsetzung veränderte sich unter Förderung der National Science Foundation
44 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
2.8.3 Web-Technologien
Der Aufbau einer Kommunikation zur Übertragung von Textseiten im Internet er-
folgt nach einem recht einfachen Prinzip: Von einem Client in einem Netzwerk wird
mit Hilfe eines Web-Browsers (vgl. Abb. 2.13) eine Verbindung zu einem Web-
Server aufgebaut. Ein Web-Browser ist ein Programm, mit dem HTML-Webseiten
oder generell Dokumente wie z.B. Bilder dargestellt werden können. HTML (Hy-
pertext Markup Language) ist dabei eine textbasierte Beschreibungssprache, mit der
Texte, Bilder und sog. Hyperlinks in Dokumenten strukturiert werden (vgl. Abb.
2.14 und Kap. 3.1.7).
Die Einbindung von Informationen, die irgendwo im World Wide Web liegen kön-
nen, wird durch Browser als Informationsorganisatoren verwirklicht. Das in der Ab-
bildung 2.14 dargestellte Beispiel verdeutlicht den Grundaufbau einer einfachen
HTML-Seite. Allerdings werden inzwischen Webseiten weitaus professioneller er-
stellt und bedienen sich einer Vielzahl von Erweiterungsmöglichkeiten zum reinen
Netze und Vernetzung 47
HTML-Text. Mit Hilfe sog. Cascading Style Sheets (CSS) kann die Form der Dar-
stellung von den Inhalten eines strukturierten Dokuments (z.B. HTML- oder XML-
Seiten) getrennt werden. Mit AJAX (Asynchronous JavaScript and XML) besteht
dank der asynchronen Datenübertragung zwischen dem Server und dem Browser
zudem die Möglichkeit, bestimmte Bereiche eines HTML-Dokuments zu aktuali-
sieren, ohne die gesamte Seite neu laden zu müssen. So werden z.B. parallel beim
Eingeben eines Suchbegriffes in eine Suchmaske bereits Antwortvorschläge ange-
zeigt (bekannt von Google oder Wikipedia). Dadurch können Zeit und Volumen für
die redundante Übertragung unnötiger bzw. bereits übertragener Daten gespart wer-
den.
In dieser lange Zeit häufigsten Form der Datenübertragung im Internet werden
Informationen nur statisch übermittelt. Der Benutzer erhält Informationen von ei-
nem Datenserver, die anschließend offline auf dem Client weiterverarbeitet werden
(sog. Herunterladen oder Download von Daten). Hierbei erfolgt neben der Informa-
tionsbeschaffung keine Verarbeitung von Informationen über das Internet. Demge-
genüber können Programme bzw. Programmteile, die in HTML-Seiten eingebun-
den, an den Client übertragen und anschließend dort ausgeführt werden, den Funk-
tionsumfang des Client erweitern und Arbeiten auf dem Client verrichten. Diese
Form des verteilten Arbeitens im Internet kann durch mehrere Varianten umgesetzt
werden:
Plug-ins sind Programme, die sich in den Browser (oder in andere Programme)
einfügen, um zusätzliche Funktionen zur Verfügung zu stellen. Sie werden z.B. über
das Internet übertragen und auf dem Client installiert. Hierdurch kann die Funktio-
nalität des Browsers erheblich gesteigert werden, wodurch vor allem bei interakti-
ven Graphikanwendungen viel Rechentätigkeit auf den Client verlagert, eine
schnelle Übertragung gewährleistet und das Netz weniger belastet werden. Ein Bei-
spiel ist das Acrobat-Reader-Plug-in, das in einem Browser die Anzeige von Da-
teien im PDF-Format ermöglicht.
Ferner kann z.B. mit Java-Applets oder mit JavaScript der Leistungsumfang von
Browsern erhöht werden (vgl. Kap. 3.1.7). Während Plug-ins auf dem Client ver-
bleiben und auch für weitere Anwendungen zur Verfügung stehen, müssen Web-
Applets stets neu (mit den HTML-Seiten) übertragen werden. Web-Applets sind
Computerprogramme, die direkt im Browser auf der Clientseite ausgeführt werden,
ohne dass Daten von einem Server übertragen werden. Der Nutzer interagiert direkt
über den Browser mit dem Programm. Allerdings ist der Einsatz aus Sicherheits-
gründen kritisch zu beurteilen, da von einer unbekannten externen Quelle übertra-
gene Applets möglicherweise Schaden anrichten können (z.B. Löschen oder Sper-
ren von Dateien auf der lokalen Festplatte). Aufgrund dieses Sicherheitsrisikos wer-
den Java Applets ohne Zertifikat auf vielen Browsern blockiert (zur Anwendungs-
software auf mobilen Endgeräten vgl. Kap. 3.1.8).
Auf der Serverseite regelt eine Webserver-Software, häufig vereinfacht als
Webserver bezeichnet, die Kommunikation mit anderen Programmen auf dem Ser-
ver (vgl. Abb. 2.15). In der einfachsten Form des verteilten Arbeitens im Internet
werden statische Dateien, z.B. unveränderliche HTML- oder Bilddateien, von ei-
nem Server auf einen Client übertragen und dort weiterverarbeitet. Als eine wich-
tige Anwendung in der Geoinformatik kann das Herunterladen einer Karte genannt
48 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
werden, wobei dann das Vergrößern oder Verschieben eines Ausschnittes auf dem
Client erfolgen (u.a. mit Nachladen von Kacheln nach dem Verschieben). Sehr häu-
fig werden dem Nutzer bzw. seinem Browser dynamisch erzeugte Dateien zur Ver-
fügung gestellt, die individuell nach den Anforderungen und Anfragen des Nutzers
erstellt werden. Dem Nutzer werden zur Darstellung einer vollständigen Webseite
die HTML-Seite selbst, eine Datei mit den Anweisungen zum Design der Seite so-
wie mehrere Bilddateien einzeln übertragen. Jeweils wird vom Browser eine eigene
Anfrage an den Webserver gestellt, so dass für eine komplexe Webseite zuweilen
hunderte Anfragen und Serverantworten notwendig sind.
Dynamische Webseiten, wozu häufig die Skriptsprache PHP benutzt wird, werden
aus verschiedenen Quellen zusammengestellt und an den Client übertragen. Der
PHP-Code liegt auf dem Server. Der Client übermittelt, welcher PHP-Code bzw.
welche PHP-Datei ausgeführt werden soll. Erst das Ergebnis dieser serverseitigen
Verarbeitung wird an den Browser zurückgeschickt und dem Nutzer anschließend
angezeigt. Das Besondere an dieser Technik ist, dass in Abhängigkeit einer Daten-
verarbeitung auf dem Server beliebig viele HTML-Zeilen erstellt werden können.
So kann z.B. durch eine Datenbankabfrage eine neue Tabelle erzeugt werden, die
als HTML-Seite an den Client zurückgeschickt wird.
Anwendungen in der Geoinformatik konkretisieren die allgemeine Client-Ser-
ver-Architektur im Hinblick auf spezifische Funktionen auf der Serverseite (Spezi-
alfall des allgemeinen Modells). Der Nutzer ruft wie im allgemeinen Modell im
Web-Browser, der als Client dient, Funktionen auf, die auf einem oder mehreren
Servern (Hardware) bearbeitet werden. Die Anfragen werden über einen Webserver
(Software, z.B. der freie Apache Tomcat Webserver) an einen Mapserver (Soft-
ware, z.B. der freie GeoServer) geleitet und dort mit Zugriff auf die Geodaten be-
arbeitet (vgl. Kap. 7.2.2, 7.2.3 u. 6.4.3). Das Ergebnis wird dann meist in Form einer
Karte vom Mapserver über den Webserver an den Client zurückgesendet (vgl. wei-
tergehend die (OGC-)Geodatendienste in Kap. 6.4.2).
Auf der Softwareseite liegt eine dreischichtige Architektur vor. Die Präsentati-
onsschicht ist für die Repräsentation der Daten, für die Benutzereingaben und ge-
nerell für die Benutzerschnittstelle verantwortlich. Die Datenhaltungsschicht ent-
hält Geodaten, die ggf. in einer Datenbank vorliegen, sie ist verantwortlich für das
Speichern und Laden von Daten. Die Logikschicht umfasst die Verarbeitungsme-
chanismen und die Anwendungslogik. Genau der Leistungsumfang dieser Logik-
schicht bestimmt letztlich die Ausrichtung des gesamten Systems. Er reicht vom
Netze und Vernetzung 49
Anzeigen von Karten mit nur einfachen Navigationsfunktionen bis hin zum Web-
Mapping (vgl. Kap. 7.2.1) und zum Web-GIS (vgl. Kap. 9.2). Nicht zu verwechseln
ist das in Abbildung 2.15 dargestellte Schichtenmodell mit dem sog. ISO/OSI-
Referenzmodell (vgl. Schreiner 2019 S. 3 ff.). Dieses von der International Orga-
nization for Standardisation (ISO) veröffentliche Modell beschreibt die in einer Art
Schichtenstruktur aufgebaute Architektur der Kommunikationsprotokolle in Com-
puternetzen (OSI = Open Systems Interconnection). Die in Abbildung 2.15 darge-
stellte Client-Server-Kommunikation bezieht sich hier vor allem auf die oberen
Schichten des ISO/OSI-Referenzmodells (Darstellung und Präsentation der über-
tragenden Daten, anwendungsorientiert). Die unteren Schichten des ISO/OSI-
Referenzmodells (Transportprotokolle, Übertragung einzelner Bits über das Netz-
werk, transportorientiert) werden in Abbildung 2.15 nicht dargestellt.
Anzumerken ist, dass die Logikschicht, die typischerweise auf der Serverseite
vorhanden ist, sich bei Web-Mapping-Anwendungen wie auch bei einem Web- und
Internet-GIS auch auf den Client ausdehnen kann. Übliche Funktionen sind hierbei
die räumliche Navigation (z.B. Zoomen, Ausschnitt verschieben) und die themati-
sche Navigation (Ebenen/Themenschichten ein- und ausblenden).
Serverbasierte Programme bieten mehrere Vorteile. Der Nutzer benötigt ledig-
lich einen Web-Browser als Teil der Standardkonfiguration eines Rechnersystems,
um die gewünschten Informationen zu erhalten. Darüber hinaus ist für den Client
keine weitere Software notwendig. Besonders herauszustellen ist, dass keine Einar-
beitung in eine weitere, möglicherweise sehr komplexe Software notwendig wird.
Die Bedienung ist allein mit den Kenntnissen des Web-Browsing möglich. Gerade
dieser Vorteil hilft, große Nutzerkreise zu erschließen.
Das World Wide Web hat seinen Durchbruch den unzähligen kostenlosen Informa-
tionsangeboten zu verdanken, die von jedermann und beinahe von jedem Ort leicht
über Browser abrufbar sind. Die Anfänge sind dadurch gekennzeichnet, dass dem
Nutzer vielfältige Informationen angeboten wurden, die er (nur) durch Abfrage-
funktionen betrachten und auswerten konnte. Informationen wurden ausschließlich
von den Anbietern zur Verfügung gestellt. Diese Generation wird repräsentiert
durch die inzwischen unzähligen Web Portale. Einerseits dienen sie der Selbstdar-
stellung z.B. von Unternehmen und öffentlichen Einrichtungen sowie dem Verbrei-
ten von Information, um dadurch den Umfang von Standardanfragen zu verringern.
Andererseits bieten sie Verkaufsprodukte an. Diese Webseiten sind durch die neuen
Formen weder verdrängt noch abgelöst worden. Sie machen weiterhin einen großen,
wenn nicht sogar den überwiegenden Teil der Informationen im WWW aus. Für
diese Generation besteht kein Name, erst aus der Perspektive des Web 2.0 wird
häufig die Bezeichnung Web 1.0 benutzt.
Die Bezeichnung Web 2.0 geht auf den Beitrag von O‘Reilly „What is Web 2.0?“
zurück (vgl. O’Reilly 2005). Hierdurch wird eine neue Generation des WWW iden-
tifiziert und benannt, die sich vereinfacht durch einen neuen Grad an Interaktivität
50 Grundbegriffe und allgemeine Grundlagen der Informationsverarbeitung
auszeichnet und bei der der Nutzer (nicht der Informationsanbieter) eine immer be-
deutendere Rolle spielt. Durch die Anwender werden neue Informationen erzeugt,
modifiziert und präsentiert (user generated content). Auch Nicht-Fachleute können
durch einfache Programmiertechniken und Werkzeuge als Entwickler auftreten,
von z.B. Wikis (Hypertext-System für Webseiten zum gemeinschaftlichen Erstellen
von Texten z.B. Wikipedia), von Blogs (auf Webseiten geführtes und zumeist
öffentliches (Tage-)Buch) sowie von Podcasts (Audio- und Videodateien), oder
Profile mit persönlichen Daten in sozialen Netzwerken erstellen (Austausch von
Informationen und Vernetzen mit anderen Nutzern, Teilhabenlassen an
persönlichen Informationen mit Facebook oder Instagram).
Das Web 2.0 nutzt viele bereits in der zweiten Hälfte der 1990er Jahre entwi-
ckelten Techniken, die aber erst mit der größeren Verbreitung breitbandiger Inter-
netzugänge allgemein zugänglich wurden. Typisch sind Techniken, mit denen sich
Web-Anwendungen wie Desktop-Anwendungen verhalten (vgl. Kap. 2.8.3), und
Abonnementdienste (z.B. im Format RSS), die Informationen (insb. Nachrichten-
meldungen) zwischen Webseiten austauschen (z.B. RSS-Feed oder Newsfeed). Ein
wesentliches Element der Webtechnologie ist, dass viele Internetdienste Program-
mierschnittstellen (sog. APIs, application programming interface, Schnittstelle zur
Anwendungsprogrammierung) zur Verfügung stellen. Eine API ermöglicht Zugriff
auf bestimmte Funktionen, Datenstrukturen oder Variablen eines Anbieters. Google
Maps bietet z.B. viele APIs, mit denen Funktionen von Google Maps in eigene
Webseiten eingebettet werden können (z.B. Erstellen einer Anfahrtsroute durch Zu-
griff auf die Routing-Funktionen von Google Maps, vgl. Kap. 7.2.4).
Mit zunehmender Vernetzung und der Entwicklung leistungsfähiger Server und ex-
terner Speicher ist ein neuer IT-Ansatz entstanden, der mit Cloud Computing um-
schrieben wird. Vereinfacht wird ein Teil der Hard- und Software, d.h. vor allem
Speicherplatz, Netzwerk und Anwenderprogramme, nicht mehr lokal auf dem
Rechner an einem Arbeitsplatz vorgehalten, sondern bei einem oder mehreren An-
bietern als Dienste genutzt. Dabei sind die Anbieter in einem nicht weiter einge-
grenzten Teil des Internets ansässig, d.h. im übertragenen Sinn irgendwo in einer
„Wolke“ (engl. cloud). Somit beinhaltet „Cloud Computing“ einerseits On-De-
mand-Infrastruktur (Rechen- und Speicherkapazität, Netze) und andererseits On-
Demand-Software (Betriebssystem Anwenderprogramme, Entwicklungswerk-
zeuge). Beide Leistungen werden nach Gebrauch und Umfang abgerechnet und vor
allem in Abhängigkeit des jeweiligen betrieblichen Bedarfs angefordert.
Wegbereiter war das Unternehmen Amazon, das sehr große Serverparks einrich-
tete, die aber nicht durchgängig ausgelastet waren. So lag der Gedanke nahe, die
Rechenleistung anzubieten. Amazon Web Services (AWS) wurden 2006 gestartet,
mit Amazon Elastic Compute Cloud (Amazon EC2) wird z.B. Rechnerkapazität zur
Verfügung gestellt.
Netze und Vernetzung 51
Literatur
Broy, M. (1998): Informatik Eine grundlegende Einführung. Band 1: Programmierung und Rech-
nerstrukturen. Berlin: Springer. 2. Aufl.
Creative Commons (2019): Mehr über Lizenzen. https://creativecommons.org/licenses/ (6.11.2019)
GNU (2019a): Freie Software. http://www.gnu.de//free-software/index.de.html (6.11.2019)
GNU (2019b): Dokumente. http://www.gnu.de/documents/index.de.html (6.11.2019)
Gumm, H.-P. u. M. Sommer (2013): Einführung in die Informatik. München: Oldenbourg. 10. Aufl.
Herrmann, D. (1992): Algorithmen Arbeitsbuch. Bonn: Addison-Wesley.
Lang, H. (1993): Farbmetrik. In: Niedrig, H. (Hrsg.): Optik. Bergmann Schaefer Lehrbuch der Ex-
perimentalphysik Bd. 3. Berlin: de Gruyter. 9. Aufl.
Mell, P. u. T. Grance (2011): The NIST Definition of Cloud Computing. Recommendations of the
National Institute of Standards and Technology. Special Publication 800-145. Gaithersburg,
MD. https://nvlpubs.nist.gov/nistpubs/Legacy/SP/nistspecialpublication800-145.pdf (6.11.2019)
National Science Foundation (2019): A Brief History of NSF and the Internet.
http://www.nsf.gov/news/news_summ.jsp?cntn_id=103050 (6.11.2019)
Open Source Initiative (2019): The Open Source Definition. https://opensource.org/docs/osd
(6.11.2019)
O’Reilly, T. (2005): What Is Web 2.0. Design Patterns and Business Models for the Next Genera-
tion of Software. https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html (6.11.2019)
Schreiner, R. (2019): Computernetzwerke: Von den Grundlagen zur Funktion und Anwendung.
München: Hanser. 7. Aufl.
Schwarz, H.R. u. N. Köckler (2011): Numerische Mathematik. Wiesbaden: Vieweg + Teubner. 8.
Aufl.
3 Grundlagen aus der Informatik
3.1.1 Programmierebenen
Der Computer ist ein universell einsetzbarer Automat, der durch ein Programm ge-
steuert wird (vgl. Kap. 2.2). Die Gesamtheit aller Programme, die auf einem Rech-
ner eingesetzt werden können, wird als Software bezeichnet (vgl. Kap. 2.7). Her-
auszustellen ist, dass sowohl die System- als auch die Anwendungssoftware mit
Hilfe von Programmiersprachen, d.h. durch „Programmierung“ erstellt werden.
Diesen (künstlichen) Sprachen kommt somit eine zentrale Bedeutung in der Kom-
munikation zwischen Mensch und Maschine, d.h. zwischen Anwender und Compu-
tersystem zu. Die Programmierung eines Rechners kann im Prinzip auf verschiede-
nen Ebenen erfolgen (vgl. Abb. 3.1):
Maschinensprachen, die für jeden Prozessortyp spezifisch sind, beschreiben ei-
nen Algorithmus als Folge von binär codierten Befehlen (z.B. 010100001010), so
dass der Prozessor dieses Programm sofort ausführen kann. Allerdings ist die Pro-
grammierung sehr zeitaufwendig, schwierig und fehleranfällig. Ein Maschinenpro-
gramm ist nicht auf ein anderes Rechnermodell bzw. Prozessormodell zu übertra-
gen, da es eben aus prozessortypischen Befehlen besteht.
Assemblersprachen sind maschinenorientierte Programmiersprachen, die An-
weisungen und Operationen durch leicht(er) verständliche Symbole ausdrücken.
Hier dienen mnemotechnische (d.h. gedächtnisstützende) Bezeichnungen wie ADD
oder SUB dazu, die Befehle verständlich abzukürzen. Assemblerprogramme sind
effizient und erfordern wenig Speicherplatz. Sie ermöglichen eine recht flexible und
schnelle Programmausführung. Die Programmerstellung ist aber (noch) sehr müh-
selig, die Programme sind relativ schwer lesbar und unübersichtlich. Assemblerpro-
gramme sind von der jeweiligen Hardware abhängig und kaum auf ein anderes
Rechnermodell zu übertragen. Diese Programme können aber schon nicht mehr di-
rekt vom Rechner verstanden werden. Das Assemblerprogramm muss zu seiner
Ausführung in die Maschinensprache mit Hilfe eines Programms übersetzt, d.h. as-
sembliert werden. Die Programm- und Datenadressen werden nicht mehr durch ab-
solut festgelegte Maschinenadressen angegeben. Stattdessen wird eine symbolische
Darstellung gewählt, bei der z.B. (Variablen-)Namen für Adressen stehen. Außer-
dem werden die Konstanten wie z.B. 47 in der gewohnten Schreibweise und nicht
in binärer Form angegeben. Durch den Prozess der Assemblierung, der wiederum
mit Hilfe spezieller Programme erfolgt, werden dann Assemblerprogramme auto-
matisch in ein Maschinenprogramm übersetzt. Das Programm zur Erläuterung des
einer Virtuellen Maschine (VM) darstellt, d.h. einer nicht aus Hardware bestehen-
den, sondern aus Software nachgebildeten Maschine, wird erst zur Laufzeit durch
die sog. Java Virtual Machine (JVM) in die entsprechenden Maschinenbefehle des
Prozessors übersetzt und ausgeführt. Da der Bytecode unabhängig von der realen
Hardware ist, wird eine sog. Plattformunabhängigkeit erreicht. Dies ist somit einer-
seits von Vorteil, andererseits sind Java-Programme aufgrund fehlender Hardware-
nähe relativ langsam. Ferner muss die Virtuelle Maschine für jede Rechnerplattform
bereitgestellt werden, auf der das Programm bzw. der Bytecode ausgeführt werden
soll. Die Java Virtual Machine ist Teil der Java-Laufzeitumgebung (JRE, Java Run-
time Environment), die für jede Rechnerplattform existiert und als GNU General
Public License frei verfügbar ist. Neben Java verwenden auch die .NET-Sprachen
bzw. die daraus entwickelten Programme einen Bytecode. Dabei fasst der Begriff
.NET mehrere, von Microsoft herausgegebene Softwareplattformen wie z.B. Visual
C#.NET, C++.NET oder Visual Basic.NET zusammen.
An der Erstellung und Ausführung von Programmen sind wiederum mehrere Pro-
gramme beteiligt (vgl. Abb. 3.2). Über einen Editor, d.h. über ein Programm zur
Eingabe und Bearbeitung von Texten, Zahlen wie auch Sonderzeichen, erfolgt die
Eingabe der Programmanweisungen. Vorausgegangen sind die Problemanalyse, die
Erarbeitung einer Lösungsstrategie, einer ersten oder groben Programmskizze oder
auch die Zusammenstellung sämtlicher Programmbefehle (zur Softwareentwick-
lung vgl. Kap. 3.5). Ein derartiges Programm, das in einer höheren Programmier-
sprache geschrieben worden ist, wird als Quellprogramm bezeichnet, das den sog.
Quelltext (d.h. auch Quellcode oder Sourcecode) enthält. Da derartige Quellpro-
gramme nicht direkt vom Rechner bzw. Prozessor ausgeführt werden können, über-
setzt ein Compiler die Programme in das Maschinenprogramm.
Allgemein ist ein Compiler ein Programm, das ein in einer höheren Program-
miersprache geschriebenes Programm liest und dieses dann in ein Programm einer
Zielsprache übersetzt. Eine wesentliche Teilaufgabe eines Compilers ist die Mel-
dung syntaktischer Fehler, die im Quellprogramm enthalten sind. Compiler sind so-
mit wichtige Softwarewerkzeuge. Von ihrer Zuverlässigkeit und Handhabbarkeit
(z.B. Fehleranalyse) wird die Produktivität der Programmerstellung und der An-
wendersoftware erheblich beeinflusst. Das Compilieren eines Programms muss als
komplexer Prozess aufgefasst werden, der sich in mehrere Phasen gliedert:
Das Quellprogramm wird in seine Bestandteile zerlegt. Durch die lexikalische
Analyse (Scanning) wird u.a. überprüft, ob die im Quellprogramm enthaltenen Zei-
chen und Symbole erlaubt und im Wortschatz, d.h. im Alphabet der Programmier-
sprache, enthalten sind.
Anschließend wird in der Syntaxanalyse (Parsing) überprüft, ob die benutzten
Worte oder Anweisungen oder der formale Aufbau der Anweisungen den Regeln
der Sprache entspricht. So wird allgemein unter Syntax der Satzbau oder der for-
male Aufbau der Sätze oder Wörter einer Sprache verstanden. Überprüft wird somit
z.B., ob die Anweisung „statik“ zur gewählten Programmiersprache gehört. Leider
56 Grundlagen aus der Informatik
fehlt dabei eine detaillierte Fehleranalyse, so dass der Programmierer nicht darauf
aufmerksam gemacht wird, dass, sofern er in der Sprache Java programmiert, die
richtige Anweisung „static“ lauten muss.
Im nächsten Schritt erfolgt die semantische Analyse. Allgemein kennzeichnet die
Semantik die inhaltliche Bedeutung einer Sprache. Hier wird also das Programm
auf Bedeutungsfehler überprüft. Die Codeerzeugung wird vorbereitet.
Im letzten Schritt der Codeerzeugung wird das eigentliche Zielprogramm erstellt.
Es werden die Maschinenbefehle erzeugt. Die Codegenerierung erfolgt dabei häufig
wiederum in mehreren Schritten. So wird zunächst nur ein Zwischencode erzeugt.
Anschließend wird während der Codeoptimierung versucht, den Zwischencode zu
verbessern, um dadurch einen effizienteren Maschinencode zu erstellen. Häufig er-
zeugen Compiler statt direkten Maschinencodes zunächst Assembleranweisungen,
die von einem Assembler in ein Maschinenprogramm übersetzt werden müssen. Da
Assembler wie Compiler Maschinenprogramme, d.h. prozessortypische Anweisun-
gen erzeugen, sind diese Werkzeuge vom jeweiligen Prozessor (bzw. seinem Be-
fehlssatz) abhängig.
Nach dem Übersetzen wird das kompilierte Programm mit anderen Programmen,
die bereits schon in Maschinensprache vorliegen, beim Linken zu einem einzigen
Programm zusammengebunden. Diese Programme können aus mehreren verschie-
denen Übersetzungen stammen. So kann ein umfangreiches Programm in Einzel-
teile zerlegt werden, die nacheinander getestet und kompiliert werden. Fast in jedem
Fall werden beim Linken vom System bereitgestellte Bibliotheksfunktionen wie
z.B. standardmäßig vorliegende Ein- und Ausgaberoutinen oder mathematische
Funktionen wie z.B. sin(x) hinzugebunden. Der Loader lädt das Programm in den
Hauptspeicher und führt es aus. Häufig werden diese Schritte in einer komfortablen
Programmierumgebung automatisch ausgeführt. Im Idealfall meldet sich das Com-
putersystem ohne Fehlermeldung und liefert das gewünschte Ergebnis. Wenn nicht,
beginnt die Fehlersuche, mit der viele Programmierer den größten Teil ihrer Zeit
verbringen.
Anstelle von Compilern übersetzen Interpreter ein Programm nacheinander
Schritt für Schritt und führen direkt im Anschluss die Anweisung aus. Hierbei wird
also nicht zuerst ein gesamtes Programm geschlossen in eine andere Sprache über-
setzt. Interpreter werden vor allem für Programmiersprachen eingesetzt, die zum
Dialogbetrieb gedacht sind. Der Vorteil von Interpretern besteht darin, dass nach
Änderungen des Quellcodes das Programm danach sofort ausführbar ist, d.h. ohne
Kompilieren. Beim Auftreten eines Fehlers im Programm kann versucht werden,
direkt die betreffende Codezeile zu verändern, um anschließend das Programm wie-
der fortzusetzen. Dies erleichtert erheblich die Fehlerbehandlung und das Erstellen
fehlerfreier Programme. Allerdings bestehen bei Interpretern wesentlich längere
Rechenzeiten. Die Adressen aller verwendeten Variablen müssen z.B. bei einer Zu-
weisung über die Bezeichnung gesucht werden, während die Adressen beim Com-
piler einmalig berechnet werden. Python ist eine moderne Interpretersprache, die
recht einfach zu erlernen ist und mehrere Programmierparadigmen wie z.B. die
funktionale oder objektorientierte Programmierung unterstützt (zur Bedeutung von
Python in der Geoinformatik vgl. Kap. 3.1.5).
Programmierung von Computersystemen 57
Abb. 3.2: Erstellen und Ausführen von Programmen mit einem Computersystem
Ein Editor, der Linker und der Loader sind Bestandteile des Betriebssystems. Zu-
sammen mit einem Compiler, der von der jeweils benutzten Programmiersprache
und dem Befehlsvorrat des Prozessors abhängig ist, bilden diese Programme die
Minimalausstattung, die zur Erstellung von Programmen notwendig ist. Zumeist ist
aber der (einfache) Editor des Betriebssystems zur Entwicklung von Programmen
wenig geeignet. Tippfehler, d.h. sprachabhängige Tippfehler, können bei der Ein-
gabe nicht erkannt werden. Vor allem können hierbei keine Hilfen angeboten wer-
den, die Erläuterungen zu Befehlen liefern können.
Während derartig einfache Programmierbedingungen die Anfänge der Program-
mierung kennzeichneten, dominiert heute eine interaktive Arbeitsweise mit einer
graphischen Benutzeroberfläche und intuitiver Benutzerführung (integrierte Ent-
wicklungsumgebung, IDE von engl. integrated development environment). Abbil-
dung 3.3 zeigt die (graphische) Programmierumgebung Eclipse, ein frei verfügbares
Programmierwerkzeug zur Entwicklung von Software für viele Programmierspra-
chen wie z.B. Java, C/C++, PHP oder Python (vgl. Eclipse Foundation 2019). In
mehreren Fenstern werden verschiedene Programmierwerkzeuge zur Verfügung
gestellt: Im Codefenster wird der Quellcode eingegeben, wobei z.B. bereits wäh-
rend der Eingabe eine Syntaxüberprüfung und Autovervollständigung der Codezei-
len erfolgen. Anweisungen, Variablen und Kommentare werden unterschiedlich
farbig gekennzeichnet, Strukturblöcke werden (automatisch) eingerückt. Aus einer
Sammlung von Elementen können z.B. in der Programmierumgebung C u.a. auto-
matisiert sog. Makefiles generiert werden, so dass eine einfachere und schnellere
Programmerstellung erfolgen kann. Zur Programmierumgebung gehören ferner u.a.
Compiler und Testhilfen z.B. zum Diagnostizieren und Auffinden von Fehlern (De-
bugger). Diese Werkzeuge, die einzelne Programme darstellen, sind in die Entwick-
lungsumgebung integriert und müssen nicht gezielt einzeln vom Programmierer
aufgerufen werden.
58 Grundlagen aus der Informatik
Im Zusammenhang mit dem Erstellen von Programmen sind zwei Konzepte von
großer praktischer Bedeutung:
- Häufig werden zu Programmiersprachen oder zu einer bestehenden Software
Programmierschnittstellen angeboten. Eine derartige API (Application User In-
terface) ermöglicht Softwareentwicklern Zugriff auf weitere Ressourcen, so dass
sie (individuelle) Erweiterungen programmieren können. Beispiele sind die
Google Maps API im Rahmen der Entwicklung graphischen Applikationen für
Smartphones (vgl. Kap. 7.2.4) oder die Programmierschnittstellen ArcPy und
PyQGIS (vgl. Kap. 3.1.5).
- Ein Plug-in ist eine „fertige“ Softwarekomponente (häufig synonym zu „Add-
on“), die eine Software erweitert. Neben Plug-ins für Web-Browser (vgl. Kap.
2.8.3) sind in der Geoinformatik vor allem Erweiterungen zu Geoinformations-
systemen von Bedeutung. So können Plug-ins vom Benutzer zu speziellen An-
wendungen installiert und während der Laufzeit des Programms eingebunden
werden (vgl. die Fülle an Plug-ins zu QGIS, vgl. QGIS 2019a u. QGIS 2019b).
3.1.3 Programmiersprachen
Maschinen- und Assemblersprachen sind wenig geeignet, auch nur einfache Re-
chenanweisungen zu programmieren. So wäre es für eine mathematisch-technische
Programmierung von Computersystemen 59
Frage mit wahr oder falsch zu beantworten. Derartige Sprachen werden zur Ent-
wicklung von Expertensystemen eingesetzt. Ein Beispiel für eine prädikative Pro-
grammiersprache ist Prolog.
Bei der objektorientierten Programmierung stehen Klassen und Objekte im Mit-
telpunkt. Eine Klasse beschreibt dabei die Zusammenfassung von (ausgewählten)
Funktionen oder Methoden und Konstanten oder Programmvariablen (in der Ob-
jektorientierung Attribute genannt). In Klassen sind Attribute und die darauf anzu-
wendenden Methoden zusammengefasst (in der Objektorientierung Kapselung ge-
nannt). Objektorientierte Programmiersprachen besitzen standardmäßig umfangrei-
che Klassenbibliotheken. Das Programmieren läuft hierbei zu einem großen Teil
darauf hinaus, ausgehend von diesen Klassen Unterklassen zu erzeugen, die die
Funktionalität der Oberklasse erben und darüber hinaus speziell auf die Fragestel-
lung zugeschnitten werden. Mit Hilfe der Klassen werden dann während der Lauf-
zeit Objekte erzeugt, die die Daten enthalten. Hierbei entspricht ein Objekt einem
Datensatz, auf den durch den Objektnamen verwiesen wird. Auf die Attribute wird
(abhängig von ihrer sog. Sichtbarkeit) über Methoden zugegriffen. Der Grundge-
danke der objektorientierten Programmierung, die das derzeit wichtigste Program-
mierkonzept darstellt, wird an einem Beispiel im Kapitel 3.1.4.3 verdeutlicht.
3.1.4 Programmierkonzepte
Datentypen lassen sich neue Datentypen wie z.B. Arrays zusammensetzen (vgl. ein-
gehender Kap. 3.2 u. insb. Kap. 3.2.3).
Die strukturierte Programmierung zielt darauf ab, ein Programm leicht lesbar und
übersichtlich zu gestalten und es durch einfache Regeln und Bausteine zu struktu-
rieren. Dieser Programmierstil vermeidet grundsätzlich einfache Sprünge (sog.
goto-Anweisungen), die frühe Programme kennzeichneten und sie unübersichtlich
machten (sog. Spaghetticode). Vor allem dient der konsequente Einsatz von Struk-
turblöcken, das Programm in Einzelteile zu zerlegen und somit zu strukturieren.
Diese Bereiche werden z.B. in Java oder C mit "{" und "}" eingeschlossen. In Py-
thon besteht ein völlig anderes Strukturierungskonzept. Hier benutzt man das Ein-
rücken von Zeilen oder die Benutzung von Leerzeichen am Anfang einer Zeile als
Strukturierungselemente.
Für die Zerlegung eines Programms in Strukturblöcke sollte gelten:
- Ein Strukturblock besitzt eine eindeutige Funktion.
- Ein Strukturblock besteht aus einem einzigen Befehl (Elementarbefehl), aus meh-
reren Befehlen oder aus mehreren nachgeordneten Strukturblöcken.
- Zwischen Strukturblöcken besteht keine Überlappung: Entweder sind Struktur-
blöcke vollständig getrennt oder ein Strukturblock ist vollständig in einem über-
geordneten enthalten.
- Ein Strukturblock besitzt genau einen Eingang und einen Ausgang (und somit
keine Sprünge in den Strukturblock).
Neben Strukturblöcken werden insbesondere Prozeduren (Unterprogramme) zur
übersichtlichen Strukturierung verwendet. Hierdurch wird die Aufgabe in mehrere
Teilaufgaben zerlegt, die in mehreren Schritten einzeln gelöst werden. Die einzel-
nen Komponenten können leicht abgetrennt, somit einzeln getestet und verifiziert,
aber auch in anderen Programmen wiederverwendet werden. Damit Gruppen von
Anweisungen öfter unter verschiedenen Bedingungen (in anderen Programmen)
eingesetzt werden können, sollten sie möglichst flexibel an verschiedene Einzelfälle
angepasst werden können. Deshalb versieht man Prozeduren (Unterprogramme) mit
Parametern, denen je nach Unterprogrammaufruf verschiedene Werte zugewiesen
werden können.
Die strukturierte Programmierung basiert ferner auf der Verwendung klar aufge-
bauter Datenstrukturen und Konstantenvereinbarungen, die getrennt (zu Beginn)
deklariert und nicht über das Programm gestreut werden, sowie ferner auf der Ver-
wendung selbsterklärender Namen und Bezeichner.
Diese Regeln zur strukturierten Programmierung erscheinen fast selbstverständ-
lich. Anzumerken ist, dass die zu Beginn der Computerentwicklung vorliegenden
Programmiersprachen einen derartigen Programmierstil kaum unterstützten. Für
frühe Programme waren zahlreiche Programmverzweigungen mit Vor- und Rück-
wärtssprüngen üblich, die die Übersichtlichkeit erschwerten.
64 Grundlagen aus der Informatik
Die Programmabläufe lassen sich auf wenige Grundformen, sog. Steuer- oder
Kontrollstrukturen, zurückführen. Die Aufeinanderfolge einzelner Schritte des Al-
gorithmus wird als Sequenz von Anweisungen (sog. statements) bezeichnet. Inner-
halb einer Sequenz wird jede Anweisung genau einmal ausgeführt.
Die Selektion (Auswahl, Fallunterscheidung) ist eine Struktur, bei der die Aus-
führung von Anweisungen von einer oder mehreren Bedingungen abhängt. Dadurch
können unterschiedliche Lösungswege in Abhängigkeit von verschiedenen Anwen-
dungsvoraussetzungen verfolgt werden. Für die Selektion gibt es mehrere Varian-
ten, die bedingte Verzweigung (in zwei Formen) und die Fallunterscheidung. An-
gelehnt an Python lautet der Code wie folgt, wobei als Strukturierungselemente das
Einrücken von Zeilen oder die Benutzung von Leerzeichen am Anfang einer Zeile
zu erkennen sind:
if bedingung: Falls bedingung = wahr, dann wird aktion 1 ausgeführt, danach
aktion 1 folgt aktion z.
aktion z sonst nur aktion z.
WHILE bedingung
aktion 1 Zunächst wird immer die Schleifenbedingung geprüft. Solange
aktion 2 sie wahr ist, wird der Rumpf dieser Schleife ausgeführt
aktion 3 (Schleife mit Vorabtest).
...
aktion z
Programmierung von Computersystemen 65
Einige der angeführten Prinzipien der strukturierten Programmierung und die der
objektorientierten Programmierung (vgl. Kap. 3.1.4.3) sollen an einem einfachen
Beispiel deutlich werden. In einer Datei stehen untereinander mehrere Datensätze
mit jeweils dem Namen einer Messstation, einem weiteren Bezeichner (z.B. dem
Beobachtungsmonat) sowie einer unbekannten Anzahl an Messwerten. Für jede
Zeile, d.h. für jeden Datensatz, soll der Mittelwert der Messwerte berechnet werden.
Die Eingabedaten für dieses Programmbeispiel können z.B. sein (einschl. beliebig
vieler Leerzeichen):
A12 MAI 10.8 12.0 11.7 13.8 12.7
A01 APRIL 9.2
A23 MAI 12.1 11.7 12.8 13.2
A25 MAI 12.8 12.9 13.0 12.7 13.1
A14 MAI 12.4 11.9 14.0 12.5
A26 MAI 7.1 14.1 12.9 11.4
Das Programmbeispiel zur Berechnung des arithmetischen Mittelwerts in C kann
recht einfach nachvollzogen werden, wobei u.U. Kenntnisse der grundlegenden Da-
tentypen und Datenstrukturen notwendig sind (vgl. Kap. 3.2). Einige Erläuterungen
zu dem klar gegliederten und übersichtlichen Programm sind hilfreich:
Jeder Datensatz wird als sog. Struktur verarbeitet, d.h. als benutzerdefinierter
Datentyp (vgl. den neu definierten Datentyp „messreihe“). In einer Schleife erfolgt
das Einlesen und Verarbeiten der Datensätze. Jede Eingabezeile wird anhand der
enthaltenen Leerzeichen zerlegt. Anschließend wird „arr_messreihe“ gefüllt. Das
Programm beschränkt sich auf maximal 15 Werte pro Zeile.
66 Grundlagen aus der Informatik
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
struct messreihe{
char id[7] monat[10];
float werte[15];
int anzahl_werte;
};
float mittelwert (struct messreihe m){
float summe = 0;
for (int i = 0; i < m.anzahl_werte; i++) summe += m.werte[i];
return summe/m.anzahl_werte;
}
int main() {
char xin[200];
FILE *datei; //genaue Angabe der Datei
// Einbau einer Fehlerbehandlung, falls das Öffnen nicht erfolgen kann
for (int i= 0; fgets(xin, sizeof(xin), datei) != NULL; i++){
// Sichern der aktuellen Zeile und Teilen
char *kopieZeile = strdup(xin), *split = strtok(xin, " ");
int tokens_pLine = 0;
while (split != NULL){ //Anzahl Elemente pro Zeile
tokens_pLine++;
split = strtok(NULL, " ");
}
//Speicherstruktur erstellen und Daten darin sichern
char *zeile[tokens_pLine], *split2 = strtok(kopieZeile, " ");
for (int j = 0 ; j < tokens_pLine; j++) {
zeile[j] = split2;
split2 = strtok(NULL, " ");
}
// Erzeugen eines Messreihen-Arrays und Fuellen mit Daten
struct messreihe arr_messreihe[MAX];
float messwert = 0;
strcpy(arr_messreihe[i].id, zeile[0]);
strcpy(arr_messreihe[i].monat, zeile[1]);
arr_messreihe[i].anzahl_werte = tokens_pLine-2;
for (int k = 2; k < tokens_pLine; k++) {
messwert = strtof(zeile[k], NULL); //Messwert aus Eingabezeile holen
arr_messreihe[i].werte[k-2] = messwert; //Messwert in Datenstruktur speichern
}
arr_messreihe[i].summe_werte = summe;
printf("| Mittelwert: %0.2f \n", mittelwert(arr_messreihe[i]));
}
fclose(datei);
}
Das Hauptprogramm liest die Daten ein und bereitet sie in der Datenstruktur „mess-
reihe“ auf. Die Funktion „mittelwert“ wertet die Daten aus. Entsprechend können
weitere Funktionen zu anderen Auswertungen entwickelt werden. Somit ergibt sich
eine logische Trennung nach unterschiedlichen Aufgabenbereichen.
Programmierung von Computersystemen 67
...
IMPORT LocationOnEarth
# Kommentar:
# Eingabe eines Standortes durch X- und Y- Koordinate sowie eines
# Indikators P zur Kennzeichnung der zugehörigen Projektion, zugelassene
# Projektionen sind 1 = Geographische Koordinaten, 2 = UTM-Koordinaten
# jeweils bezüglich des WGS84-Ellipsoiden
PRINT "Eingabe der Koordinaten für den ersten Standort im Format: X Y P"
s1 = LocationOnEarth.readStandort()
PRINT "Eingabe der Koordinaten für den zweiten Standort im Format: X Y P"
s2 = LocationOnEarth.readStandort()
Das Modul LocationOnEarth bietet die für diese Teilaufgabe notwendigen Dienste
an. Der Benutzer muss lediglich die Schnittstellen kennen, die die nach außen sicht-
baren Konstanten, Variablen, Funktionen und Methoden definieren (Variable s1
und s2, Methoden readStandort und distanz).
Nummer zur Wertekennung (WerteID) sowie einer Variablen für den Zahlenwert
besteht. Anzumerken ist, dass hierdurch nur der Objekttyp definiert wird. Zunächst
ist das Objekt Messwert noch leer. Dieses Vorgehen ist im obigen Beispiel ver-
gleichbar mit den leeren Tüten für die Bodenproben, wobei die Eigenschaften der
Tüten festgelegt sind.
Die Klasse Messreihe enthält einen sog. Konstruktor zum Erstellen des Objektes
Messreihe und drei Methoden. Ein Objekt Messreihe besteht aus der in Java vorhan-
denen Klasse LinkedList, die eine beliebige Anzahl von Datenwerten in einer verket-
teten Liste zusammenbringt, ferner aus einer Variablen für die Anzahl der Werte
dieser Messreihe und einer Variablen für die Summe der Werte. Die erste Methode
(add) fügt dem Messreihenobjekt genau ein neues Messwertobjekt hinzu.
Die zweite Methode (addMultiple) erzeugt aus einem Array von einzelnen Strings,
d.h. die zerstückelte Eingabezeile, zunächst ein neues Messwertobjekt und fügt die-
ses Messwertobjekt dem Messreihenobjekt hinzu.
this.add(new Messwert(ID, Monat, data));
Dies ist der Kern objektorientierter Programmierung. Über die Methode „mittelwert-
berechnung“ erfolgt schließlich die Berechnung des Mittelwertes für alle Messwerte
eines Messreihenobjekts.
Die Methode main() stellt den Einstiegspunkt in die Ausführung einer Java-An-
wendung dar und muss „public static void main(String[] args)“ lauten. In der Aufga-
benstellung besteht hier eine besondere Schwierigkeit, da die Größe der Messwerte
(z.B. zwei oder vier führende Ziffern mit zwei oder drei Nachkommastellen) und
die Anzahl der Messwerte pro Eingabezeile nicht bekannt sind. Die Einzelwerte
sind lediglich durch (ein oder auch mehrere) Leerzeichen getrennt. In der Methode
„main“ wird daher nacheinander aus einer Datei eine gesamte Eingabezeile ge-
schlossen als Folge von Textzeichen eingelesen und als sog. String „zeile“ zwi-
schengespeichert (vgl. Standarddatentypen in Kap. 3.2.2). Anschließend muss die-
ser String stückweise zerlegt werden, wobei Leerzeichen als Trennzeichen interpre-
tiert werden.
Bei Problemen kann der FileReader eine sog. Exception werfen. Daher wird der
Quellcode in einem sog. „try-catch“-Block eingebunden.
In der Geoinformatik hat Java besonderes Gewicht:
- Zur Modellierung und Bearbeitung von zweidimensionalen, linearen Geometrien
liegt mit der JTS Topology Suite eine in Java entwickelte freie Programmbiblio-
thek vor (vgl. JTS 2019).
- Mehrere Open-Source-Produkte wie z.B. GeoTools (vgl. Kap. 3.1.6) oder die
freien Geoinformationssystem uDig (User-friendly Desktop Internet GIS) oder
OpenJUMP basieren auf JTS.
72 Grundlagen aus der Informatik
import java.util.LinkedList;
public class Messreihe {
//Variablen definieren
LinkedList messreihe;
int anzahlWerte;
double summeWerte;
//Datenverarbeitung.Java
import java.io.BufferedReader;
import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.IOException;
import java.util.StringTokenizer;
import java.util.LinkedList;
BufferedReader br = null;
try {
//BufferedReader zum Einlesen von Textzeilen
br = new BufferedReader(new FileReader(new File("Dateiname mit Pfad")));
String zeile = null;
//Zeilenweise einlesen und abspeichern in dem String "zeile"
while((zeile = br.readLine()) != null) {
//Zerlegen der eingelesen Zeile über eine Leerzeichen-Trennung
StringTokenizer st = new StringTokenizer(zeile, " ");
int laenge = st.countTokens();
//Abspeichern der zerlegten Strings in ein String-Array
String aktuelleReihe[] = new String[laenge];
Die Programmiersprache Python besitzt eine große Bedeutung für mehrere Geoin-
formationssysteme. So umfasst das proprietäre Geoinformationssystem ArcGIS die
Python-API ArcPy, mit der ein Zugriff auf sämtliche Geoverarbeitungswerkzeuge
gegeben ist und die Skriptfunktionen sowie spezielle Module zur Verfügung stellt,
die eine Automatisierung von GIS-Aufgaben ermöglichen (zum Einstieg vgl. ESRI
2019). Das frei verfügbare Geoinformationssystem QGIS bietet entsprechend die
Möglichkeit, den Funktionsumfang mit Hilfe von Plug-ins zu erweitern (vgl. QGIS
2019a). Hierzu steht die Python-API PyQGIS zur Verfügung. Mit über 1.000 Plug-
ins liegt bereits eine Vielzahl von zum Teil sehr speziellen Erweiterungen zum
freien Download bereit (vgl. QGIS 2019b). Über dieses stetig wachsende Angebot
hinaus können effiziente, auf die eigenen spezifischen Anforderungen zugeschnit-
tene Plug-ins mit Python programmiert werden.
def run(self):
#Die Run-Methode beinhaltet die Logik hinter dem Plug-in#
Da die Software Qt-Designer direkt mit QGIS installiert wird, bietet es sich an,
hiermit auch die graphische Benutzerschnittstelle eines Plug-ins für QGIS zu ent-
wickeln (Entwurf von Eingabemasken mit z.B. Dialogfeldern, Drop-Down-Feldern
und Schaltflächen). Qt selbst ist eines der wichtigsten Frameworks zum Erstellen
graphischer Benutzeroberflächen für Anwendungen auf verschiedenen Betriebssys-
temen. Qt-Designer liefert eine graphische Oberfläche mit Code in C++, so dass Qt-
Designer relativ leicht in das ebenfalls in C++ geschriebene QGIS eingebunden
werden kann. Mit der in QGIS vorhandenen Bibliothek PyQt bestehen Funktionen,
die mit Qt erstellte graphische Oberfläche mit Python anzusprechen, um somit ein
effizientes Anstoßen eines in Python erstellten Plug-ins zu ermöglichen.
Falls die Benutzerschnittstelle über eine graphische Oberfläche realisiert ist, be-
sitzt ein Plug-in in QGIS zunächst recht viel Code. Das Beispielprogramm zeigt
daher mit der sog. run-Methode nur den Kern des Plug-ins. In einer sehr einfachen
Aufgabenstellung soll ermittelt werden, welche Städte bzw. Teile von Städten in
einem Umkreis von 200 km um ein Atomkraftwerk liegen. Hierzu stehen die Stand-
orte der Kraftwerke und die Flächen der Städte zur Verfügung (vgl. z.B. die Daten-
ebene bzw. den Layer „nuclear_stations.shp“, zum Shape-Datenformat vgl. Kap.
9.3.3). Berechnet werden die Pufferzonen und die räumlichen Durchschnitte von
Pufferzonen und Stadtflächen (zu diesen Standardfunktionen eines Geoinformati-
onssystems vgl. Kap. 9.4.4).
Diese Aufgabe kann beliebig erweitert werden (z.B. Aufsummieren der Einwoh-
nerzahlen in den Umkreisen) oder an ähnliche Fragestellungen angepasst werden
(z.B. Umgebungen von Vulkanen analysieren, Einzugsbereiche auswerten). Insge-
samt bieten derartige Plug-ins viele Möglichkeiten, um benutzerspezifisch die Ana-
lyse bestehender Daten zu automatisieren, z.B. Eingabemasken mit Datenbankan-
bindung und Verknüpfung zu vorhandenen Daten, oder um neue Werkzeuge zu pro-
grammieren (vgl. Garrard 2016 u. Ulferts 2017).
import org.geotools.data.FileDataStoreFinder;
import org.geotools.data.simple.SimpleFeatureSource;
import org.geotools.map.FeatureLayer;
import org.geotools.map.Layer;
import org.geotools.map.MapContent;
import org.geotools.styling.SLD;
import org.geotools.styling.Style;
import org.geotools.swing.JMapFrame;
Ein Nutzer kann die Graphik vergrößern oder verkleinern sowie den Ausschnitt ver-
schieben. Angezeigt werden Koordinaten und das Koordinatensystem. Ferner kön-
nen durch Anklicken einzelner Linien deren Eigenschaften angezeigt werden.
Das Beispielprogramm soll auch die Mächtigkeit der GeoTools-Programmbibli-
othek verdeutlichen, zu der insbesondere umfangreiche Werkzeuge zur Analyse von
Geodaten gehören. Darüber hinaus kann der vorliegende Ansatz benutzt werden,
um eigene Algorithmen zu implementieren.
Programmierung von Computersystemen 79
Zentrale Bedeutung für Anwendungen im World Wide Web des Internet besitzt die
Hypertext Markup Language (HTML), die eine Befehlssammlung und eine einfache
Sprache zur Gestaltung von Web-Seiten darstellt (vgl. Kap. 2.8.3). HTML5 ist die
Kernsprache des Web. Der neue Standard bietet gegenüber dem Vorläufer HTML
4.01 vielfältige neue Funktionen wie z.B. Video, Audio, lokale Speicher, Überprü-
fung von Formulareingaben sowie dynamische 2D- und 3D-Graphiken, die bisher
von HTML4 nicht direkt, d.h. nicht ohne zusätzliche Plug-ins, unterstützt wurden.
Das Einbinden eines Java-Programms in eine Website erfolgt über sog. Java-
Applets, die in einer vom Betriebssystem isolierten Virtuellen Maschine (JVM vgl.
Kap. 3.1.1) ausgeführt werden. Diese Applets unterliegen sicherheitskritischen Ein-
schränkungen, die z.B. Zugriff auf lokale Ressourcen wie die Festplatte nicht ge-
statten. Diese Einschränkungen können teilweise durch Zustimmung des Benutzers
wieder aufgehoben werden. Java-Applets, die aus hardwareunabhängigem Java-
Bytecode (d.h. aus kompiliertem Java-Sourcecode) bestehen, erweitern HTML-
Seiten um Funktionen wie z.B. interaktive Animationen. Hierbei kommt das Grund-
prinzip von Java zum Tragen. Der Java-Bytecode, der sich dank seiner enormen
Kompaktheit bestens zur Übertragung im Internet eignet, wird (erst zur Laufzeit)
80 Grundlagen aus der Informatik
durch die sog. Java Virtual Machine (JavaVM, JVM) in die entsprechenden Ma-
schinenbefehle des Computersystems übersetzt und ausgeführt. Viele Internet-
Browser besitzen als festen Bestandteil eine Virtual Machine oder können durch
entsprechende Plug-ins erweitert werden (zu Web-Technologien und Einsatzfragen
von Java-Applets vgl. Kap. 2.8.3).
Gegenüber den Java-Applets ist JavaScript eine sog. Skriptsprache, die inzwi-
schen viele Schlüsselwörter und Strukturen von Java besitzt, aber unabhängig von
der Programmiersprache Java entwickelt wurde (zuerst unter dem Namen Li-
veScript und dann aus Marketingaspekten aufgrund des großen Erfolgs der Sprache
Java als JavaScript). JavaScript wird in eine HTML-Seite integriert und erst zur
Laufzeit interpretiert, sofern der Browser über einen entsprechenden Funkti-onsum-
fang verfügt. Daher benötigt die Ausführung gegenüber einem (kompilierten) Java-
Applet in der Regel mehr Zeit. Der Quelltext von JavaScript liegt in einer HTML-
Seite offen (bzw. in einer separaten Datei mit Referenz von der HTML-Seite).
Ähnlich wie JavaScript arbeiten von Microsoft die Skriptsprache JScript, die di-
rekt mit JavaScript konkurriert, und die an Visual Basic angelehnte Skriptsprache
VBScript. Ebenso von Microsoft wurde mit ActiveX eine Sammlung von Technolo-
gien für Internetanwendungen entwickelt, wobei ActiveX Controls Java-Applets äh-
neln. Allerdings sind im Gegensatz zu den plattformunabhängigen Java-Applets die
ActiveX Controls auf die Windows-Betriebssysteme beschränkt. Diese gewähren
Zugriffsrechte auf den Client, was ein erhebliches Sicherheitsrisiko bedeutet. So
können z.B. externe Programme zum Ausspionieren von Daten oder Computerviren
eingeschleust werden.
Mit der frei verfügbaren Scriptsprache PHP lassen sich mit recht wenig Aufwand
dynamische Webseiten und (datenbankgestützte) Anwendungen erstellen. PHP-
Code wird serverseitig verarbeitet, aber nicht an den Webbrowser übertragen, son-
dern an einen Interpreter auf dem Webserver (vgl. Abb. 2.13) und kann somit auch
nicht eingesehen werden. Das PHP-Programm kann eine HTML-Seite an den Client
zurückschicken oder z.B. auch eine E-Mail erzeugen. PHP zeichnet sich vor allem
durch einfache Erlernbarkeit, geringe Serverbelastung, großen Funktionsumfang
und die breite Unterstützung verschiedener SQL-Datenbanken aus.
Mit der explosionsartigen Entwicklung des World Wide Web haben fast gleich-
zeitig auch Graphikanwendungen sprunghaft zugenommen. Zu einem einheitlichen
Sprachstandard für Graphikanwendungen, der für eine universelle Informations-
übertragung und Darstellung in beliebigen Browsern bzw. Plattformen unabdingbar
ist, wurde für Vektorgraphiken das SVG-Format (Scalable Vector Graphics, SVG)
eingeführt. SVG ist eine vom World Wide Web Consortium (W3C) standardisierte,
in XML (eXtensible Markup Language) formulierte Sprache zur Beschreibung von
zweidimensionalen Vektorgraphiken. Das SVG-Format als vollständig offener
Standard bietet durch seine Offenheit große Flexibilität. Die strikte Trennung in-
haltlicher, struktureller und gestalterischer Informationen sorgt für Übersichtlich-
keit und gute Handhabbarkeit. Da es sich um eine in ASCII-Code formulierte Spra-
che handelt, können solche Graphiken jedoch auch mit einfachen Editoren erzeugt
werden.
Programmierung von Computersystemen 81
<html>
<body>
<svg width="500" height="500">
<polygon points="40,128
90,128
108,40
60,10
30,30
15,80"
style="fill:blue;
stroke:black;
stroke-width:0;" />
<polyline points="60,140
100,128
120,50
124,32
140,20"
style="fill:none;
stroke:red;
stroke-width:3;" />
</svg>
</body>
</html>
3.1.8 App-Programmierung
bietet umfangreiche Werkzeuge zur App-Entwicklung wie z.B. auch die Simulation
einer App unter Windows.
Das Grundprinzip der App-Entwicklung unter dem Betriebssystem Android soll
an einer App verdeutlicht werden, die vom Nutzer die Eingabe von Koordinaten
zweier Standorte erwartet und die dann die Entfernung über den Großkreis zwischen
diesen beiden Standorten berechnet (zum Berechnungsalgorithmus vgl. Kap. 4.2.3).
Die Benutzeroberfläche der App auf dem Smartphone wird durch sog. Activities
bestimmt, die jeweils das Layout und das eigentliche Programm in einzelne logische
Komponenten gruppieren. Das Layout einer Activity wird in einer XML-Datei fest-
gelegt. Beispielhaft wird die Definition eines Textfeldes und eines Buttons angege-
ben, der die Berechnung starten soll (vgl. Abb. 3.7):
<TextView
android:id="@+id/heading"
android:layout_width="wrap_content"
android:layout_height="wrap_content"
…
android:text="Great-Circle Distance Calculator" / >
…
<Button
android:id="@+id/button_start"
android:layout_width="wrap_content"
…
android:text="Start Calculation"
android:onClick="buttonClicked"/ >
</RelativeLayout>
Zusätzlich gehört zu dieser Activity ein Java-Programm, das die eigentliche Funk-
tionalität darstellt und den Algorithmus umsetzt. Der Programmausschnitt zeigt,
wie die Koordinatenwerte als Texte eingelesen, zu numerischen Werten umgerech-
net, die Distanzberechnung vorgenommen und das Ergebnis ausgegeben werden.
Über derartig einfache Berechnungen hinaus können Werte weiterer Sensoren des
Smartphones (z.B. GPS- oder Beschleunigungssensor) ausgelesen und verarbeitet
werden. Darüber hinaus bestehen viele Möglichkeiten, die App benutzerspezifisch
zu gestalten. Mit dem Maps SDK (Software Development Kit) können der App z.B.
Karten hinzugefügt werden, die auf Google-Maps-Dateien basieren. Die API ver-
waltet automatisch den Zugriff auf Google-Maps-Server, das Herunterladen von
Daten, die Kartenanzeige und die Reaktion auf Kartengesten (vgl. Android 2019b).
Programmierung von Computersystemen 83
import android.support.v7.app.AppCompatActivity;
import android.os.Bundle;
import android.view.View;
import android.widget.EditText;
import android.widget.TextView;
import android.widget.Toast;
if (lat1 != null && lon1 != null && lat2 != null && lon2 != null) {
if (lat1.getText().length() == 0 ||
lon1.getText().length() == 0 ||
lat2.getText().length() == 0 ||
lon2.getText().length() == 0) {
Toast.makeText(this, "You have to enter 4 values!",Toast.LENGTH_LONG).show();
} else {
// get the values from the EditText-elements and parse to double, convert
// to radians.
double double_lat1 = Math.toRadians(Double.parseDouble(lat1.getText().toString()));
double double_lon1 = Math.toRadians(Double.parseDouble(lon1.getText().toString()));
double double_lat2 = Math.toRadians(Double.parseDouble(lat2.getText().toString()));
double double_lon2 = Math.toRadians(Double.parseDouble(lon2.getText().toString()));
// calculate distance
double distance = EARTH_RADIUS * Math.acos(Math.sin(double_lat1) *
Math.sin(double_lat2) + Math.cos(double_lat1) * Math.cos(double_lat2) *
Math.cos(double_lon2 - double_lon1));
3.2.1 Skalenniveaus
Die Bearbeitung von Fragestellungen mit Hilfe von Computersystemen erfolgt auf
der Basis von Eingabedaten, die Sachverhalte oder Systemzustände beschreiben.
Hierzu dienen Merkmale (Attribute) und zugehörige konkrete Merkmalsausprägun-
gen (Attributwerte). So wird ein Boden z.B. durch die Merkmale ph-Wert (Merk-
malsausprägung z.B. 5,5) oder Kalkgehalt, durch den Wassergehalt oder den Ton-
anteil, durch den Bodentyp (z.B. Ranker) oder auch durch die Bodenfruchtbarkeit
gekennzeichnet, wodurch u.a. chemische und physikalische Eigenschaften benannt
sind. Das Merkmal Bodentyp hingegen weist keine Messwerte auf und lässt sich
nur durch Betrachten der Bodenhorizonte qualitativ bestimmen.
Die Merkmale können also sehr verschieden skaliert sein: metrisches, ordinales
oder nominales Skalenniveau. Daher liegen auch in Computersystemen unter-
schiedliche Datentypen zur Beschreibung dieser Maßskalen vor. Für einzelne Daten
gibt es in Abhängigkeit der Verwendung zudem recht unterschiedliche Genauig-
keitsanforderungen. Jahreszahlen, Flächenangaben für ein Gewerbeflächenkataster
oder Koordinatenangaben im UTM-Koordinatensystem für ein Liegenschaftskata-
ster erfordern jeweils unterschiedliche Genauigkeiten und somit verschiedenen
Speicherbedarf. Zur Lösung dieser Anforderungen stellen die verschiedenen Pro-
grammiersprachen und auch Anwendungsprogramme (wie z.B. ein Geoinformati-
onssystem) unterschiedliche Datentypen zur Verfügung.
Daten und Datentypen 85
3.2.2 Standarddatentypen
Die Verarbeitung von Informationen in einem Computer basiert auf Bitfolgen. So-
mit müssen sämtliche Daten zunächst als Bitfolgen dargestellt und nach einer inter-
nen Bearbeitung durch Rechner bzw. Prozessor wieder in eine allgemein lesbare
Form zurücktransformiert werden. Die interne Darstellung von Daten nur als Bit-
folgen macht diesen Prozess der Kodierung und Decodierung notwendig. Bei der
internen Darstellung von Zahlen und alphanumerischen Zeichen als Bitfolge kön-
nen die acht Bit 01011010 die ganze Zahl 90 oder das Zeichen Z darstellen (vgl.
Kap. 2.5). Eine Unterscheidung wird aber erst dann möglich, wenn über den Inhalt
hinaus auch die Bedeutung der Bitfolge bekannt ist. Über den zugehörigen Datentyp
wird erkannt, ob es sich hierbei z.B. um eine Zahl oder ein Zeichen handelt. Somit
müssen zumindest Datentypen für Zahlen, Zeichen (alphanumerische Zeichen, Son-
derzeichen) und für logische Werte zur Verfügung stehen.
In der Praxis hat es sich als sinnvoll erwiesen, bei der internen Darstellung zwi-
schen ganzen und reellen Zahlen zu unterscheiden. So können ganze Zahlen spei-
chergünstiger dargestellt werden, was auch einen schnelleren Datenzugriff bedeu-
tet. An elementaren Datentypen oder Standarddatentypen werden ganze Zahlen
(z.B. in Java int), reelle Zahlen oder Gleitkommazahlen (z.B. in Java double), al-
phanumerische Zeichen wie z.B. Buchstabe und logische Werte unterschieden. Dar-
über hinaus sind in einzelnen Programmiersprachen noch weitere Standarddatenty-
pen vorhanden wie z.B. Datumstypen und Mengentypen oder Datentypen zur Be-
handlung komplexer Zahlen. In verschiedenen Programmiersprachen oder Compi-
lern sowie Programmsystemen bestehen allerdings Besonderheiten wie differie-
rende Namen (statt z.B. integer nur int), unterschiedliche Speichertechniken oder
auch Wertebereiche.
Die Bedeutung der Datentypen für die Genauigkeit ist in der Realität nicht zu
unterschätzen! Bei der Darstellung von UTM-Koordinaten sind mehr als neun sig-
86 Grundlagen aus der Informatik
nifikante Stellen notwendig, die letzte Stelle ist ungerundet. Dadurch kann in Zen-
timetergenauigkeit gerechnet werden, die im Katasterwesen gefordert ist. Hierbei
wird eine Zahl nicht in 32 Bit, sondern in 64 Bit gespeichert (vgl. die Datentypen
„float“ und „double“ in Java, vgl. Tab. 3.4):
Ostwert 434.000,12 (in m)
Nordwert 5.735.250,15 (in m)
In der Regel erfolgt ein Datenaustausch von Geobasisdaten im Gauß-Krüger-
Format mit zwei Nachkommastellen. Bei einer einfach genauen Speicherung kön-
nen die Werte der Nachkommastellen nicht gespeichert werden. Linienzüge in ei-
nem Geoinformationssystem werden nicht geschlossen. Hier verbirgt sich zudem
eine böse Falle: Die fehlende Genauigkeit wird nicht angezeigt, vielmehr kann eine
einfach genaue Zahl sogar mit vier Nachkommastellen ausgedruckt werden. Die
hinteren Ziffern werden aber zufällig bestimmt.
Eine ganze Zahl wird als Dualzahl durch eine Bitfolge dargestellt, wozu im Nor-
malfall 2 Byte (16 Bit) zur Verfügung stehen. Da ein Bit zur Speicherung des Vor-
zeichens benötigt wird, ergibt sich als größte darzustellende Zahl 215 = 32.768. So-
mit besteht ein beschränkter Wertebereich zwischen –32.768 und +32.767 (vgl.
Tab. 3.2). In vielen Programmiersprachen ist zumindest auch eine 4-Byte-Darstel-
lung (32-Bit-Darstellung) möglich. Im vorliegenden Beispiel kennzeichnet das
höchste Bit das Vorzeichen, 0 steht für ein positives und 1 für ein negatives Vorzei-
chen. Dann ergibt sich für die Zahl 53 als ganze Zahl in 16-Bit-Darstellung (jetzt
von rechts nach links zu lesen): 53 = 1•20 + 0•21 + 1•22 + 0•23 + 1•24 + 1•25 als ganze
Zahl in 16-Bit-Darstellung (jetzt von rechts nach links zu lesen):
15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0
0 214 213 212 211 210 29 28 27 26 25 24 23 22 21 20
0 0 0 0 0 0 0 0 0 0 1 1 0 1 0 1
VZ Absolutwert der ganzen Zahl
Die zum Standarddatentyp Ganzzahl gehörenden Standardoperationen sind: Ad-
dition, Subtraktion, Multiplikation, ganzzahlige Division mit abgeschnittenem Rest,
Modulo-Funktion (Restbildung bei ganzzahliger Division), Vergleichsoperationen.
Eine reelle Zahl kann nur als endliche Dezimalzahl umgesetzt werden, da immer
nur endlich viele „Speicherzellen“ zur Verfügung stehen (z.B. 23 für die Speiche-
rung einer Mantisse, vgl. Tab. 3.3). Somit wird auch im Fall eines unendlichen De-
zimalbruchs (vgl. die Zahl Pi oder 1/7) nur eine endliche und somit „ungenaue“
Darstellung erreicht. Reelle Zahlen werden in der Informatik als Gleitpunktzahlen
dargestellt, die aus drei Teilen bestehen: dem Vorzeichen V, dem Exponenten E und
der Mantisse M. Die Dezimalzahl 26.625 wird dann in der Form +0.26625 • 102 als
normierte Gleitpunktzahl zur Basis 10 geschrieben. In diesem Fall ist E = 2 und M
= 26625. Mantisse und Exponent besitzen zudem ein Vorzeichen.
Zur Darstellung einer Zahl als Bitfolge wird die Zahl 2 als Basis genommen.
Dann ist eine zur Basis 2 normierte Gleitpunktzahl eine solche, bei der der Exponent
so gewählt wird, dass die Zahl in der Form r1.m1m2m3...mn • 2E dargestellt werden
kann. Eine normierte Gleitpunktzahl ist im Dual- wie im Dezimalsystem leicht zu
erhalten, indem der Dezimalpunkt sukzessive um eine Stelle nach links oder rechts
verschoben und gleichzeitig der Exponent um 1 erhöht oder erniedrigt wird. Für die
Zahl 26.625 (= 11010.101, vgl. Tab. 2.1) als Dualzahl gilt dann:
11010.101 = 11010.101 • 20 = 11010.101 • 2 00000000
11010.101 = 1101.0101 • 21 = 1101.0101 • 2 00000001
...
11010.101 = 1.1010101 • 24 = 1.1010101 • 2 00000100
Für die Speicherung werden weitere Vereinbarungen getroffen:
- Für ein positives Vorzeichen wird 0 und für ein negatives Vorzeichen 1 gesetzt.
- Die Normierung erfolgt dadurch, dass die erste Ziffer ungleich 0 direkt vor dem
Punkt steht. Diese 1 wird nicht mehr gespeichert, da sie in der vorliegenden De-
finition normierter Gleitkommazahlen immer vorkommen muss.
- Zum Exponenten wird bei einer 32 BIT-Darstellung ein sog. Bias von 127, d.h.
01111111 addiert und das Ergebnis, die sog. Charakteristik, als vorzeichenlose 8-
Bit-Zahl gespeichert. Durch diese weitere Methode, positive und negative Zahlen
darzustellen, kann hier ein Exponent zwischen –127 und 128 gespeichert werden.
Ein Exponent von –127 wird zur Charakteristik 00000000, von 1 zur Charakteris-
tik 10000000, von 128 = 27 = 10000000 zur Charakteristik 11111111. Für die
Charakteristik im vorliegenden Beispiel ergibt sich dann:
00000100 + 01111111 = 100000011
Das IEEE (Institute of Electrical and Electronis Engineers) hat zwei Formate
standardisiert: 32-Bit-Gleitkommazahlen (single precision) und 64-Bit-Gleitkom-
mazahlen (double precision) (vgl. Gumm u. Sommer 2013 S. 28 ff.):
Vorzeichen Exponent Mantisse bias
single precision 1 Bit 8 Bit 23 Bit 127
double precision 1 Bit 11 Bit 52 Bit 1023
88 Grundlagen aus der Informatik
Sollen Textzeichen in einem Rechner dargestellt werden, müssen das Alphabet und
Satzzeichen in Bitfolgen codiert werden. Dabei kommt man für die Darstellung aller
Zeichen bereits mit 7 Bit aus, die 128 verschiedene Möglichkeiten eröffnen (26
Klein- und Großbuchstaben, Satzzeichen, Spezialzeichen wie & und nicht druck-
bare Formatzeichen wie z.B. für die Return-Taste ergeben knapp 100 Zeichen).
Die Darstellung erfolgt im Normalfall mit 1 Byte pro Stelle, also 8 Bit, wodurch
sich 256 verschiedene Zeichen ergeben (Kodierung nach dem sog. erweiterten
ASCII-Code oder nach dem ANSI-Code, vgl. Kap. 2.5.5). Dann sind Sonderzeichen
wie Zeichen des griechischen Alphabets oder einfache graphische Zeichen umsetz-
bar. Daneben benutzen die UNIX-Rechner nur die genormten ASCII-Zeichen von
0 bis 127.
Die zum Standarddatentyp Zeichen (z.B. in Java char) gehörenden Standardope-
rationen sind: Umrechnung eines Zeichens in den zugehörigen Dezimalwert des
ASCII- oder ANSI-Zeichens, Vergleichsoperationen auf der Basis der ASCII- oder
ANSI-Dezimalwerte (z.B. "A" < "B" weil 65 < 66, hierdurch Sortierungen mög-
lich).
Daten und Datentypen 89
Der Wertebereich dieses Datentyps sind die logischen Werte „wahr“ oder „true“
und „falsch“ oder „false“. Sie werden mit Hilfe von genau einem Bit dargestellt.
Die zum Standarddatentyp boolean (Java) gehörenden Standardoperationen sind lo-
gische Operationen wie z.B. NOT, AND, OR.
Der Datentyp String (Java) bezeichnet eine Zeichenkette und setzt sich aus einer
Folge von Zeichen zusammen, die vom Typ Zeichen sind. Normalerweise bietet
eine Stringvariable Platz für maximal 255 Zeichen.
Einen besonderen Datentyp stellen Zeiger (Pointer) dar, die aber nicht in allen
Programmiersprachen realisiert sind (z.B. nicht in Java und Python). Im Gegensatz
zu den übrigen Datentypen enthält ein Zeiger keinen direkten Wert, sondern die
Adresse eines Wertes. Im angeführten C-Programm (vgl. Kap. 3.1.4.1) wird durch
die Funktion „strtok“ ein String anhand von Trennzeichen (hier Leerzeichen) zer-
legt. Beim ersten Aufruf muss „strtok“ mit dem Eingabestring, d.h. mit xin, initia-
lisiert werden (*split = strok(xin)). Die Zeigervariable zeigt auf den ersten Ab-
schnitt. Bei Folgeaufrufen wird statt xin der Wert NULL übergeben, da „strtok“
bereits initialisiert ist. Der Zeiger *split zeigt stets auf das erste Zeichen des jewei-
ligen Abschnittes, das Ende des jeweiligen Abschnitts wird mit \0 in xin gesetzt, der
String wird hierdurch verändert. Deshalb sollte beim Verwenden von strtok immer
nur eine Kopie eines Strings übergeben werden. In der while-Schleife „springt“ der
Zeiger von Abschnitt zu Abschnitt und zählt die Anzahl. In der for-Schleife wird in
zeile[j] der Zeiger auf den jeweiligen Abschnitt gespeichert, so dass in der zweiten
for-Schleife dieser Abschnitt geholt und in die Datenstruktur „arr-messreihe“ auf-
genommen werden kann.
Hierdurch wird ein Datensatz, d.h. eine Zeile einer Datei, wiedergegeben. Der
Datentyp „struct“ ist dann sinnvoll einzusetzen, wenn sich ein Datensatz aus ver-
schiedenen Standarddatentypen zusammensetzt. Auf ein einzelnes Element eines
Records wird über seinen Namen zugegriffen (in dem Beispiel u.a. durch mess-
reihe.monat). Demgegenüber ist ein Array (Feld) eine Aneinanderreihung von
gleichartigen Elementen (Daten gleichen Typs). Ein Zugriff ist mit Hilfe eines In-
dex möglich, der die Position des Elementes innerhalb des Arrays (Feldes) kenn-
zeichnet.
3, 9, 4, 7, 6, 1, 5, 0, 3, 2, 7, 2, 5, 1, 9, 1, 3, 4442, 4, 7
Diese Datenmenge kann durch ein einfaches Array erfasst werden: int vector[20] in
der Programmiersprache C, wobei implizit dieses Array vom Typ INTEGER ist, oder
als Liste x=[3, 9, 4, 7, 6, 1, 5, 0, 3, 2, 7, 2, 5, 1, 9, 1, 3, 4442, 4, 7] in der Programmiersprache
Python. Das Element vector(18) bzw. x[2] besitzt den Wert 4.
1 2 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 19 20
2 2 0 0 0 0 0 3 0 0 0 0 0 0 0 0 0 18 0 0
3 0 3 0 0 0 0 0 4 0 0 0 0 0 0 0 17 0 0 0
4 0 0 4 0 0 0 0 0 0 0 0 0 0 0 16 0 0 0 0
5 0 0 0 5 0 0 99 0 0 0 0 0 0 15 0 0 0 0 0
6 0 0 0 0 6 0 0 0 0 0 4 1 14 8 9 3 2 1 0
7 0 0 0 6 0 7 0 0 0 91 0 13 0 0 0 0 0 0 0
Dabei werden die Zeilen nacheinander abgelegt, so dass dem Element feld[i,j] das
Element vektor[k] durch die Indexrechnung zuwiesen wird:
k = i • 20 + j
Eine Datenstruktur zusammen mit darauf definierten Operationen wird als abstrak-
ter Datentyp (ADT) bezeichnet. Zu den Grundformen abstrakter Datentypen gehö-
ren besondere Typen linearer Listen (Stapel, Warteschlangen, verkettete Listen) so-
wie Bäume, die hierarchische Beziehungen datentechnisch effizient abbilden kön-
nen. Für einen Anwender ist hierbei nur die Außenansicht interessant, die die Leis-
tungen der Datentypen bzw. die möglichen Operationen beschreibt, welche zur Re-
alisierung bestimmter Algorithmen notwendig sind. Die konkrete Implementierung
kann unbekannt sein oder „versteckt“ werden.
Hier werden nur grundlegende Formen skizziert. Eine ausführliche Behandlung
dieser Datentypen muss im Zusammenhang mit der Erläuterung von Algorithmen
(Operationen) erfolgen, die auf diesen Datentypen operieren. Neben den hier ange-
führten abstrakten Datentypen, zu denen jeweils spezielle Operationen bzw. Stan-
dardverfahren gehören (z.B. Suchen in Bäumen), wird in der objektorientierten Pro-
grammierung der Begriff abstrakter Datentyp im allgemeinen Sinn benutzt und ein
Objekt als Datenstruktur mit den zugehörigen Methoden, d.h. als abstrakter Daten-
typ verstanden.
3.2.4.1 Stapel
Der abstrakte Datentyp Stapel (Stack, auch Kellerspeicher genannt) ist ein lineares
Feld, bei dem immer nur das oberste Datenelement bearbeitet werden kann. Daten-
elemente können immer nur von oben auf den Stapel gelegt oder entfernt werden.
Ein Stapel ist also ähnlich einer Groschenbox zur Aufnahme von Parkmünzen nach
dem LIFO-Prinzip organisiert (Last In – First Out):
Die zu diesem Datentyp zugehörigen Grundfunktionen sind: ein Element auf den
Stapel legen, das zuletzt auf den Stapel gelegte Element entfernen, das zuletzt auf
den Stapel gelegte Element holen, abfragen, ob der Stapel leer oder voll ist. Die
Implementierung kann auf vielfältige Weise z.B. über Listen und Pointer erfolgen.
Dabei wird eine erhebliche Flexibilität erreicht. So muss die Größe des Speichers
nicht vorher festgelegt werden, über Zeigervariablen kann man sehr viel Speicher-
platz mobilisieren, da der Stapel erst dann voll ist, wenn der Speicher des Rechners
vollständig belegt ist. Mit Hilfe eines Stapels kann jede lineare Rekursion iterativ,
d.h. ohne Rekursion formuliert und berechnet werden (vgl. Kap. 3.3.3).
3.2.4.2 Warteschlangen
Eine Warteschlange (Queue) ist ein lineares Feld, mit dem das Prinzip FIFO (First
In First Out) organisiert wird. Hierbei kann ein Objekt nur an der einen Seite einge-
fügt und nur an der anderen Seite entfernt werden. Zugegriffen wird also auf das
Element, das am längsten in der Warteschlange ist. Funktionen und Implementie-
rungen sind ähnlich zu dem Stapel.
92 Grundlagen aus der Informatik
Besonders effiziente Datenstrukturen sind verkettete Listen, mit denen in der Größe
unbestimmte Datenmengen verarbeitet werden können, ohne Speicherplatz zu ver-
schwenden. Somit stellen (einfach und doppelt) verkettete Listen die wichtigsten
dynamischen Datenstrukturen dar. So muss z.B. durch die Typdeklaration nicht
vorab eine bestimmte Größe eines Arrays festgelegt werden, die im Extremfall zu
klein sein und dann zu unkontrollierbaren „Ergebnissen“ führen kann. Bei Bedarf
kann eine verkettete Liste um weitere Elemente ergänzt werden.
Eine verkettete Liste kann z.B. in C als eine Folge von Elementen implementiert
werden, die durch Zeiger untereinander verkettet sind. Jedes Element der Liste be-
steht aus dem eigentlichen Datenelement, das ein beliebiger Datentyp sein kann,
und einem Zeiger auf das nächste Element in der Liste. Bei dem letzten Listenele-
ment ist dieser Zeiger gleich „null“ (d.h. „nichts“). Diese verkettete Liste in C be-
sitzt einen sog. Headpointer, der auf das erste Element der verketteten Liste zeigt.
Grundoperationen auf verketteten Listen sind: Aufbau einer Liste aus n Elemen-
ten, Einsetzen, Löschen und Kopieren eines Elementes, Durchlaufen einer Liste mit
Suchen eines Elementes oder Bestimmen der Länge einer Liste. In Geoinformati-
onssystemen wird bei der Abspeicherung von Linien, d.h. von Folgen von Koordi-
natenpaaren, von verketteten Listen vielfältig Gebrauch gemacht. Hier treten typi-
sche Anwendungen auf: Zu Beginn der Erfassung einer Linie ist die Zahl der Ko-
ordinaten unbekannt. Die Länge der Linien und somit der Koordinatenfolge diffe-
riert. Punkte müssen eingefügt und gelöscht werden (zu weiteren, komplexeren Da-
tenstrukturen und zugehörigen Algorithmen für die Speicherung von Koordinaten
vgl. Worboys u. Duckham 2004 Kap. 6).
3.2.4.4 Bäume
Ein Baum setzt sich aus Knoten und Kanten zusammen. Stehen für jeden Knoten
die Teilbäume in einer festen Reihenfolge, so liegt ein geordneter Baum vor. Ein
Binärbaum ist leer oder besteht aus einem Knoten und zwei Binärbäumen (rekur-
sive Definition, vgl. Abb. 3.9). Ein Baum heißt balanciert, wenn die maximale Pfad-
länge kleiner als log n ist (n Anzahl der Knoten). Die Pfadlängen vom Wurzelknoten
zu den Blättern dürfen hierbei nicht um mehr als 1 differieren. Mit der Tiefe eines
Baumes wird das Maximum der Tiefen seiner Knoten, d.h. der Längen von der
Wurzel bis zu den Knoten, bezeichnet, wobei die Länge eines Pfades gleich der
Anzahl der zugehörigen Knoten minus 1 ist. Die Tiefe eines Baumes mit n Knoten
liegt zwischen log2 n und (n – 1). In einem bewerteten Baum sind den Kanten Werte
zugewiesen (z.B. Weglänge zwischen zwei Knoten in einem Verkehrsnetz).
Grundoperationen auf Bäumen sind u.a. der Aufbau eines Baumes aus n Knoten,
das Einsetzen, Löschen und Kopieren eines Elementes. Von besonderer Bedeutung
sind allerdings sog. Traversierungen, d.h. systematische Besuchsmöglichkeiten für
jeden Knoten. Hierdurch können insbesondere Routenplanungen realisiert werden,
für die vielfältige Anwendungen in Netzwerken bestehen.
3.2.5 Dateien
Ein Datensatz besteht zumeist aus mehreren Datenfeldern (sog. Items), die jeweils
Attributwerte enthalten. Man unterscheidet zwischen logisch bzw. inhaltlich defi-
nierten Datensätzen (sog. Records) und im Hinblick auf die technische Speiche-
rungsform physikalischen Datensätzen. Ein Datensatz kann mehrere logische Da-
tensätze enthalten, die also auf mehrere physikalische verteilt sein können. Gleich-
artige und aufgrund inhaltlicher Kriterien zusammengehörige Datensätze werden
zusammengestellt als Datei (sog. File) bezeichnet. Mehrere Dateien, zwischen de-
nen logische Abhängigkeiten oder Beziehungen bestehen, bilden eine Datenbank
(zur Unterscheidung zwischen Dateisystem und Datenbanksystem vgl. genauer
Kap. 8.1). Somit ist die logische Datenorganisation hierarchisch aufgebaut:
94 Grundlagen aus der Informatik
3.3 Algorithmen
Die Grundlage eines Programms, das auf einem Computersystem ausgeführt wird,
bildet stets ein Algorithmus, oder anders formuliert: Ein Programm ist die Realisie-
rung eines Algorithmus (vgl. Kap. 2.4.1). Generell besitzen Algorithmen (beinahe)
zwangsläufig eine zentrale Bedeutung in der Informatik. Dabei wird die Effizienz
einer Programmlösung für eine Aufgabenstellung weniger durch die Programmier-
sprache oder durch eine raffinierte Programmtechnik bestimmt als vielmehr durch
einen geeigneten Algorithmus. Gerade die sorgfältige Auswahl einer optimalen
Verarbeitungsstrategie und eines geeigneten Algorithmus kann zu einer drastischen
Verringerung der Laufzeit eines Programms führen.
In der Informatik wie auch in der numerischen Mathematik steht zu unterschied-
lichen Bereichen eine sehr große, fast unüberschaubare Fülle an Algorithmen bereit
(vgl. z.B. Knuth 2011, Wirth 2013). Für viele Aufgaben wie z.B. Sortierungen gibt
Algorithmen 95
Die (meisten) klassischen Algorithmen der Informatik basieren auf der Annahme,
dass die Zentraleinheit eines Computersystems (nur) in der Lage ist, Befehle nach-
einander abzuarbeiten. Dementsprechend müssen die Algorithmen als lineare Folge
Algorithmen 97
Dann beginnt die Iteration für die beiden bekannten Fixpunkte (a,b) = (1,5) und
(c,d) = (5,3) sowie mit ihren ermittelten Abständen zum unbekannten Punkt
= ݑξ20 und = ݒξ8 sowie mit dem Startwert (x0,y0) = (3,3):
3 െ2ܽ + 2ݔ െ2ܾ + 2ݕ 4 െ4
ܬቀ ቁ = ൨=ቂ ቃ
3 െ2ܿ + 2ݔ െ2݀ + 2ݕ െ4 0
3 0 െ0,25
ିܬଵ ቀ ቁ = ൨
3 െ0,25 െ0,25
ݔ 3 0 െ0,25 െ12 2
ቀݕቁ = ቀ ቁ െ ൨ήቀ ቁ=ቀ ቁ
ଵ 3 െ0,25 െ0,25 െ4 െ1
Iteration Startwert 1 2 3 4 5
x-Näherung 3 2 2,77272 2,98190 2,99987 3
y-Näherung 3 -1 0,54545 0,96381 0,99973 1
3.3.3.2 Rekursionen
Eine große Bedeutung haben rekursive Algorithmen, bei denen eine Prozedur sich
selbst innerhalb dieser Prozedur aufruft. Ein einfaches Beispiel für eine rekursive
Funktion ist die rekursive Berechnung der Fakultät von N, N! = 1 • 2 • 3 • ... • N =
N • (N–1)! Man kann also die Berechnung von N! auf die Berechnung von (N–1)!
zurückführen, wodurch sich eine einfache Programmgestaltung ergibt:
100 Grundlagen aus der Informatik
def fakult(n):
if n == 0:
return 1
else:
return n*fakult(n-1)
print("Eingabe der Zahl, von der die Fakultät berechnet werden soll: ")
eingabe=input()
if eingabe != "":
try:
eingabe_i = int(eingabe)
print ("Fakultät von ", eingabe_i, "ist ", fakult(eingabe_i))
except:
print("Die Eingabe muss eine einzige ganze Zahl sein z.B. 4, 6, 10 o.ä.!")
Eine Anwendung einer Rekursion ergibt sich für einen sehr effektiven Sortieral-
gorithmus, der nach dem häufig umgesetzten Prinzip „teile und herrsche“ (d.h. „di-
vide and conquer“) arbeitet. Bei diesem Quick-Sort-Verfahren wird ein Array durch
einen Listentrenner in zwei Teillisten geteilt: eine mit Werten, die gegenüber dem
Listentrenner kleiner oder gleich sind, und eine zweite Liste mit Werten größer als
der Listentrenner. Dieses Verfahren wird danach rekursiv auf beide Teillisten ange-
wandt.
Hierbei entsteht ein binärer Partitionenbaum mit log2 (n) Etagen (vgl. Abb. 3.10).
Der Aufwand zur vollständigen Partitionierung jeweils einer Etage ist zu n propor-
tional. Insgesamt ist dann für den Quick-Sort-Algorithmus der Aufwand im Durch-
schnitt zu n • log n und lediglich bei entarteten Partitionen, bei denen bei jeder Zer-
legung eine Gruppe mit einem Objekt entsteht, zu n • n proportional (vgl. Kap.
3.3.4).
Algorithmen 101
Die Effizienz von Algorithmen wird im Allgemeinen im Hinblick auf das Rechen-
zeitverhalten und den Speicherplatz bewertet. Dabei ist nicht die absolute Rechen-
zeit oder der absolute Speicherbedarf entscheidend – gerade die erste Größe wird
102 Grundlagen aus der Informatik
hochgradig von der benutzten Hardware bestimmt –, sondern die Zunahme der Re-
chenzeit und das Wachstum an Speicherplatz jeweils in Abhängigkeit vom Umfang
der Eingabe.
Bei der linearen Suche eines Elementes in einem Array der Länge n startet die
Überprüfung mit dem ersten Element des Arrays, die mit den weiteren Elementen
so lange fortgesetzt wird, bis das gesuchte Objekt gefunden wurde. Im günstigsten
Fall (best case) wird das Element gleich am Anfang, im schlechtesten Fall (worst
case) am Ende oder überhaupt nicht und im Durchschnitt (average case) in n/2 Fäl-
len gefunden. Hierbei müssen die Elemente aber nicht in einer bestimmten Sortier-
reihenfolge vorliegen.
Die binäre Suche wird auf ein sortiertes Array angewandt, das an einer Stelle m
geteilt wird. A[min] ... A[m–1] A[m] A[m+1] ... A[max]. Für m wird gewöhnlich
die Mitte zwischen Minimum und Maximum gewählt, also (min + max) / 2. An-
schließend muss für das zu suchende Element x überprüft werden, ob x = A[m], x
< A[m] oder x > A[m] ist. Dann wird die Suche beendet oder entsprechend in der
linken bzw. in der rechten Hälfte fortgesetzt. Im schlechtesten Fall müssen die Be-
reiche so oft halbiert werden, bis nur noch ein Element übrig bleibt. Bei der binären
Suche (eines geordnetes Arrays) verursachen 2k – 1 Zahlen höchstens k Schleifen-
durchläufe, da nach k Halbierungen die Intervalllänge 1 beträgt. Somit erzeugen n
Zahlen höchstens log2 n Schleifendurchläufe.
Die Beispiele zeigen (vgl. auch Quick-Sort-Algorithmus in Kap. 3.3.3.2), dass
die Laufzeit der Algorithmen und damit deren Komplexität proportional zu einer
Kenngröße n ist, wobei die beiden angeführten Algorithmen lineare und logarith-
mische Abhängigkeiten aufweisen (vgl. Tab. 3.5).
Für andere Algorithmen kann diese Abhängigkeit durch bestimmte Funktionen fi (n)
ausgedrückt werden. Allerdings ist die genaue Abhängigkeitsfunktion schwer er-
mittelbar und von geringerem Interesse als eine Abschätzung der Größenordnung
durch eine majorisierende Funktion, d.h. durch eine einfache, aber bekannte Funk-
tion mit größeren, aber angenäherten Funktionswerten. In der O-Notation wird dann
die Komplexität eines Algorithmus durch die majorisierende Funktion ausgedrückt.
Hierdurch wird das asymptotische Verhalten für ein großes N dargestellt (vgl. Tab.
3.6):
f(n) ist höchstens von der Ordnung g(n)
falls: f(n) d c • g(n), c = const., für große n
geschrieben: f(n) = O(g(n))
Algorithmen 103
Tabelle 3.7: Rechenzeiten in Abhängigkeit von Komplexität und Fallzahl bei einer angenommenen
Rechenleistung von 1 Mio. (= 106) Gleitkommaoperationen pro Sekunde (falls nicht anders angege-
ben, Rechenzeit in Sekunden)
O 10 20 30 40 50 60
Diese Rechnungen sollen zeigen, dass immer schnellere Rechner häufig nicht zur
Lösung einer komplexen Aufgabe beitragen. Ein effizienter Algorithmus, der, wenn
auch nur näherungsweise, dann aber in endlicher Zeit eine Lösung findet, hat grö-
ßere Bedeutung.
Für den Inhalt einer Fläche, die durch eine Folge der Koordinaten der Eckpunkte
Pi = (xi,yi) eindeutig beschrieben ist, gilt die Rechenvorschrift (vgl. ähnlich Worboys
u. Duckham 2004 S. 196, vgl. Abb. 3.09):
= ܨ0.5 ή [ܲଵ × ܲଶ + ܲଶ × ܲଷ + ܲଷ × ܲସ + ڮ+ ܲିଵ × ܲ + ܲ × ܲଵ ]
wobei das Symbol x das Vektorprodukt kennzeichnet, das definiert ist durch:
ݔ ݔ
ܲ × ܲ = ቀ ݕቁ × ቀ ݕቁ = ൫ݔ ή ݕ ൯ െ ൫ݕ ή ݔ ൯ (d.h. „über Kreuz“)
Abb. 3.11: Darstellung einer Fläche durch begrenzende Geradenstücke und Flächeninhalt
Grundlegende Algorithmen der Geoinformatik 105
Abb. 3.13: Schnittaufgaben bei Überlagerungen: gemeinsamer Durchschnitt der Nutzung „Acker“
und der Besitzerinformation „Cmann“
Ein sehr einfacher Lösungsansatz besteht darin, alle potenziellen Lösungen durch-
zuprobieren (Brute-Force-Methode). Im obigen Beispiel müsste das Geradenstück,
das die Grenze zwischen Nadelforst und Acker markiert, mit allen Besitzgrenzen
verschnitten werden (vgl. Abb. 3.13). Ein derartiger Ansatz ist in der Regel einfach
zu programmieren, aber zumeist auch nicht sehr effizient. Ein derartiges naives Ver-
fahren besitzt bei n Segmenten die Komplexität O(n2) und ist bei größeren Anwen-
dungen ungeeignet. Ein Brute-Force-Algorithmus zur Lösung des Schnittproblems
von Linien, die in Liniensegmente aufgelöst sind, hat in einer Pseudoprogrammier-
sprache in etwa die Form:
Falls ein Haltepunkt Anfangspunkt eines Segments S ist, wird überprüft, ob sich
die Segmente Sv, S und Sn schneiden. Jeder gefundene Schnittpunkt wird in die
Menge der Haltepunkte aufgenommen (vgl. Abb. 3.15, Fall A).
Bei einem Endpunkt eines Segments S muss getestet werden, ob sich Sv und Sn
schneiden. Auch hier wird jeder gefundene Schnittpunkt in die Menge der Halte-
punkte aufgenommen (vgl. Abb. 3.15, Fall B).
Bei einem Schnittpunkt der Segmente S und S´ muss überprüft werden, ob sich
S´ und Sv bzw. S und Sn schneiden. Gefundene Schnittpunkt werden in die Menge
der Haltepunkte aufgenommen (vgl. Abb. 3.15, Fall C).
Der Bentley-Ottmann-Algorithmus erfordert effiziente Datenstrukturen in Form
von Warteschlangen und ausgeglichenen Bäumen (vgl. Schmitt u.a. 1996 S. 32 ff.).
Für derartige Plane-Sweep-Verfahren finden sich in der Computational Geometry
vielfältige Anwendungen wie z.B. bei der Lageüberprüfung eines Punktes zu einem
Polygon oder bei der Triangulation von Polygonen.
Abb. 3.16: Umhüllende Rechtecke zweier Geraden und mehrerer Geradenstücke, monotone Linien-
abschnitte und Schnittpunkte von Linien
In der Geoinformatik besteht mit den sog. Wegealgorithmen eine besondere Gruppe
von Verfahren, die allgemein auf sog. Netzen operieren und für die vielfältige An-
wendungsmöglichkeiten gerade bei der Modellierung von Verkehrswegen und der
Ermittlung optimaler Routen angegeben werden können. Mathematische Grundlage
ist hierfür die Graphentheorie (vgl. z.B. Jungnickel 2013). Allgemein bestehen Gra-
phen aus einer Menge von Knoten und einer Menge von Kanten, die Knoten ver-
binden (vgl. Abb. 3.18). Um Beziehungen in einem Graphen zu beschreiben, wer-
den die Begriffe Adjazenz und Inzidenz verwendet. Zwei Knoten A und E sind be-
nachbart (adjazent), wenn für sie eine verbindende Kante k(A,E) besteht. Adjazenz
bezeichnet dabei die Beziehungen zwischen gleichartigen Elementen eines Gra-
phen. Umgekehrt definieren die beiden topologisch benachbarten Knoten eine
Kante, die inzident mit den Knoten ist. Inzidenz bezeichnet dabei die Beziehungen
zwischen verschiedenartigen Elementen eines Graphen. Die Knoten A und E sind
also inzident mit der Kante k(A,E).
Ein Weg ist eine Folge paarweise adjazenter Kanten, die von einem Knoten zu
einem anderen Knoten führt. Ein Graph heißt zusammenhängend, wenn für zwei
beliebige Knoten (mindestens) ein Weg besteht. Ein vollständiger Graph liegt vor,
wenn alle Knotenpaare adjazent sind. Falls mehrere Wege zwischen zwei Knoten
bestehen, besitzt der Graph (mindestens) eine Schleife. Ein schleifenloser, zusam-
menhängender Graph wird Baum genannt.
Ein Graph wie z.B. ein reales Verkehrsnetz, für das Entfernungen, Wegzeiten oder
allgemein Widerstände zwischen Knoten kennzeichnend sind, kann durch eine be-
wertete Adjazenzmatrix beschrieben werden. Hierbei drückt das Matrixelement aij
den Widerstand zwischen den Knoten i und j aus (vgl. Abb. 3.19). Der Widerstand
eines Knotens zu sich selbst wird mit 0 angegeben. Falls zwei Knoten nicht durch
eine Kante verbunden sind, erhalten sie den Wert λ. In einer unbewerteten Adja-
zenzmatrix werden die Widerstände der Kanten mit 1 dargestellt. Eine Adjazenz-
matrix muss dabei nicht zwingend symmetrisch sein (vgl. z.B. richtungsbezogen
unterschiedliche Fahrtzeiten zwischen zwei Knoten). Die Darstellung eines Gra-
phen in Form einer Adjazenzmatrix ist allerdings extrem speicheraufwendig (Spei-
cherplatzkomplexität O(n2)). Demgegenüber verbraucht die Präsentation in Form
von Listen weniger Speicher. Hierbei wird zu jedem Knoten eine Liste definiert, in
der die unmittelbaren Nachbarn enthalten sind. Allerdings ist hierfür eine Zugriffs-
funktion auf einzelne Kantenwerte recht aufwendig zu implementieren.
Die sog. Matrixverfahren zur Berechnung kürzester Wege bestimmen gleichzei-
tig alle Widerstandswerte auf Wegen zwischen allen Knoten eines Netzes. Der Al-
gorithmus nach Floyd (auch Algorithmus nach Warshall genannt) bestimmt für alle
112 Grundlagen aus der Informatik
Paare von Knoten (I,J) die minimale Entfernung, indem für ein Knotenpaar (I,J) alle
Wege über (genau) einen Zwischenknoten berechnet werden (vgl. Jungnickel 2013
S. 91 ff.). Die Berechnung der Entfernung, d.h. allgemein des Widerstands W(I,J),
der auch als Zeit- oder Kostenaufwand definiert sein kann, zwischen Knoten I und
J erfolgt durch:
W(I,J) = min ^ W(I,J); W(I,K) + W(K,J) `
Rechentechnisch wird der Algorithmus derart programmiert, dass ein Zwischen-
knoten festgehalten wird und dann die Entfernungen (Widerstände) W(I,J) für sämt-
liche Knotenpaare errechnet werden:
Für K = 1, ..., N
Für I = 1, ..., N
Für J = 1, ..., N
berechne W(I,J) = min ^ W(I,J); W(I,K) + W(K,J) `
Am Ende enthält die Matrix W die kürzesten Entfernungen zwischen beliebigen
Knoten. Allerdings lassen sich die einzelnen Routen aus der optimalen Entfernungs-
matrix nicht ablesen. Sie müssen vielmehr nachträglich mit Hilfe der Ausgangs-
matrix rekonstruiert werden. Dazu wird im Rechenverfahren eine sog. Vorläufer-
matrix eingeführt, für die als Startwerte gesetzt werden:
V (I,J) = I, falls: I = J oder I direkt benachbart mit J
0, sonst
Die Notierung der jeweiligen Vorläufer muss dann in den Rechengang des Floyd-
Verfahrens eingeführt werden:
if (w[i,k] + w[k,j] < w[i,j]) then
begin
w[i,j]:=w[i,k] + w[k,j]
v[i,j]:=v[k,j];
end;
Nach Abschluss der Berechnungen können aus dieser Vorläufermatrix alle gewünsch-
ten Routen als eine Abfolge von Knoten bestimmt werden. Da für jeden Knoten der
Vorläufer bekannt ist, beginnt man am Zielknoten und rechnet rückwärts (Ziel -->
Vorläufer --> Vorläufer --> ... --> Anfang).
Die sog. Baumverfahren ermitteln die kürzesten Wege zwischen einem vorgege-
benen Quellknoten zu allen übrigen Knoten des Netzes. Die bekannteste Methode
ist sicherlich der Algorithmus nach Dijkstra (vgl. Jungnickel 2013 S. 83 ff. S. 84–
87 und sehr anschaulich Worboys u. Duckham 2003 S. 214 ff.). Im Laufe des Ver-
fahrens wird ausgehend von einem Startknoten S eine Folge von Nachfolgerknoten
in eine Merkliste eingetragen, die mit den Nachfolgern der Nachfolger sämtliche
mögliche Routen von S zum Zielknoten Z aufweist. Für diese Knoten werden ge-
schickt sämtliche Wege überprüft, wobei bereits bearbeitete Knoten nicht noch ein-
mal getestet werden. Der Algorithmus in einer Pseudonotation (nach Domschke
2007) benötigt eine Adjazenzmatrix A[i,j] sowie eine Merkliste MERK, eine Liste
VORG[ i ] der Vorgänger des Knotens i (mit VORG[ i ] ist Vorgänger zum Knoten i)
und eine Liste WID[ i ] der Widerstände bzw. Entfernungen des Knotens i zum Start-
knoten S (Widerstände WID[ i ] sämtlich ungleich Null).
Grundlegende Algorithmen der Geoinformatik 113
Das Abarbeiten der verschiedenen Zweige wird verkürzt, indem die Länge der
bisher zurückgelegten Wegstrecke bis zu dem Knoten k berechnet wird. Ist diese
Weglänge bereits größer als die Länge einer schon berechneten vollständigen
Grundlegende Algorithmen der Geoinformatik 115
Route, werden alle weiteren Wege über diesen Knoten K nicht mehr verfolgt. Im
vorliegenden Beispiel tritt eine derartige Schranke (bound) nicht in Aktion, da der
Baum noch nicht stark verzweigt ist. Wird aber z.B. die Entfernung zwischen 1 und
3 mit 75 angenommen, wird der mittlere Teil des Entscheidungsbaumes nicht mehr
abgearbeitet. Im linken Ast über die Kante 1-2 ergab sich schon als kürzeste Ent-
fernung der Wert 74 (Route 1 – 2 – 3 – 4 – 1).
Für dieses Verfahren steigt die Laufzeit exponentiell an. Falls in einem Graphen
von jedem Knoten genau zwei Kanten wegführen, ergeben sich 2n zu überprüfende
Wege mit jeweils n Knoten, so dass die Abschätzung gilt: O(2n). Eine Realisierung
des vorliegenden Branch-and-Bound-Verfahrens zeigt Herrmann 1992 (vgl. S. 319
ff., zu weiteren Wegewahlalgorithmen oder allgemeine Algorithmen auf Netzwer-
ken vgl. Jungnickel 2013 S. 65 ff. u. S. 508 ff. sowie Worboys u. Duckham 2003
vgl. S. 211 ff.).
Das Travelling-Salesman-Problem (TSP) kann als klassisches Grundproblem der
kombinatorischen Optimierung angesehen werden. Neben dem exakten Branch-
and-Bound Verfahren sind viele heuristische Lösungsverfahren entwickelt worden,
die der exakten Lösung nach recht kurzer Zeit nahekommen, die aber ihr Auffinden
nicht garantieren. Im Internet finden sich viele Programmbeispiele (d.h. Java-App-
lets), die in Echtzeit Lösungen des TSP für hunderte von Städten liefern. Sie arbei-
ten zumeist mit Hilfe sog. neuronaler Netze (vgl. Kohonen 2001 u. Scherer 1997).
Daneben liefern sog. naturnahe Algorithmen wie der sog. Ameisenalgorithmus eine
neue Klasse von Algorithmen. Hierbei wird das Verhalten von Ameisenkolonien
bei der Futtersuche, bei der die Kolonie als Ganzes den kürzesten Weg zwischen
Nest und Futterquelle findet, auf Optimierungsprobleme angewandt.
Die Geoinformatik entwickelt und nutzt viele Algorithmen, die Rasterdaten auswer-
ten. Hier soll beispielhaft ein Algorithmus aus der Menge der Algorithmen vorge-
stellt werden, die außerhalb der digitalen Bildverarbeitung (vgl. Kap. 10.6) einge-
setzt werden (vgl. auch Algorithmen z.B. zur Geomorphometrie mit Höhendaten
auf Rasterbasis bei Hengl u. Reuter 2008). Mit Hilfe von Skelettierungsverfahren
(„thinning“) sollen flächenhafte binäre Objekte wie z.B. Formen in Schwarz-Weiß-
Scans auf lineare Skelettlinien reduziert, d.h. ausgedünnt werden. Im Idealfall liefert
der Algorithmus eine Skelettlinie, die nur ein Pixel breit ist. Die Skelettlinie muss
die Ursprungsform wiedergeben, zusammenhängende Bereiche eines Objektes
müssen auch im Skelett wieder zusammenhängend sein.
Zur Verdeutlichung soll angenommen werden, dass ein binäres Raster vorliegt
mit 0 für ein weißes und 1 für ein schwarzes Pixel (Hintergrund bzw. Vordergrund).
Für jedes Pixel wird die Nachbarschaft in einer 3 × 3-Maske betrachtet.
A B
P8 P1 P2 0 0 0 1 1 1
P7 P P3 0 P 1 0 P 1
P6 P5 P4 1 1 0 1 1 1
P darf in den Fällen A, B gelöscht werden.
116 Grundlagen aus der Informatik
C D E
0 0 1 0 0 1 0 1 0
0 P 0 0 P 1 1 P 1
1 1 0 0 0 0 0 1 0
P darf in den Fällen C, D, E nicht gelöscht werden.
In dieser Nachbarschaft muss gelten: Ein Pixel P darf nur dann gelöscht werden,
wenn dadurch die Verbindung zwischen den 1-Pixeln in der 3 x 3-Umgebung nicht
zerstört wird (Erhaltung des Zusammenhangs, Fall A bzw. C). Ein Pixel darf nicht
gelöscht werden, wenn es Endpunkt einer Skelettlinie ist (Fall D). Nur Konturpixel,
die mindestens einen direkten 0-Nachbarn haben, dürfen gelöscht werden (Fall B
bzw. E). Der Zhang-Suen-Algorithmus (vgl. Worboys u. Duckham 2004 S. 209 ff.),
der in zwei Iterationen vorgeht, setzt diese Bedingungen formal um. Zu einer ab-
schließenden Vektorisierung werden mit Hilfe sog. Kettenkodierungsalgorithmen
Sequenzen von Pixeln zu Ketten zusammengefasst (vgl. Kap. 9.3.5).
Zhan-Suen-Algorithmus
N(P)= P1+P2+…P8
S(P) = Anzahl der 0 zu 1 Verbindungen von P zum direkten Nachbarn P1,P2, …,P8,P1
Wiederhole
Markiere alle Pixel P = 1 mit
1 3 XQG 6 3 XQG 31 • P3 • P5 = 0) und (P3 • P5 • P7 = 0)
Lösche alle markierten Punkte
Markiere alle Pixel P = 1 mit
1 3 XQG 6 3 XQG 31 • P3 • P7 = 0) und (P1 • P5 • P7 = 0)
Lösche alle markierten Punkte
so lange, bis keine Pixel mehr markiert werden können
Die fast unüberschaubare Fülle an Algorithmen kann (hier) nicht aufgedeckt wer-
den. Zudem müssen Rechenverfahren und Lösungsstrategien immer im Kontext der
zugehörigen Fragestellungen gesehen werden. Umfangreiche Sammlungen von Al-
gorithmen bestehen zu sehr verschiedenen Aufgaben der Geoinformatik (zum Ein-
stieg vgl. Worboys u. Duckham 2004). Im Zusammenhang mit der Graphentheorie
liegen vielfältige Algorithmen zur Analyse von Netzwerken vor, z.B. Navigation
und Bestimmen kürzester Wege, Traversierungen (d.h. „Durchwandern“ durch ei-
nen Graphen), Briefträgerproblem (Chinese-Postman-Problem), zum Einstieg vgl.
Softwareentwicklung 117
Jungnickel 2013. Zwei Typen von klassischen Fragestellungen sollen noch benannt
werden:
Sehr alt sind Location-Allocation-Problemstellungen, die bereits vielfach durch
entsprechende Werkzeuge in Geoinformationssystemen umgesetzt sind. Eine For-
mulierung der Aufgabe kann lauten: Wo sollen Notdiensteinrichtungen platziert
werden, damit die größte Anzahl von Personen in einer Stadt z.B. innerhalb von
vier Minuten erreicht werden kann? So sind die optimalen Standorte (und deren
Anzahl) zu suchen sowie ihnen Personen zuzuordnen (zum Einstieg vgl. Church u.
Medrani 2018 sowie die von den Vätern der Geoinformatik vorgelegte Zusammen-
stellung von Algorithmen in Rushton, Goodchild u. Ostresh 1973).
Jüngere Aufgaben betreffen die Kartenanpassung (Map Matching), die räumli-
chen Objekten exakte Positionen in einer digitalen Karte zuweist. In der Regel kreu-
zen sich die mit (einfachen) GPS-Empfängern ermittelten Positionen nicht mit den
Straßenlinien einer digitalen Karte. Mit Map-Matching-Algorithmen sollen die
GPS-Positionen an den „richtigen“ Positionen auf den Linien der digitalen Karten
dargestellt werden (vgl. Sultan u. Haunert 2017 u. Haunert u. Budig 2012).
In einem jüngst erschienenen Sammelband sind mehrere Beiträge zusammenge-
stellt, die Technologien und neue Methoden zur automatisierten Verarbeitung raum-
bezogener Daten beschreiben. Dies sind neben fundamentalen Methoden der Da-
tenanalyse durch kombinatorische Optimierung oder Data Mining die Bereitstel-
lung von Geodaten in Geodateninfrastrukturen bis hin zur visuellen Datenanalyse
und 3D-Visualisierung (vgl. Sester 2020).
3.5 Softwareentwicklung
Eine Hauptaufgabe der Angewandten Informatik ist die Entwicklung von Anwen-
dungssystemen für fachspezifische Aufgaben. Das generelle Ziel ist das Erstellen
von qualitativ hochwertiger Software, die grundsätzlich die funktionalen Anforde-
rungen erfüllen muss. Darüber hinaus ist Software nach mehreren Kriterien zu be-
werten (vgl. Gumm u. Sommer 2013 S. 828):
- Korrektheit, Zuverlässigkeit
- Modularität, Flexibilität, Elastizität, Interoperabilität
- Testbarkeit, Änderbarkeit, Wiederverwendbarkeit, Wartbarkeit
- Portabilität, Effizienz, Wirtschaftlichkeit
- Durchsichtigkeit, Verständlichkeit, Integrität
- Verwendbarkeit, Gültigkeit, Allgemeinheit, Dokumentation
Für die Softwareentwicklung wird häufig auch der Begriff Software Engineering
benutzt. Hierdurch wird der Bezug zu einem ingenieurmäßigen Vorgehen deutlich,
bei dem allgemein Prinzipien, Methoden, Verfahren und Werkzeuge unterschieden
bzw. eingesetzt werden. Dabei können diese Prinzipien, Methoden, Verfahren und
Werkzeuge in jeder Phase der Softwareentwicklung eingesetzt werden (vgl. Kap.
3.5.3). Allerdings ist die Verwendung dieser Begriffe nicht immer einheitlich, zu-
dem greifen die hinter diesen Begriffen stehenden Konzepte häufig ineinander. Hier
wird der Systematisierung von Stahlknecht u. Hasenkamp gefolgt (vgl. Stahlknecht
u. Hasenkamp 2005 S. 212 ff.).
Softwareentwicklung 119
Ein häufiges Problem in der Praxis besteht darin, dass der Endanwender zu Beginn
des Projektes nicht sämtliche Möglichkeiten des zu entwickelnden Systems ein-
schätzen kann. Zumeist können nur die gerade vorliegenden Aufgaben benannt und
daraus ein Anforderungsprofil abgeleitet werden. Zumeist ergeben sich aber mit ei-
nem neuen System neue Analyse- und Darstellungsmöglichkeiten, die bislang auf-
grund fehlender Werkzeuge nicht durchführbar erschienen oder außerhalb der Vor-
stellung waren und die somit von den Anwendern nicht benannt werden können!
Derartige Erweiterungswünsche entstehen dann, wenn erstmalig mit dem neuen
122 Grundlagen aus der Informatik
System gearbeitet wird und dann (völlig) neue Funktionalitäten eingefordert wer-
den. Somit ergibt sich in der Praxis häufig die Forderung, bereits relativ früh einen
Prototyp, d.h. eine prüffähige Version des Systems, zur Verfügung zu haben, wobei
nicht sämtliche Funktionen umgesetzt sind, aber das Funktionsprinzip zu erkennen
ist, so dass Änderungen formuliert werden können. Dies hat zum Vorgehensmodell
des Prototyping geführt, das in verschiedenen Varianten besteht (rapid prototyping,
evolutionäres, exploratives, experimentelles, vertikales und horizontales Prototy-
ping). Prototyping kann in einzelnen Phasen wie auch phasenübergreifend einge-
setzt werden und somit das Phasenmodell sinnvoll ergänzen, aber das Phasenmodell
nicht ablösen. Insbesondere besteht beim Prototyping die Gefahr, dass Zeit- und
Kostenplanung nicht eingehalten werden können.
Bei den deutschen Bundesbehörden löste 2005 das V-Modell XT den bis dahin gül-
tigen Entwicklungsstandard V-Modell-97 ab, der schon 1992 vom Bundesinnenmi-
nisterium übernommen und 1997 zuletzt aktualisiert wurde und der seitdem eine
verbindliche Richtschnur für die IT-Projekte der Bundesverwaltungen darstellt. Die
Plattform eignet sich für Unternehmen ebenso wie für Behörden und kann unter
einer Common Public License auch außerhalb des öffentlichen Bereiches in der
Projektwirtschaft beliebig adaptiert und eingesetzt werden. So wird in der Richtlinie
VDI 2206, die einen praxisorientierten Leitfaden zur Entwicklung mechatronischer
Systeme umfasst, ein Vorgehensmodell vorgeschlagen, das sich u.a. auf das V-Mo-
dell stützt. Im Kern der Entwicklungsmethodik steht das V-Modell, welches die
Überführung von Anforderungen in ein Produkt beschreibt. Wesentliches Merkmal
dieses Modells ist die kurzzyklische, iterative Eigenschaftsabsicherung (vgl. VDI
2206 S. 26).
Während sich das V-Modell (vgl. Abb. 3.23) noch sehr stark an dem Wasserfall-
modell orientierte, wurde das V-Modell XT nach dem Baukastenprinzip konzipiert,
das insbesondere ein iteratives und inkrementelles Vorgehen einschließt. Hinter
dem Modell steht die Idee des iterativen Vorgehens zur schrittweisen Verbesserung
der Produkte – auch über mehrere Phasen hinweg. XT steht für „eXtreme Tailoring“
und soll je nach Projektart ein maßgeschneidertes Vorgehen erlauben, das durch
vorgefertigte Dokumentvorlagen wie Plan- und Angebotsbausteine unterstützt wird
(vgl. Rausch u.a. 2008). Das neue XT-Modell berücksichtigt auch erstmals die
„Rollen“ zwischen Auftraggeber und Auftragnehmer. Dies war der Wunsch der In-
dustrievertreter, da mit dem Abschluss eines „wasserdichten“ Vertrages die Formu-
lierung der Aufgabe häufig nicht erledigt ist, d.h. speziell nicht bei neuen und inno-
vativen Projekten, die Neuland betreten und die ein hohes Risiko aufweisen. So sind
nicht selten erst im Verlauf eines Projektes zusammen mit dem Auftragnehmer die
Spezifikationen gemeinsam zu erarbeiten. Hierdurch besteht allerdings die Gefahr,
dass ein Controlling erschwert bzw. unmöglich wird, was ja gerade durch das Vor-
gehensmodell verhindert werden soll.
Ein derartiges Vorgehen, bei dem erst im Projektverlauf im Einvernehmen mit dem
Auftraggeber die Spezifikationen gemeinsam erarbeitet werden, wird im Software
Engineering auch als Agile Development bezeichnet (vgl. Wolf u. Bleek 2011).
124 Grundlagen aus der Informatik
Diese Konzepte legen mehr Gewicht auf funktionsfähige Software als auf umfas-
sende Pflichtenhefte und stellen vor allem das flexible Reagieren auf veränderte
Rahmenbedingungen gegenüber dem Abarbeiten eines Plans in den Vordergrund
(vgl. Schlagworte wie Adaptive Software Development, Dynamic System Develo-
pment Methodology, Feature Driven Development und Lean Development, vgl.
Agile Alliance 2019). Dazu gehört auch das wegen seiner Nähe zum Hacking nicht
unumstrittene „eXtreme Programming“ (XP), bei dem in engem und ständigem
Kontakt mit dem Abnehmer kleine Teams aus zumeist nur zwei Programmierern
dynamisch Teilaufgaben übernehmen und deren Lösung nahezu im Tagesrhythmus
in das Gesamtprojekt einspeisen (vgl. Wolf u. Bleek 2011 S. 149-161).
Das neue V-Modell hat sich somit diesen agilen Vorgehensweisen geöffnet und
kann sie unterstützen. So kann man auch das sog. Wasserfallvorgehen umdrehen
und mit der Implementierung und Integration beginnen und dann erst die Dokumen-
tation und Spezifikation erstellen.
Literatur
Ottmann, Thomas u. Peter Widmeyer (2002): Algorithmen und Datenstrukturen. Heidelberg: Spekt-
rum Akad. Verlag, 4. Aufl.
QGIS (2019a): QGIS plugins web portal. https://plugins.qgis.org (8.11.2019)
QGIS (2019b): QGIS Python Plugins Repository. https://plugins.qgis.org/plugins (8.11.2019)
Patterson, David A. u. John L. Hennessy (2009): Computer organization and design. The Hard-
ware/Software Interface. 4. Aufl. Morgan Kaufmann Publ. (Elsevier) Burlington, MA.
Preparata, F. u. M. Shamos (1985): Computational Geometry. New York: Springer.
Quinn, M.J. (1993): Parallel computing: theory and practice. New York: McGraw-Hill. 2. Aufl.
Rausch, A. u.a. (2008): Das V-Modell XT. Grundlagen, Methodik und Anwendungen. Heidelberg:
Springer.
Royce, W. W. (1970): Managing the development of large software systems: concepts and tech-
niques. In: Proceedings of IEEE WESCON 26, S. 1–9.
Rushton, G., Goodchild, M. u. L.M. Ostresh Jr. (1973): Computer Programs for Location-Alloca-
tion Problems. Dep. of Geography, Monograph Number 6, Iowa City.
Scherer, A. (1997): Neuronale Netze: Grundlagen und Anwendungen. Braunschweig: Vieweg.
Schmitt, A., Deussen, O. u. M. Kreeb (1996): Einführung in graphisch-geometrische Algorithmen.
Stuttgart: Teubner.
Schwarz, H. u. N. Köckler (2011): Numerische Mathematik. Stuttgart: Teubner + Vieweg. 8. Aufl.
SciPy (2019): Scientific Computing Tools for Python. https://www.scipy.org (8.11.2019)
Sedgewick, R. u. K. Wayne (2011): Algorithms. Amsterdam: Addison-Wesley Longman. 4. Aufl.
Sester, M. (2020): Geoinformatik. In: Freeden, W. u. R. Rummel (Hrsg.): Handbuch der Geodäsie.
Berlin/Heidelberg: Springer Spektrum.
Shapely (2019): Python package for manipulation and analysis of features in the Cartesian plane.
https://pypi.org/project/Shapely/ (8.11.2019)
Stahlknecht, P. u. U. Hasenkamp (2005): Einführung in die Wirtschaftsinformatik. Berlin: Springer.
11. Aufl. OK
Sultan, G. B. u. J.-H. Haunert (2017). Extracting spatial patterns in bicycle routes from
crowdsourced data. In: Transactions in GIS, 21(6) S. 1321-1340.
Ulferts, L. (2017); Python mit ArcGIS. Einstieg in die Automatisierung der Geoverarbeitung in Ar-
cGIS. Berlin: Wichmann.
VDI 2206 (2004): Entwicklungsmethodik für mechatronische Systeme. Beuth: Berlin.
VTK (2019): The Visualization Toolkit. http://www.vtk.org/ (8.11.2019)
Wirth, N. (2013): Algorithmen und Datenstrukturen: Pascal-Version. Stuttgart: Teubner. 5. Aufl.
Wolf, H. u. W.-G. Bleek (2011): Agile Softwareentwicklung. Werte, Konzepte und Methoden. Hei-
delberg: dpunkt. 2. Aufl.
Worboys, M. u. M. Duckham (2004): GIS. A computing perspective. Boca Raton: CRC Press, 2.
Aufl.
Zhang, H. u. D. Liang (2007): Computer Graphics Using Java 2D and 3D. Upper Saddle River:
Pearson Education.
Zimmermann, A. (2012): Basismodelle der Geoinformatik. Strukturen, Algorithmen und Program-
mierbeispiele in Java. München: Hanser.
4 Geoobjekte und Bezugssysteme
4.1 Geoobjekte
Der räumliche Bezug von Informationen ist kennzeichnend für die Geowissenschaf-
ten und auch für die Belange der Geoinformatik. Die Kopplung von Informationen
an räumliche Bezugseinheiten, an Raumelemente oder Objekte mit einem Raumbe-
zug ist für geowissenschaftliche Fragestellungen typisch. Als räumliche Bezugsein-
heiten, als räumliche Objekte oder (einfacher) als Geoobjekte treten auf:
Punkte z.B. Grenzstein, Zähl- oder Messstelle, Quellort eines Emittenten
Linien z.B. Profillinie, Grenzlinie, Baumreihe, Wasserleitung, Verbindungslinie
Flächen z.B. Flurstück, Biotop, Gemeindegebiet, Einzugsgebiet
Körper z.B. Schadstoffwolke, Grundwasserkörper, Lagerstätte, Gebäude
Geoobjekte sind räumliche Elemente, die zusätzlich zu Sachinformationen geomet-
rische und topologische Eigenschaften besitzen und zeitlichen Veränderungen un-
terliegen können. Kennzeichnend für Geoobjekte sind somit Geometrie, Topologie,
Thematik und Dynamik.
Zur Geometrie eines Objektes gehören sämtliche Informationen zur absoluten Lage
und zur Form oder Ausdehnung des betreffenden Geoobjekts (z.B. Lage, Größe,
Umfang). Die Geometriedaten werden durch Informationen über die relative Lage
und Nachbarschaftsbeziehungen ergänzt (topologische Informationen, Topologie).
Topologische Eigenschaften bzw. Konzepte sind Umgebungen (bzw. Umgebungs-
beziehungen), Nachbarschaften (bzw. Nachbarschaftsbeziehungen), Teilmengen
(bzw. Teilmengen- oder Enthaltenseinbeziehungen) oder Überlagerungen (bzw.
Überdeckungs- oder Überschneidungsbeziehungen). Die Geoobjekte können sehr
verschiedene Sachthemen aufweisen (Sachinformationen oder thematische Infor-
mationen, Thematik) und zudem eine zeitliche Variabilität (zeitliche Veränderun-
gen, Dynamik) besitzen, die häufig neben geometrischer, topologischer und thema-
tischer Information als weiteres Unterscheidungsmerkmal herangezogen wird. Ge-
nerell gilt dabei, dass Geoobjekte eine räumliche und zeitliche Variabilität aufwei-
sen können, der sowohl die Thematik als auch die Geometrie und Topologie unter-
liegen können.
Bislang wurde der Begriff Geoobjekt im Sinne von Raumelement und losgelöst
vom Objektbegriff der Informatik benutzt. Die Bezeichnung Geoobjekt wurde aber
bewusst gewählt, um den Bezug zur Objektorientierung der Informatik deutlich
werden zu lassen (vgl. Kap. 3.1.4.3). So lassen sich Objektklassen bilden, die Ver-
allgemeinerungen oder Typen von Objekten mit zugehörigen Attributen und Me-
thoden darstellen:
Ein besonderes Merkmal dieses Ansatzes ist die Kopplung mit Methoden, die für
einzelne Objektklassen spezifisch sind. Auch die weiteren Konzepte der Objektori-
entierung wie z.B. Vererbung (d.h. Ableiten einer speziellen Subklasse und Verer-
ben der Eigenschaften der bestehenden Klasse) oder Klassenhierarchien (z.B. Su-
perklasse, Klasse, Subklasse, Objekt, Teilobjekt) lassen sich an dem Beispiel der
Objektklasse Straße aufzeigen (vgl. Tab. 4.1 u. Kap. 3.1.4.3). Ein konkretes Objekt,
d.h. in der Terminologie der Objektorientierung eine Instanz der Objektklasse, be-
sitzt dann ebenfalls schon die Attribute und Methoden dieser Klasse, aber eigene,
spezifische Attributwerte.
Dieser Ansatz bzw. die Verwendung des Begriffs Geoobjekt im Sinne der Ob-
jektorientierung der Informatik erweitert die eingangs genannte Definition um wei-
tere Inhalte, die sich aus dem Objektbegriff erschließen. Allerdings wird in der
Geoinformatik der Begriff Geoobjekt zumeist (noch) nicht in diesem weitergehen-
den Sinne verstanden oder benutzt. Die in der Geoinformatik bestehenden Verfah-
ren oder derzeit hauptsächlich zur Anwendung kommenden Softwaresysteme grei-
fen in der Regel noch auf den einfacheren Geoobjektbegriff zurück.
Die Geometrie eines Geoobjektes umfasst die Angaben zur Lage des Geoobjektes
auf der Basis eines eindeutigen räumlichen Bezugssystems (Lagekoordinaten). Da-
bei werden in der Geoinformatik metrische Bezugskoordinatensysteme zugrunde
gelegt, die eine quantifizierbare und objektivierbare Standortbestimmung zulassen.
Allerdings darf nicht verkannt werden, dass sich letztlich das menschliche Handeln
in einem subjektiven Bezugssystem und Wahrnehmungsraum vollzieht, der durch
Methoden der Informatik unzureichend erfasst wird.
In der Geoinformatik werden verschiedene räumliche Bezugssysteme verwen-
det. So können Geoobjekte in globalen Koordinatensystemen durch z.B. Geogra-
Geoobjekte 129
phische Koordinaten dargestellt werden (vgl. Kap. 4.2.3 u. 4.2.4). Als Bezugssys-
tem zur räumlichen Orientierung kann auch eine Karte mit einer speziellen Karten-
projektion dienen, die die (gekrümmte) Erdoberfläche in eine zweidimensionale
Ebene abbildet (vgl. Kap. 4.3). Sehr häufig werden lokale Koordinatensysteme und
dann (fast) ausschließlich kartesische Koordinatensysteme benutzt (vgl. Kap. 4.2.1
u. 4.5). Zur Abbildung von realen Geoobjekten in Geoinformationssysteme bzw.
zur Erfassung ihrer Geometrie werden in einem Geoinformationssystem ebenfalls
Bezugssysteme benötigt. Die Darstellung der Geoobjekte erfolgt im Vektor- oder
im Rastermodell (vgl. Abb. 2.6).
Das Vektormodell basiert auf gerichteten Strecken, d.h. Vektoren in einem Koor-
dinatensystem, die durch Angabe eines Anfangs- und eines Endpunktes eindeutig
bestimmt sind (in einem zwei- oder dreidimensionalen Koordinatensystem durch
(x,y)- oder (x,y,z)-Koordinatenangaben). Ein Geoobjekt wird hierbei durch Punkte
bzw. Vektoren beschrieben. Punkte sind als Vektoren zu verstehen, die ihren An-
fang im Ursprung des Koordinatensystems haben. Diese Form der Modellierung
bedingt, dass ein linienhaftes Geoobjekt durch eine endliche Zahl von Punkten auf-
gelöst, d.h. diskretisiert wird. Entsprechend wird eine Fläche durch die sie begren-
zenden Linien beschrieben, die wiederum durch einzelne Punkte definiert sind (Mo-
dellierung einer Fläche durch Koordinaten der begrenzenden „Zaunpfähle“). Das
dem Geoinformationssystem zugrundeliegende Datenmodell legt genauer fest, wie
im Vektormodell Flächen modelliert werden (vgl. Kap. 9.3.2). Nach erfolgter Dis-
kretisierung ist allein aufgrund der Koordinaten nicht immer eindeutig zu erkennen,
wie sich Flächen zusammensetzen (Zahl der Flächen, Definition der Grenzen aus
Koordinaten, vgl. Abb. 4.1). Zusätzlich zu den Koordinatenangaben müssen topo-
logische Informationen erfasst und gespeichert werden, die besagen, welche Vek-
toren (Punkte) welche Linie sowie welche Linie welche Flächen definieren (zur ge-
ometrisch-topologischen Modellierung im Vektormodell vgl. Kap. 9.3.2). Aller-
dings können Flächen auch als geschlossene Polygonzüge, d.h. als geschlossene
Folge von Vektoren, modelliert werden. Dann werden gemeinsame Grenzen dop-
pelt, d.h. redundant, erfasst (vgl. das Simple-Feature-Geometry-Object-Model, vgl.
Kap. 6.3.2 u. Tab. 6.2).
Ein Punkt wird näherungsweise durch ein einzelnes Pixel dargestellt. Ein Linienzug
wird durch entsprechende Anordnungen zusammenhängender Pixel angenähert er-
fasst. Linienzüge können dann z.B. durch Folgen von Indexpaaren (Zeile, Spalte)
der zugehörigen Pixel beschrieben werden. Eine Fläche ist ebenfalls durch zusam-
menhängende Pixel darstellbar. Somit sind keine weiteren Zusatzinformationen zur
Geoobjekte 131
Abb. 4.3: Gegenüberstellung von Geometrie und Topologie am Beispiel eines Busliniennetzes
Abbildung 4.3 zeigt die Unterschiede von Geometrie und Topologie. Gegenüberge-
stellt sind die Streckenführungen von Buslinien in einem geometrisch exakten
Stadtgrundriss und in einer topologischen Karte, die nur das abstrakte Streckennetz
wiedergibt und die geometrisch exakte Linienführung abstrahiert. Diese Darstel-
lung kann noch bei größeren Veränderungen der Linienführungen wie Umleitungen
132 Geoobjekte und Bezugssysteme
und Haltestellenverlegungen gültig sein (z.B. bei Umleitung von Linie 2 über die
nördliche Parallelstraße in Abb. 4.3). Die topologische Darstellung enthält sämtli-
che Informationen, die ein Fahrgast zur Orientierung und Routenplanung benötigt:
Informationen über Umsteige- oder Haltemöglichkeiten sowie generell über Ver-
bindungsmöglichkeiten zwischen Haltestellen. Diese Alltagsbegriffe benennen da-
bei zentrale topologische Konzepte: Nachbarschaften, Überlagerungen bzw. Über-
schneidungen oder Teilmengenbeziehungen, die nicht nur für Netzwerke gelten.
Abbildung 4.4 systematisiert die sechs möglichen Beziehungstypen zwischen den
drei geometrischen Grundformen Punkt, Linie und Fläche in einem zweidimensio-
nalen Raum. Beispielhaft sind an Beziehungen zu definieren:
Zwei Flächen sind benachbart, falls sie eine gemeinsame Grenze (mindestens
einen gemeinsamen Grenzpunkt) besitzen. Zwei Linien sind benachbart, falls der
Endpunkt der einen mit dem Anfangspunkt der anderen Linie identisch ist. Zwei
Punkte sind benachbart, wenn sie durch eine Strecke miteinander verbunden sind.
Allerdings ist es auch möglich, Nachbarschaftsbeziehungen inhaltlich zu definieren.
So sind A und B benachbarte Punkte, wenn sie direkt durch eine Strecke mit einer
bestimmten Eigenschaft verbunden sind (z.B. Verbindung zweier Städte durch eine
ICE-Linie).
Zwei Objekte überlagern bzw. schneiden sich, wenn sie (mindestens) einen ge-
meinsamen Punkt besitzen. Diese Definition macht nur für Linien, Flächen und Vo-
lumen Sinn. Sie ist für das Schneiden von Linien unmittelbar einsichtig. Den Durch-
schnitt von sich überlagernden Flächenkategorien (z.B. Gliederung einer Gemar-
kung nach Besitzparzellen und nach Anbautypen) kann man als Schneiden von Flä-
chen ansehen.
Eine Teilmengenbeziehung liegt z.B. dann vor, wenn ein Punkt auf einer Linie
oder in einer Fläche liegt oder wenn eine Fläche eine Teilfläche oder eine Linie
enthält.
Herauszustellen ist, dass hier Topologie und topologische Beziehungen von
Geoobjekten untereinander erläutert werden. Davon unabhängig ist die topologi-
sche Modellierung von Geoobjekten im Hinblick auf ihre Darstellung in Geoinfor-
mationssystemen zu sehen (vgl. Kap. 9.3.2 u. 9.3.4).
Ein Geoobjekt besitzt immer eine Thematik, die im Allgemeinen durch mehrere
Attribute (Merkmale, Variablen) gekennzeichnet wird. Die Attribute können ver-
schiedene Skalenniveaus aufweisen: Nominalskala (z.B. Name, Landnutzungstyp:
Feuchtwiese), Ordinal- bzw. Kardinalskala (z.B. Eignungsstufung: 13), Inter-
vallskala (z.B. Bodentemperatur: 2 Grad Celsius), Ratioskala (z.B. Tiefe des B-Ho-
rizontes: 0,75 m). Die Tabelle 4.2 benennt grundlegende Eigenschaften, wobei her-
auszustellen ist, dass gegenüber intervallskalierten Daten erst auf Ratioskalenni-
veau, bei dem ein absoluter Nullpunkt besteht, Verhältnisse berechnet werden dür-
fen (vgl. Temperatur in Celsius oder Fahrenheit gegenüber Kelvin). Diese Sachda-
ten können zudem in mehreren Datenbanken (unterschiedlicher Herkunft, Aktuali-
tät, Genauigkeit) mit differierenden Zugriffsrechten vorgehalten werden.
Nominal- Namen, Postleitzahlen, Zahlen als Ko- vorhanden oder nicht vorhanden und gleich
skala dierungen oder ungleich
Inter- metrische Daten mit festgelegtem, aber zusätzlich zur Ordinalskala Addition u. Sub-
vallskala nicht absolutem Nullpunkt: Grad Cel- traktion, Betrachtung von Intervallen
sius (30° C ist um 10° C wärmer als 20° C, aber
nicht: 30° C ist doppelt so warm wie 15° C)
Ratio- metrische Daten mit absolutem bzw. zusätzlich zur Intervallskala Multiplikation u.
skala natürlichem Nullpunkt: Länge in m, Division, Betrachtung von Verhältnissen,
Flächengröße in m2, Alter in Jahren jetzt 200° K ist doppelt so warm wie 100° K)
Die geometrische Dimension eines Geoobjektes ist mit der Zahl der Koordinaten-
achsen in einem kartesischen Koordinatensystem identisch, die zur vollständigen
(geometrischen) Beschreibung notwendig sind. Zur Quantifizierung der Größe ei-
nes Geoobjektes können je nach seiner geometrischen Dimension Länge, Flächen-
größe und Volumen berechnet werden. Punkte besitzen weder Länge noch Fläche.
Koordinatensysteme 135
Linien haben nur eine (endliche) Länge. Flächen besitzen keine Länge, aber einen
Umfang und eine Flächengröße. Ein Körper gestattet die Berechnung eines Volu-
mens. In diesem Fall wird er als Volumenkörper betrachtet. Darüber hinaus ist die
Quantifizierung der Körperoberfläche möglich.
Entsprechend den geometrischen Dimensionen können mehrere topologische Di-
mensionen unterschieden werden (Knoten, Kante, Masche). Auch nach der Thema-
tik ergeben sich verschiedene thematische Dimensionen, die die Anzahl der be-
schreibenden Merkmale eines Objektes bezeichnen. Entsprechend zur statistischen
Methodenlehre werden n-dimensionale Merkmalsräume unterschieden.
4.2 Koordinatensysteme
In der Geoinformatik hat die euklidische Metrik die größte Bedeutung (zu weiteren
Distanzmaßen insbesondere in schiefwinkligen Koordinatensystemen vgl. Lehrbü-
cher zur Clusteranalyse wie z.B. Bock 1974 bzw. Bortz u. Schuster 2010 S. 456 u.
Backhaus u.a. 2016 S. 457 ff., zur Verwendung von Metriken in Klassifikationsver-
fahren vgl. Kap. 10.7.2):
ሬሬሬሬԦ
݀ ൫ܺ ሬሬሬሬԦ ଶ
ప , ܺఫ ൯ = ඥσୀଵ(ݔ െ ݔ ) mit
ሬሬሬሬԦ
ܺ ሬሬሬሬԦ
ప = (ݔଵ , ݔଶ , … , ݔ ) und ܺఫ = (ݔଵ , ݔଶ , … , ݔ )
P (r,D,E) dann: x = r • sin E • cos D P (x,y,z) dann: r = ඥ( ݔଶ + ݕଶ + ݖଶ
y = r • sin E • sin D D = arctan y/x (für xz0)
z = r • cos E E = arctan ൫ඥ( ݔଶ + ݕଶ ൯/z
für x=0 und y=r ist D= S/2
für x=0 und y=-r ist D= –S/2
Die Geographische Breite (M) und Geographische Länge (O) bauen das anschau-
liche Geographische Koordinatensystem auf. Herauszustellen ist, dass hier verein-
facht die Erde durch eine Kugel angenähert wird (vgl. Kap. 4.2.4). Diese Vereinfa-
chung ist zur Darstellung großer Teile der Erdoberfläche in einem kleinen Maßstab
durchaus zulässig.
- Der Äquator ist der Kreis, dessen Ebene durch den Erdmittelpunkt senkrecht zur
Rotationsachse der Erde steht.
- Die parallel zum Äquator verlaufenden Kreise werden Breitenkreise oder Paral-
lelkreise genannt. Als Geographische Breite wird der Winkel zwischen einem
Punkt auf der Kugeloberfläche und der Äquatorebene entlang des zugehörigen
Meridians bezeichnet (0° = Äquator, 90° = Nordpol, –90° = Südpol). Zur Ver-
meidung negativer Werte wird von nördlicher oder südlicher Breite gesprochen.
Die Geographische Breite definiert eindeutig einen Breitenkreis.
- Die vertikal zum Äquator (und zu den Parallelkreisen) und durch die beiden Pole
verlaufenden Kreise werden Längenkreise oder Meridiane genannt. Als Nullme-
ridian wurde der Längenkreis durch die Sternwarte von Greenwich bei London
vereinbart. Als Geographische Länge wird der Winkel zwischen der Meridian-
ebene eines Punktes auf der Kugeloberfläche und der Nullmeridianebene entlang
der Äquatorebene bezeichnet. Vom Nullmeridian wird jeweils in östliche und
westliche Richtung bis 180° gezählt.
- Aus Breiten- und Längenkreisen wird das Geographische Gradnetz aufgebaut.
- Kreise mit demselben Radius wie die Erdkugel werden Großkreise genannt.
Sämtliche Meridiane und der Äquator sind Großkreise.
Nördlich und südlich des Äquators verringert sich der Umfang der Parallelkreise
(Konvergenz der Meridiane zu den Polen, vgl. Abb. 4.7). Der horizontale Abstand
von einem Grad Geographischer Länge entspricht am Äquator einem Abstand von
ca. 111 km und bei 54° Breite nur noch ca. 65 km (vgl. Tab. 4.3 im Kap. 4.3.1).
Die Winkel werden zumeist im 60er System angegeben: Ein Kreis hat 360 Grad,
wobei ein Grad aus 60 Minuten und eine Minute aus 60 Sekunden bestehen. Für die
Osnabrücker Innenstadt gilt z.B. 52° 16’ 35’’ nördliche Breite und 8° 02’ 39’’ öst-
liche Länge. Zur Umrechnung ins Dezimalsystem werden die Minutenangabe durch
60 und die Sekundenangabe durch 3.600 geteilt und beide Ergebnisse zur Gradzahl
addiert: 52,276388 nördliche Breite und 8,044167 östliche Länge.
52° 16’ 35’’ = 52° + 16/60° + 35/3600° = 52,276388°
8° 02’ 39’’ = 8° + 02/60° + 39/3600° = 8,044167°
ebenso:
52° 16’ 35’’ = 52° 16‘ + 35/60‘ = 52° 16,58333333‘
8° 02’ 39’’ = 8° 02‘ + 39/60‘ = 8° 2,65‘
Koordinatensysteme 139
Abb. 4.7: Geographisches Koordinatensystem auf der Kugel und kürzeste Entfernung zwischen
zwei Punkten A und B auf der Kugeloberfläche als Entfernung auf einem Großkreis
Auf der Kugeloberfläche berechnen sich Entfernungen nicht mit Hilfe der Euklidi-
schen Metrik, Vielmehr ist hierbei die geringste Distanz zwischen zwei Punkten A
und B ein Teil des Großkreises, der bereits durch diese Punkte eindeutig definiert
ist. Diese kürzeste Verbindung wird Orthodrome genannt, deren Länge bestimmt
wird durch:
ܣ( ݖ݊ܽݐݏ݅ܦ, ܴ = )ܤή ߜ mit R = Kugelradius, ߜ Winkel im Bogenmaß zwischen A und B
Werden Geographische Breiten- und Längenangabe zur Bestimmung von A (OA,MA)
und B (OB, MB) benutzt, so berechnet sich die Entfernung zwischen A und B durch
den Kosinussatz der sphärischen Trigonometrie. Hierbei wird vereinfacht von einer
Kugelgestalt der Erde ausgegangen:
ܣ( ݖ݊ܽݐݏ݅ܦ, ܴ = )ܤή ܿି ݏଵ (߮݊݅ݏ ή ߮݊݅ݏ + ܿ߮ݏ ή ܿ߮ݏ ή cos(ߣ െ ߣ ))
Gegenüber kleinmaßstäbigen Arbeiten, bei denen die Erde vereinfacht als Kugel
betrachtet wird, bauen großmaßstäbige Aufgaben in den Landesvermessungen auf
einem genaueren Modell der Erde auf, das aber noch mathematisch handhabbar ist.
Somit liegen weltweit dem Vermessungswesen generell Ellipsoide zugrunde, die
jeweils für das Gebiet der betreffenden Landesvermessungen (d.h. regional) die
Erde bestmöglich annähern. Dies hat mehrere Konsequenzen:
- Die satellitengestützte Navigation (vgl. Kap. 5.3) erfordert einen weltweit ein-
heitlichen Referenzellipsoiden und eindeutige Koordinatenangaben (WGS84-
Referenzellipsoid). Dieser globale Ellipsoid nähert weltweit, aber nicht mehr re-
gional für das Gebiet einer Landesvermessung die Erde bestmöglich an.
- Die Landesvermessungen rechnen mit elliptischen Koordinaten, was die Berech-
nung geodätischer Koordinaten (d.h. UTM- bzw. ehemals in Deutschland Gauß-
Krüger-Koordinaten, vgl. Kap. 4.5.2 u. 4.5.5) nicht vereinfacht.
140 Geoobjekte und Bezugssysteme
ܺ = (ܰ + ݄) ή cos ߮ ή cos ߣ
ܻ = (ܰ + ݄) ή cos ߮ ή sin ߣ
ܼ = [ܰ ή (1 െ ݁ ଶ ) + ݄] ή sin ߮ a bzw. b große bzw. kleine Halbachse
൫మ ି మ ൯
ܰ=௪ = ݓඥ1 െ ݁ ଶ ή ݊݅ݏଶ ή ߮ ݁ଶ =
మ
Abb. 4.8: Geographisches Koordinatensystem auf einem Ellipsoiden und kartesische Koordinaten
(Ellipsoidisches System)
Koordinatensysteme 141
4.2.5.1 Georeferenzierung
Somit stellt sich die zentrale Aufgabe, die Ausgangsdaten in ein Standardkoordina-
tensystem wie z.B. in das übliche Koordinatensystem der Landesvermessung zu
transformieren. Dieser Prozess, der zum Alltag der Geoinformatik gehört, wird als
Georeferenzierung oder Geocodierung bezeichnet, bei dem die Gerätekoordinaten
auf ein reales geographisches Bezugssystem referenziert werden (vgl. Abb. 4.9).
Dann sind je nach Fragestellung auch ein Wechsel der Kartenprojektion und die
142 Geoobjekte und Bezugssysteme
Hier werden nur umkehrbar eindeutige affine Abbildungen A betrachtet, die zwi-
schen zwei kartesischen Koordinatensystemen definiert sind (A: Rn Æ Rn), die Ge-
radlinigkeit, Parallelität und Teilverhältnisse auf jeder Geraden erhalten, aber Län-
gen, Winkel, Flächeninhalt und Orientierungen (Umlaufsinn) ändern können. Zu
den affinen Transformationen gehören vor allem die Ähnlichkeitstransformationen,
die sich aus einer Drehung, Verschiebung oder aus einer Skalierung (Multiplikation
mit einem einzigen Faktor, Maßstabsveränderung) zusammensetzen.
Für zweidimensionale kartesische Koordinatensysteme kann jede affine Abbil-
dung in Matrizenschreibweise beschrieben werden durch:
ݔᇱ ܵ௫ 0 ܣ ܤ ݔ ܶ௫
൬ ᇱ൰ = ൬ 0 ܵ௬ ൰ ή ቀܥ ቁ ή ቀݕቁ + ൬ܶ ൰
ݕ ܦ ௬
Hierbei sind x und y die Koordinaten im Ursprungssystem und x´ und y´ die Koor-
dinaten im Zielsystem. Weiter gelten für diese Abbildung:
Koordinatensysteme 143
- Die einfache Drehung um den Ursprung des Koordinatensystems, die die Recht-
winkligkeit und die Größenverhältnisse erhält (keine zusätzliche Dehnung oder
Stauchung und Verschiebung), wird durch eine Matrix beschrieben, wobei D der
Drehwinkel (gegen den Uhrzeigersinn) ist:
ܶ௫
൬ܶ ൰
௬
Die Drehung um den Ursprung kann in drei Drehungen, d.h. drei Drehwinkel um
die drei Koordinatenachsen zerlegt werden, die hintereinander auszuführen sind.
Für die Drehung (lediglich) um die z-Achse ergibt sich als Drehmatrix:
cos ߙ െ sin ߙ 0
sin ߙ cos ߙ 0൩
0 0 ܫ
Die gesamte Transformation kann mit Hilfe homogener Koordinaten als einzige
Matrixmultiplikation dargestellt werden:
Hierdurch lassen sich die Rechnungen vereinfachen. Dies begründet letztlich (auch)
den Einsatz von homogenen Koordinaten. Der dreidimensionale Fall (Multiplika-
tion von 4 x 4 Matrizen) kann natürlich auch entsprechend auf den zweidimensio-
nalen Fall eingeschränkt werden (Multiplikation von 3 x 3 Matrizen, Wegfall der
dritten Zeile bzw. Spalte).
144 Geoobjekte und Bezugssysteme
Eine zweidimensionale affine Abbildung (R2 Æ R2) wird häufig auch als Poly-
nom erster Ordnung beschrieben (vgl. Kap. 4.2.5.4):
ݔԢ ܵ௫ 0 ܣ ܤ ݔ ܶ௫ bzw. ݔᇱ = ܵ௫ ή ( ܣή ݔ+ ܤή )ݕ+ ܶ௫
൬ ൰ = ൬0 ܵ௬ ൰ ή ቀܥ ቁ ή ቀݕቁ + ൬ܶ ൰
ݕԢ ܦ ௬ ݕᇱ = ܵ௬ ή ( ܥή ݔ+ ܦή )ݕ+ ܶ௬
Daraus folgen:
ݔᇱ = ܵ௫ ή ( ܣή ݔ+ ܤή )ݕ+ ܶ௫
ݕᇱ = ܵ௬ ή ( ܥή ݔ+ ܦή )ݕ+ ܶ௬
An einem Beispiel soll eine affine Transformation erläutert werden, die von den
drei Punkten P1(1,1), P2(3,2) und P3(2,3) ausgeht. Durch Ausführen:
von einer Drehung um 30°
cos 30° െ sin 30° 1 3 2
ቀ ቁ ή ቀ ቁ
݊݅ݏ30° cos 30° 1 2 3
ଵ
ή ξ3 െ 0.5 1 3 2 0.366 1.598 0.232
ቌଶ ଵ ቍ ή ቀ ቁ=ቀ ቁ
0.5 ή ξ3 1 2 3 1.366 3.232 3.598
ଶ
భ ή ௫ ᇲ ା మ ή ௬ᇲ ା య భ ή ௫ ᇲ ା మ ή ௬ᇲ ା య
=ݔ భ ή ௫ ᇲ ା మ ή ௬ᇲ ା ଵ
=ݕ భ ή ௫ ᇲ ା మ ή ௬ᇲ ା ଵ
Bei wenig reliefiertem Gelände, das keine Einbeziehung eines Höhenmodells er-
fordert, kann man bei der Entzerrung von Luftbildern von einfachen projektiven
Beziehungen zwischen zwei Ebenen ausgehen (d.h. Luftbild und Geländeoberflä-
che). Hierbei sind x‘ und y‘ die Koordinaten von Passpunkten im (digitalen, einge-
scannten) Luftbild und x und y die Koordinaten im entzerrten Bild (bzw. in der
Karte). Die acht Unbekannten ai, bi und ci können mit Hilfe von vier Passpunkten
berechnet werden. Anschließend kann das gesamte Bild transformiert werden. Zur
Bestimmung der Parameter ai, bi und ci werden lineare Gleichungen aufgestellt, die
den Gleichungen zur Bestimmung der Parameter für eine affine Transformation äh-
neln (zu affinen Transformationen und zum Vorgehen bei Überbestimmtheit, d.h.
hier bei mehr als vier Passpunkten, vgl. Kap. 4.2.5.5).
neue Koordinatensystem zu überführen. Für den Fall von Polynomen erster Ord-
nung (affine Transformation) bzw. zweiter Ordnung ergeben sich für m Referenz-
punkte (xi,yi) bzw. (x´i,y´i) in Matrixschreibweise:
13,66 1 1 1 ܽ 23,66 1 1 1 ܾ
൭25,98൱ = ൭1 3 2൱ ή ൭ܽଵ ൱ bzw. ൭42,32൱ = ൭1 3 2൱ ή ൭ܾଵ ൱
12,32 1 2 3 ܽଶ 45,98 1 2 3 ܾଶ
Durch Multiplikation mit der inversen Matrix ergibt sich:
5 െ1 െ1 13,66 10 ܽ
ଵ
ή ൭െ1 2 െ1൱ ή ൭25,98൱ = ൭8,66൱ = ൭ܽଵ ൱ = ܣ
ଷ
െ1 െ1 2 12,32 െ5 ܽଶ
5 െ1 െ1 23,66 10 ܾ
ଵ
ଷ
ή ൭െ1 2 െ1൱ ή ൭42,32൱ = ൭ 5 ൱ = ൭ܾଵ ൱ = ܤ
െ1 െ1 2 45,98 8,66 ܾଶ
Aus diesen Matrixgleichungen errechnen sich die Polynomgleichungen:
ݔᇱ = ܽ + ܽଵ ή ݔ+ ܽଶ ή ݕ
ݕᇱ = ܾ + ܾଵ ή ݔ+ ܾଶ ή ݕ
ݔᇱ = 10 + 8,66 ή ݔെ 5 ή ݕ
ݕᇱ = 10 + 5 ή ݔ+ 8,66 ή ݕ
Koordinatensysteme 147
Durch Einsetzen der Koordinaten z.B. für P1 (1,1) ergibt sich für Q1 (Kontrollrech-
nung):
ݔᇱ = 10 + 8,66 ή 1 െ 5 ή 1 = 13,66
ݕᇱ = 10 + 5 ή 1 + 8,66 ή 1 = 23,66
Allerdings werden in den meisten Fällen über die mindestens benötigten Pass-
punkte (wesentlich) mehr Referenzpunkte herangezogen. Das Gleichungssystem ist
überbestimmt. Dann gilt für m t k :
Hierbei sind Ex = {(x´i – ui)} und Ey = {(y´i – vi)} die Abweichungen zwischen den
vorgegebenen Koordinaten der Referenzpunkte im Zielsystem (x´i,y´i) und den Ko-
ordinaten (ui,vi), die aufgrund der Transformation aus den Ausgangskoordinaten
(xi,yi) bestimmt werden. Aufgrund von Ungenauigkeiten der Passpunktbestim-
mung, die bei verschiedenen Passern zudem unterschiedlich ausfallen, ist es in der
Praxis nicht möglich, eine Abbildung zu finden, die sämtliche Referenzpunkte des
Ausgangssystems exakt auf die zugehörigen Punkte im Zielsystem transformiert, so
dass gilt: (x´i – ui) = 0 und (y´i – vi) = 0.
Mathematisch ausgedrückt bedeutet dies, dass mit m > k die m u k -Matrix W
nicht invertiert werden kann, was zur Formulierung eines sog. linearen Ausgleichs-
problems führt, das die Abweichungen minimiert (vgl. Niemeier 2008 S. 129 ff.):
ԡܺ ᇱ െ ܹ ή ܣԡଶ = (ܺ ᇱ െ ܹ ή ்)ܣή (ܺ ᇱ െ ܹ ή = )ܣσ(ݔᇱ െ ݑ )ଶ minimal
Dabei steht für die Norm einer Matrix, die mit dem Betrag einer Zahl vergleich-
bar ist. Dies bedeutet, dass der RMS-Fehler minimal werden soll. Man kann zeigen
(vgl. Freund u. Hoppe 2007 S. 259 ff. u. 262 ff.), dass A0 und B0 mit
ܣ = (ܹ ் ή ܹ)ିଵ ή ܹ ் ή ܺ und ܤ = (ܹ ் ή ܹ)ିଵ ή ܹ ் ή ܻ
In der Regel ist die Passpunktbestimung ein iterativer Prozess. Durch Herausnahme
von kritischen Referenzpunkten mit großen Abweichungen und Hinzunahme neuer
Passpunkte kann versucht werden, den Transformationsfehler zu verkleinern. Al-
lerdings sollte nicht ausschließlich das Ziel angestrebt werden, den RMS-Fehler zu
verringern. Dieser Fehler sagt nur etwas über die Referenzpunkte aus! Vielmehr ist
auch auf eine möglichst optimale Verteilung der Passpunkte (z.B. breite räumliche
Streuung über das gesamte Untersuchungsgebiet) und auf eine exakte Bestimmung
der Lage im Ausgangssystem zu achten.
Tabelle 4.3: Horizontaler Abstand zwischen zwei Orten A und B auf unterschiedlichen Breitenkrei-
sen zwischen München und Lübeck (Abstand jeweils zwischen 8° und 10° östl. Länge)
Ort A Ort B Entfernung vereinfachte
Länge Breite Länge Breite in km Annahme:
Erde als Ku-
8 54 10 54 130,713
gel mit Ra-
8 52 10 52 136,913
dius 6371
8 50 10 50 142,945
km
8 48 10 48 148,804
Abbildung 4.12 und die Tabelle 4.3 verdeutlichen das grundsätzliche Problem. Die
Darstellung der Bundesrepublik Deutschland ist in einem kartesischen Koordina-
tensystem aus den geographischen Längen- und Breitengraden nicht möglich. So
setzt ein kartesisches Koordinatensystem voraus, dass z.B. der Abstand zwischen 6
und 14 auf der Horizontalen gleich dem Abstand zwischen 42 und 50 auf der Ver-
tikalen ist. Genau das ist aber (z.B.) zwischen 6° und 14° östlicher Länge und 42°
und 50° nördlicher Breite nicht der Fall. Somit muss man zwingend bei der Darstel-
lung von Geoobjekten, die durch geographische Koordinaten bestimmt sind, die zu-
gehörige Projektion angeben. Unterbleibt dieser Schritt und werden geographischen
Koordinaten einfach die rechtwinkligen Pixelkoordinaten zugewiesen, können ge-
rade bei einer großräumigen Betrachtung erhebliche Verzerrungen auftreten (vgl.
Abb. 4.12). Insbesondere dürfen keine Distanzen mit Hilfe des Satzes von Pythago-
ras z.B. zwischen (53°, 7°) und (47°, 12°) berechnet werden (zur Berechnung der
Länge der Orthodrome vgl. Kap. 4.2.3 u. Abb. 4.7).
150 Geoobjekte und Bezugssysteme
Bei jeder Abbildung von der Kugeloberfläche in die Ebene können grundsätzlich
Strecken-, Winkel- und Flächenverzerrungen auftreten. Eine derartige Abbildung
kann niemals gleichzeitig längentreu, winkeltreu und flächentreu sein. In Abhän-
gigkeit des Einsatzes einer Karte können nur derartige Abbildungen benutzt wer-
den, die die eine oder die andere Verzerrung vermeiden oder verringern:
Bei einer winkeltreuen Projektion (konforme Abbildung) bleibt der Winkel zwi-
schen sich schneidenden Linien (d.h. genauer zwischen den Tangenten an diesen
Linien in deren Schnittpunkt) erhalten. Allerdings kann Winkeltreue nur im Kleinen
bestehen. Winkeltreue Abbildungen erhalten nur lokal die Form der Objekte. Keine
Kartenprojektion kann Winkeltreue und somit die exakte Form für ein größeres Ge-
biet erhalten. Winkeltreue Abbildungen können nicht flächentreu sein, so dass ein-
zelne Gebiete vergrößert dargestellt werden. Allgemein sind dabei die Verzerrun-
gen am Rande am größten (vgl. die Polgebiete in einer Mercatorkarte oder Indien
im Vergleich mit Grönland, vgl. Abb. 4.16).
Eine Projektion ist flächentreu, falls sämtliche Gebiete durch die Abbildung in
der korrekten relativen Größe wiedergegeben werden (flächentreue oder äquiva-
lente Abbildung). Flächentreue Karten können nicht winkeltreu sein, so dass die
meisten Winkel und die Form verzerrt sind.
Bei einer längentreuen Abbildung stimmt der Abstand zweier Punkte im Origi-
nal bis auf einen Maßstabsfaktor mit dem Abstand der Bildpunkte überein. Die Erd-
oberfläche kann aber nur begrenzt längentreu (äquidistant) in die Ebene abgebildet
werden (partielle Längentreue nur entlang weiterer Linien wie Berühr- oder Schnitt-
kreisen, z.B. längentreuer Äquator bei einer normalen Mercatorprojektion).
eine Ebene, ein Zylinder- oder ein Kegelmantel verwendet, so dass Azimutal-, Zy-
linder- und Kegelprojektionen unterschieden werden:
Abb. 4.13: Klassifikation der Kartennetzentwürfe nach der Art der Abbildungsflächen
Dieser Abbildungstyp resultiert aus einer Tangentialebene, die in einem Punkt die
Erdkugel berührt, oder auch in einem Spezialfall aus einer Schnittebene. Der Be-
rührpunkt (z.B. der Nordpol) bestimmt die Lage, wobei die polare Lage (d.h. nor-
male Lage), die äquatoriale Lage (d.h. transversale Lage) und die schiefe Lage un-
terschieden werden. Azimutale Abbildungen zeichnen sich dadurch aus, dass die
Richtung – oder der Azimuth – vom Berührpunkt zu jedem anderen Punkt korrekt
wiedergegeben wird. Sämtliche Großkreise durch den Berührpunkt werden als Ge-
raden wiedergegeben (vgl. Snyder 1987 S. 141).
Netzentwürfe und Kartenprojektionen 153
Die polare Lage stellt die einfachste Form dieser Abbildung dar, bei der die Brei-
tenkreise als konzentrische Kreise um den Berührpunkt (hier ein Pol) und die Me-
ridiane als Geraden abgebildet werden, die sich im Berührpunkt (hier ein Pol) mit
ihren wirklichen Winkeln schneiden. In allen anderen Lagen besitzt bei azimutalen
Abbildungen das Gradnetz im Berührpunkt genau rechte Winkel.
Azimutale Projektionen können weiter nach der Lage ihres Projektionszentrums
differenziert werden. Bei der Gnomonischen Abbildung liegt dieses Zentrum im
Erdmittelpunkt, bei der Stereographischen Abbildung allgemein im Gegenpol des
Berührpunkts sowie bei der Orthographischen Abbildung im Unendlichen.
Azimutale Abbildungen werden zumeist zur kartographischen Darstellung von
Polarregionen benutzt. Von größerer Bedeutung vor allem zur Darstellung der west-
lichen und östlichen Hemisphäre oder von Kontinenten in Atlanten ist der von Lam-
bert stammende flächentreue Entwurf einer azimutalen Abbildung.
Dieser Abbildungstyp kann durch Abwicklung eines Kegels in die Ebene verdeut-
licht werden, der derart an die Kugel angelegt wird, dass er sie in einem Kreis (z.B.
ein Breitenkreis) berührt oder in zwei Kreisen schneidet. Diese Berühr- oder
Schnittkreise (sog. Standardparallelkreise) werden bei der (gedachten) Abwicklung,
bei der der Kegel entlang eines Meridians aufgeschnitten wird, längentreu abgebil-
det. Der Meridian gegenüber der Schnittlinie wird als Zentralmeridian bezeichnet.
Allgemein nimmt die Verzerrung zu beiden Seiten des Berührkreises zu. Bei einem
Schnittkegelentwurf ist die Verzerrung zwischen den Schnittkreisen geringer als
außerhalb.
Einzelne Kegelentwürfe können winkeltreu (z.B. Entwurf nach Lambert), mitt-
abstandstreu, d.h. längentreu oder äquidistant entlang der Meridiane und/oder der
Parallelkreise (z.B. Entwurf nach de l'Isle), oder flächentreu (z.B. Entwurf nach Al-
bers) sein.
Erdachsige, konische Netzentwürfe mit zwei Schnittkreisen unterscheiden sich
vor allem darin, wie die Breitenkreise zwischen den Schnittkreisen abgebildet wer-
den. Beim flächentreuen Kegelentwurf mit zwei längentreuen Parallelkreisen nach
Albers besitzen die Breitenkreise zwischen den Schnittkreisen einen größeren Ab-
stand. Dieser Entwurf wird bei zahlreichen Einzel- und Atlaskarten insbesondere in
den USA u.a. vom US Geological Survey angewendet. Beim winkeltreuen Kegel-
entwurf mit zwei längentreuen Parallelkreisen nach Lambert hingegen liegen die
zentralen Parallelkreise näher zusammen als jene am Rande.
Die winkeltreue (d.h. konforme) Kegelprojektion mit zwei längentreuen Paral-
lelkreisen nach Lambert wird in der Praxis häufig benutzt. Dieser Entwurf wird z.B.
auf der Basis eines Bezugsellipsoiden bei Übersichtskarten 1:500.000 (z.B. in der
Bundesrepublik Deutschland oder in Österreich) oder auch bei Neuausgaben der
Internationalen Weltkarte 1:1.000.000 angewendet. Vom Bundesamt für Kartogra-
phie und Geodäsie der Bundesrepublik Deutschland werden kostenfrei digitale Kar-
154 Geoobjekte und Bezugssysteme
4.3.3.4 Zylinderabbildungen
ݔ ߣ ߣ
ቀݕቁ = ݎή ൬ ൰= ݎή ቆ ߨ ߮ ቇ
)߮(ܨ ln tan ( + )
4 2
Abb. 4.15: Konstruktionsprinzip einer normalen Zylinderprojektion
zen Mercatorkarten große Bedeutung in der See- und Luftfahrt (daher auch Seekar-
ten genannt): Der Kurs eines Schiffes wird zumeist (mit einem Kompass) als ge-
genüber der Nordrichtung fester Kurswinkel festgelegt. Somit schneidet die Kurs-
linie (die Loxodrome) jeden Meridian unter einem konstanten Winkel. Diese Kurs-
linie wird in der Mercatorkarte als Gerade abgebildet.
4.3.3.5 Web-Mercator-Projektion
import math
lon=8.0
lat=55.0585
#WGS84toGoogleBing
x = lon * 20037508.34 / 180
y = math.log(math.tan((90 + lat) * math.pi/ 360)) / (math.pi / 180)
y = y * 20037508.34 / 180
#umgekehrt: GoogleBingtoWGS84Mercator
#lon = (x / 20037508.34) * 180
#lat = (y / 20037508.34) * 180
Somit hat z.B. das Schloss-Hauptportal in Osnabrück die Web-Mercator-Koordi-
nate (895.478,4; 6.849.342,8).
Die Verwendung dieser Koordinaten ist aber bei Entfernungs- oder Flächenbe-
rechnungen sehr kritisch. Während die UTM-Koordinaten auf kleinräumige An-
wendungen ausgerichtet sind und dabei den Abbildungsfehler vom Ellipsoiden zur
Fläche gering halten (vgl. Kap. 4.5.5), zielt die Web-Mercator-Projektion nicht auf
die Verringerung von Abbildungsfehlern, sondern auf die leistungsstarke, d.h. per-
formante Übertragung von 256 x 256 Pixel großen Bildern (sog. Kacheln oder Ti-
les) ab, die den jeweiligen Ausschnitt der Erdoberfläche in einer Zoomstufe von 0
bis 18 zeigen (vgl. Open Street Map 2019).
Somit können erhebliche Abbildungsfehler auftreten. Werden mit dem Geoin-
formationssystem QGIS und vor dem Hintergrund eines Kartenausschnitts von O-
pen Street Map (EPSG 3857) zum einen ein Punkt in Bayern (am Starnberger See)
und zum anderen ein Punkt in Schleswig-Holstein (in der Gemeinde Leck gebuffert,
so dass ein auf der Spitze stehendes Quadrat mit der Diagonale 200 m entsteht, so
beträgt die Fläche jeweils 20.000 m2, was auch unter der Web-Mercator-Projektion
exakt angezeigt wird. Ein Export und ein anschließender Import mit Transformation
dieser beiden Flächen in das „übliche“ UTM-Koordinatensystem (Zone 32) führen
zu erheblichen Differenzen. So ist die Fläche in Bayern nur noch 9.003,46 m2 und
die in Schleswig-Holstein nur noch 6.634,03 m2 groß.
Häufig wird vereinfacht die Erde als eine Kugel betrachtet. Für exakte Lagebestim-
mungen und Kartennetzentwürfe ist jedoch die tatsächliche Form der Erde durch
einen Ellipsoiden anzunähern. Dabei werden u.a. die Abflachung der Erde an den
Polen und die Ausbuchtung am Äquator berücksichtigt. Eine Ellipse wird allgemein
durch zwei Radien bestimmt: Die längere Achse wird als Hauptachse, die kürzere
Achse als Nebenachse bezeichnet. Ein (Rotations-)Ellipsoid entsteht dann durch
Rotation einer Ellipse um eine ihrer Achsen. Ein Ellipsoid, der die Form der Erde
annähert, wird durch Drehung um die kleinere Achse, d.h. um die sog. Polarachse,
gebildet. Allerdings ist die Erde tatsächlich auch kein Ellipsoid. Sie besitzt (neben
Grundlagen geodätischer Bezugssysteme 157
der Ausbuchtung am Äquator und den Abplattungen an den Polen) weitere kleinere
Dellen und Ausbuchtungen. Somit werden in unterschiedlichen Regionen der Erde
auch unterschiedliche Ellipsoide verwendet, um lokal die beste Annäherung zu er-
reichen. Die Landesvermessungen verschiedener Länder legen dem Aufbau ihres
Vermessungsnetzes und dann der Bestimmung der geographischen Koordinaten
von Geoobjekten daher unterschiedliche Referenzellipsoide zugrunde (vgl. Abb.
4.17 u. Tab. 4.4).
Tabelle 4.4: Parameter wichtiger Referenzellipsoide (nach: OGP Geomatics Committee 2012)
Name EPS a (in m) b (in m) 1/f Verbreitung
G
Airy, 1830 7001 6.377.563,39 6.356.256,909 299,3249646 Großbritannien,
6 Irland
Bessel, 1841 7004 6.377.397,15 6.356.078,963 299,1528128 Europa, Asien
5
Clarke, 1866 7008 6.378.206,4 6356583.8 294,9786982 Nordamerika und
Zentralamerika
Clarke, 1880 7011 6.378.249,2 6.356.515 293,466021294 u.a. Afrika, Israel,
Jordanien, Iran
GRS80, 1980 7019 6.378.137 6.356.752,314 298,257222101 weltweit, intern.
angenommen
Hayford, 1909 7022 6.378.388,0 6.356.911,946 297,0 Europa, Asien,
International, Süd-amerika, Ant-
1924 arktis
Krassowski, 7024 6.378.245,0 6.356.863.019 298,3 UdSSR u. weitere
1940 osteurop. Staaten
WGS72, 1972 7043 6.378.135,0 6.356.750.520 298,26 weltweit
WGS84, 1984 7030 6.378.137,0 6.356.752.314 298,257223563 weltweit
Abb. 4.18: Lokales Bezugssystem und Lagefestpunktfeld (nach Resnik u. Bill 2018 S. 38)
Für das Deutsche Hauptdreiecksnetz, das im Wesentlichen auf die Preußische Lan-
desaufnahme im 19. Jahrhundert zurückgeht, gilt das Potsdam-Datum mit dem Bes-
sel-Ellipsoiden. Fundamentalpunkt ist der seit 1910 nicht mehr existierende Punkt
Rauenberg (in Berlin), an dessen Stelle formal der Trigonometrische Punkt Potsdam
getreten ist, der aber die Koordinaten im System Rauenberg erhielt, so dass eine
Neuberechnung sämtlicher Trigonometrischer Punkte auf das neue Datum vermie-
den wurde. Dies hat nach dem Zweiten Weltkrieg zunächst im militärischen Bereich
zu der nicht ganz richtigen, aber inzwischen auch allgemein üblichen Bezeichnung
Potsdam-Datum geführt. Die aus astronomischen Beobachtungen gewonnenen Ko-
ordinaten von Rauenberg wurden als ellipsoidische Koordinaten eingeführt. Die
Orientierung im Netz erfolgte durch den Azimut Rauenberg – Berlin/Marienkirche.
Tabelle 4.5: Ausgewählte Datumsangaben: Lage der Ellipsoide in Bezug zum WGS84 (z.B.
G x = [(X in WGS84) – (X des angegebenen Datums)], in m, nach Dana 2019)
Datum Ellipsoid Gx Gy Gz
Die geodätischen Netze der ehemaligen DDR und sämtlicher ehemaliger Ostblock-
länder basierten auf dem Krassowski-Ellipsoid (1940) und den geographischen Ko-
ordinaten des Observatoriums Pulkowo bei St. Petersburg (Pulkowo-St. Peters-
burg-Datum), das 1942 berechnet wurde (System 1942). Im Jahre 1957 wurde das
Einheitliche Astronomisch-Geodätische Netz (EAGN) der osteuropäischen Staaten
bestimmt, das als Grundlage für das Staatliche Trigonometrische Netz (STN) der
ehemaligen DDR diente (System 42/57 bzw. nach Neuausgleich System 42/83). Im
Freistaat Sachsen findet das RD/83-System Anwendung, wobei das RD/83 durch
das Ergebnis einer Transformation vom S42/83 in das Rauenberg-Datum definiert
ist (vgl. sachsen.de 2019). Der gleiche Sachverhalt trifft auf den Freistaat Thüringen
160 Geoobjekte und Bezugssysteme
4.4.4 Datumstransformationen
Abb. 4.19: Datumstransformation (Übergang von einem globalen zu einem lokalen Koordinaten-
system bzw. Ellipsoiden)
Für Positionsbestimmungen können die Erde bzw. Regionen der Erde durch ein El-
lipsoid bzw. durch verschiedene Ellipsoide angenähert werden (vgl. Kap. 4.4.1).
Bei Lagemessungen kann ein Rotationsellipsoid als Bezugsfläche genommen wer-
den mit dem Vorteil, auf einer mathematisch beherrschbaren Fläche rechnen zu
können. Demgegenüber sind derartige Vereinfachungen bei Höhenmessungen nicht
geeignet, bei denen die Schwerkraft wie z.B. beim Nivellement die Messergebnisse
beeinflusst. So sind die Vertikalachsen der Vermessungsinstrumente in Richtung
der Schwerkraft (d.h. lotrecht) ausgerichtet, die Libellen der Nivellierinstrumente
richten sich nach der Schwerkraft aus. Die Schwerkraft ist aber breitengrad- und
höhenabhängig und sogar lokal unterschiedlich. Somit eignet sich für eine Höhen-
bestimmung theoretisch eine solche Niveaufläche am besten, die in allen ihren
Punkten senkrecht von der jeweiligen Richtung der Schwerkraft geschnitten wird.
Diese Fläche wird als Geoid bezeichnet, das messtechnisch schwierig zu bestimmen
ist. Somit bestehen vor allem aus historischen Gründen unterschiedliche Höhensys-
teme, die in unterschiedlicher Weise das Schwerefeld der Erde operationalisieren.
Zu unterscheiden sind (vgl. Abb. 4.21, zu nivellementbasierten und zu geoidbasier-
ten Höhensystemen vgl. ausführlich Gerlach u.a. 2017 S. 362 ff.):
- die ellipsoidische Höhe HE,
- die orthometrische Höhe Ho,
- die Normalhöhe NN,
- die normalorthometrische Höhe HNO.
Die satellitengestützte Standortbestimmung ermittelt die Höhenlage eines Punk-
tes in Bezug zu einer mathematisch eindeutig beschreibbaren Bezugsfläche (z.B. in
Bezug zum WGS84 oder GRS80). Die ellipsoidische Höhe HE ist der metrische
Abstand von der Ellipsoidenoberfläche entlang der Flächennormalen zum Punkt P.
Bei dieser Höhenbestimmung bleiben die Schwerkraft sowie lokale Abweichungen
vom Normalschwerefeld der Erde aufgrund von Dichteanomalien der Erdkruste un-
berücksichtigt.
Die orthometrische Höhe HO, die die wissenschaftlich beste Definition einer Höhe
darstellt, ist definiert als die Länge der Lotlinie vom Geoid zur Erdoberfläche. Zur
Grundlagen geodätischer Bezugssysteme 165
Das Geoid ist (zumindest in der Deutschen Landesvermessung) fast nur von theo-
retischem Interesse, es genügt nicht den Anforderungen hochgenauer Höhenmes-
sungen bzw. kann nicht in jedem Punkt der Erde genau definiert werden. Stattdessen
wird mit einem Quasigeoid als Höhenbezugsfläche gearbeitet. Das Quasigeoid ist
eine rechentechnische Größe, die dem geglätteten Geoid entspricht. Die Normal-
höhe (NHN), definiert als Höhe über dem Quasigeoid, kennzeichnet somit den Ab-
stand von einer eindeutig reproduzierbaren Bezugsfläche. Die Quasigeoidundula-
tion, d.h. der Abstand vom Quasigeoid zum Ellipsoiden, ist berechenbar, um Bezie-
hungen zu ellipsoidischen Höhen herstellen zu können. Normalhöhen eignen sich
somit auch im Zusammenhang mit GPS-Höhen.
Normalhöhen wurden bereits in der ehemaligen DDR mit einem Quasigeoid als
Bezugsfläche berechnet (Bezeichnung Höhe über Höhennull HN). Die Höhen be-
ziehen sich auf den Kronstädter Pegel bei St. Petersburg als Nullpunkt. Das Höhen-
system wurde bis 1976 vollständig erneuert, das bis 1990 als amtliches Höhennetz
der DDR (System HN 76) verwendet wurde.
In Deutschland wurde 1875 der Nullpunkt in Höhe des Amsterdamer Pegels fest-
gelegt und durch einen sog. Normal-Höhenpunkt an der Königlichen Sternwarte in
Berlin realisiert. Die Niveaufläche, die 37 m unter diesem Normal-Höhenpunkt ver-
läuft, wurde als Bezugsfläche für sämtliche Höhenmessungen in Deutschland defi-
niert (Höhe über NN). Dieser Bezugspunkt wurde 1912 nach Abriss der alten Stern-
warte nach Berlin-Hoppegarten verlegt. Das gesamte Nivellementsnetz wurde unter
Berücksichtigung von Normalschwerewerten neu berechnet. Diese sog. nor-
malorthometrischen Höhen (Höhe über NN) sind Näherungswerte für orthometri-
166 Geoobjekte und Bezugssysteme
sche Höhen. Sie sind das Ergebnis des geometrischen Nivellements und der nor-
malorthometrischen Reduktion entlang der Nivellementlinie von einem bekannten
Höhenpunkt. Diese Höhen sind somit wegeabhängig. Für diese normalorthometri-
schen Höhen war in den alten Bundesländern nach 1945 die Bezeichnung Deutsches
Haupthöhennetz bzw. DHHN12 üblich.
Tabelle 4.8: In Lagekoordinaten für Punkte in Osnabrück und Clausthal in verschiedenen Bezugs-
systemen (Datenabfrage: Landesamt für Geoinformation und Landesvermessung Niedersachsen,
Landesvermessung und Geobasisinformation, Update 15.08.2019)
Höhen
Gauß-Krüger-Koordinaten HS 160
Osnabrück 3 435 038,438 5 791 675,323 LS 100 105,754
Clausthal 3 592 935,536 5 741 403,369 LS 100 605,282
Geographische Koordinaten
Osnabrück 52° 15’ 17,08907’’ 8° 2’ 51,46011’’ LS 889
Clausthal 51° 47’ 56,58302’’ 10° 20’ 46,14807’’ LS 889
UTM-Koordinaten DHHN2016 H. ü. ETRS89
Osnabrück 32 434 991,651 5 789 799,754 LS 489 105,763 149,656
Clausthal 32 592 825,304 5 739 545,459 LS 489 605,289 650,519
x, y, z 3D-Koordinaten
Osnabrück 3 874 144,805 547 759,966 5 020 323,303 LS 389
Clausthal 3 888 685,134 709 930,154 4 989 518,309 LS 389
Lagestatus 100: Gauß-Krüger-Koordinaten, Potsdam-Datum (Bessel-Ellipsoid)
Lagestatus 389: 3D-Koordinaten, ETRS89 (GRS80-Ellipsoid)
Lagestatus 489: verebnete UTM-Koordinaten, ETRS89 (GRS80-Ellipsoid)
Lagestatus 889: Geograph. Koordinaten im ETRS89
Höhenstatus 160: Normalhöhe (Höhe im System DHHN12), Höhe über NN
DHHN2016: Normalhöhe (Höhe im System DHHN2016), Höhe über NhN, auch Höhenstatus
170 in anderen Bundesländern
Die Höhen im Höhenstatus 160 leiten sich aus einem Nivellement und einer Höhenübertragung ab.
Die Höhenangaben im DHHN2016 stammen aus einer Transformation der Höhen im Höhenstatus
160 mit dem bundesweit einheitlichen Modell HOETRA2016.
Geodätische Abbildungen 169
Das in Deutschland für die Landesvermessung und für Katasterkarten sowie für To-
pographische Karten grundlegende Gauß-Krüger-System entspricht einer transver-
salen, konformen Zylinderprojektion mit einem längentreu abgebildeten Meridian
(Mercatorprojektion). Das Konstruktionsprinzip kann durch einen quer liegenden
(d.h. transversalen) Abbildungszylinder verdeutlicht werden, der horizontal um die
Erdkugel gedreht wird und der sie in mehreren Längenkreisen im Abstand von drei
Längengraden berührt:
Somit wird das Gebiet durch mehrere Meridianstreifen mit den längentreu abgebil-
deten Haupt- oder Mittelmeridianen 6°, 9°, 12° und 15° östlicher Länge überdeckt.
Auf jedem dieser Meridianstreifen – also lokal – entsteht ein rechtwinkliges Koor-
dinatensystem mit dem Mittelmeridian als vertikaler Achse. Gegenüber dieser an-
schaulichen Darstellung liegt der Gauß-Krüger-Abbildung eine komplexe Berech-
nungsvorschrift von Rechts- und Hochwerten zugrunde (zu Formeln vgl.
Bugayevski u. Snyder 1995 S. 159 ff. und Snyder 1987 S. 60 ff.). Diese Formulie-
rung ist in der praktischen Anwendung durchaus, aber mathematisch streng genom-
men nicht winkeltreu, da die Berechnung nur eine endliche Reihenentwicklung be-
nutzen kann. Die mathematische Formulierung der konformen Abbildung geht auf
C. F. Gauß zurück, der sie für die von ihm geleitete hannoversche Landesvermes-
sung (1822–1847) entwickelt hat. Sie wurde von Schreiber (1866) und vor allem
von Krüger (1912/1919) weiterentwickelt.
Mit wachsendem Abstand zum Mittelmeridian treten (erwartungsgemäß) Ver-
zerrungen zwischen der Lage auf der Kugeloberfläche und dem Bild auf dem Ab-
bildungszylinder auf. Um diese Verzerrungen zu verringern, wird ein Meridianstrei-
fen nach Beschluss der Arbeitsgemeinschaft der Vermessungsverwaltungen vom
Jahre 1966 nach beiden Seiten des Mittelmeridians auf eine Ausdehnung von 1° 40’
in Längengraden (d.h. rund 100 km) beschränkt (vgl. Kahmen 2006 S. 238). Dem-
entsprechend überlappen sich benachbarte Systeme in einem 20 Längenminuten
breiten Streifen (im Mittel rund 23 km breit), in dem Punkte nach Bedarf in beiden
Systemen berechnet werden. Hierdurch wird die Längenverzerrung so gering ge-
halten, dass sie in vielen praktischen Fällen vernachlässigt werden kann (maximal
12 cm auf 1 km, vgl. Kahmen 2006 S. 239).
Die Verwendung von Gauß-Krüger-Koordinaten soll am Beispiel der Lage des
Rathausturms Berlin-Mitte aufgezeigt werden, der die geographischen Koordinaten
13° 24’ 36,01’’ östlicher Länge und 52° 31’ 11,65’’ nördlicher Breite besitzt. Somit
befindet sich der Turm im Überlappungsbereich des vierten und fünften Meridian-
streifens. Seine Gauß-Krüger-Koordinaten sind (nach Hake u. Heissler 1970 S.
136):
im System des 12. Längengrades im System des 15. Längengrades
Rechtswert: 4 595 696,00 m 5 392 088,39 m
Hochwert: 5 821 529,20 m 5 821 783,04 m
Das rechtwinklige Koordinatensystem mit dem Mittelmeridian als vertikaler
Achse definiert das Gitter aus Rechts- und Hochwerten. Um negative Rechtswerte
zu umgehen, wird jedem Hauptmeridian der Wert 500000 (Meter) zugewiesen. Fer-
ner wird jedem Rechtswert noch die Kennziffer des Meridianstreifens vorangestellt,
d.h. die durch 3 geteilte Längengradzahl des Hauptmeridians. Im vorliegenden Bei-
spiel kennzeichnet die erste Zahl des Rechtswerts den zugehörigen Hauptmeridian
(hier 4. Hauptmeridian, 12°). Unter Berücksichtigung des Zuschlags von 500.000 m
für den Hauptmeridian liegt der Ordinatenfußpunkt genau 95.696,00 m östlich des
Hauptmeridians von 12°. Er ist in diesem System 5.821.529,20 m vom Äquator ent-
fernt. Im 5. Meridianstreifen befindet sich der Turm 107.911,61 m westlich des
Hauptmeridians von 15°. In diesem System ist der Ordinatenfußpunkt
5.821.783,04 m vom Äquator entfernt.
Geodätische Abbildungen 171
An diesem Beispiel werden die Probleme der nicht eindeutig lösbaren Aufgabe
deutlich, eine Kugeloberfläche in eine Ebene abzubilden. Da kartesische Koordina-
tensysteme, die vielen Anwendungen in der Geoinformatik und in Geoinformati-
onssystemen zugrunde liegen, nur lokal aufgebaut werden können, sind Koordina-
tensprünge bei der Ausweisung einer Lage eines Geoobjektes in zwei benachbarten
Meridianstreifen unvermeidbar. Obschon die Abweichung der Hochwerte auf den
ersten Blick groß erscheint, liegt sie deutlich unter dem vorgegebenen Maximalwert
von 12,3 cm auf 1 km.
Zur Vermeidung von negativen Rechtswerten und um sich die Angabe des Bezugs-
meridians zu ersparen, werden in Abhängigkeit vom Bezugsmeridian runde Werte
zu den Koordinaten des Gauß-Krüger-Systems addiert (Rechtswert in Zone M28:
172 Geoobjekte und Bezugssysteme
Die Berner Sternwarte ist somit der Nullpunkt des Systems. Um negative Koordi-
naten zu vermeiden, erhält der Nullpunkt Zuschläge von y = 600 km und
x = 200 km. Der erste Wert einer Koordinate ist der Rechtswert, der den Ost-West-
Abstand der Position vom Bezugsmeridian angibt. Der zweite Wert einer Koordi-
Geodätische Abbildungen 173
nate ist der Hochwert, der den Abstand der Position vom Berührgroßkreis be-
schreibt. Die Koordinate (Rechtswert 690.00, Hochwert 250.000) kennzeichnet ei-
nen Ort in der Stadt Dübendorf östlich von Zürich (etwa 47° 24’ nördl. Breite, 8°
38’ östl. Länge von Greenwich). Er liegt somit 90 km östlich und 50 km nördlich
des Bezugspunktes in Bern (Schweizer Datum 1903, CH 1903).
Im Rahmen der neuen Landesvermessung LV95 wurden ein neues, global gela-
gertes (CHTRS95) und ein erneuertes, lokal gelagertes (CH1903+) System definiert
(vgl. Swisstopo 2016). Das Bezugssystem CH1903+ verwendet den gleichen Ellip-
soiden wie CH1903 (Bessel1841). Das Kartenprojektionssystem (Swiss Grid) ist
identisch zu CH1903. Als Ausgangspunkt für die Höhen dient der neue Fundamen-
talpunkt der Geostation Zimmerwald, dessen orthometrischer Wert H0 = 897.9063
so gewählt wurde, dass die Höhe des Repère Pierre du Niton genähert die orthomet-
rische Höhe 373,6 m erhält. Dabei wird das Bezugssystem CH1903+ direkt aus dem
Bezugssystem CHTRS95 abgeleitet, das global gelagert und zum Zeitpunkt 1993
exakt mit ETRS89 identisch ist. Für die Transformation CHTRS95/ETRS89 >
CH1903 gilt:
X(CHTRS95/ETRS89) = X(CH1903) + 674,374 m
Y(CHTRS95/ETRS89) = Y(CH1903) + 15,056 m
Z(CHTRS95/ETRS89) = Z(CH1903) + 405,346 m
Für die neue Landesvermessung LV95 werden die Werte (2.600.000, 1.200.000)
für die Koordinaten des Projektionszentrums verwendet. Das CH1903 ist das klas-
sische, aus der Triangulation abgeleitete Referenzsystem. Sein Referenzrahmen
LV03 war bis Ende 2016 der offizielle Rahmen für die amtliche Vermessung. Die
Daten der amtlichen Vermessung müssen seitdem nach CH1903+/LV95 überführt
worden sein. Die Umstellung auf die UTM-Projektion ist derzeit in der Schweiz
nicht geplant (vgl. Swisstopo 2019).
nicht längentreu, sondern mit dem Faktor 0,9996 abgebildet wird. Hierdurch ist die
Abbildung erst bei etwa 180 km beiderseits des Mittelmeridians längentreu. Am
Grenzmeridian ist bei 50° Breite von einer Längenverzerrung von etwa 15 cm auf
1 km auszugehen (vgl. Hake u.a. 2002 S. 77). Insgesamt führen die guten Abbildungs-
eigenschaften zu einer (welt-)weiten Anwendung für Karten in einem mittleren Maß-
stab.
Dem UTM-System liegt ein universelles Meldesystem zugrunde (UTM Refe-
rence System, UTMREF), das sich für militärische Zwecke auszeichnete. So wer-
den die Zonen beginnend mit dem 180. Meridian bezüglich Greenwich ostwärts von
1 bis 60 durchnummeriert. Die 1. Zone erstreckt sich somit zwischen 180° und 174°
westlicher Länge und besitzt den Mittelmeridian 177° westlicher Länge. Die Zonen
erstrecken sich jeweils von 80° südlicher bis 84° nördlicher Breite. Sie werden in
Bänder von 8° Breite unterteilt, die beginnend mit C (bei 80° südlicher Breite) al-
phabetisch mit Großbuchstaben gekennzeichnet werden. Im Zonenfeld 32U (zwi-
schen 6° und 12° östlicher Länge, Mittelmeridian 9° östlicher Länge) liegt ein gro-
ßer Teil der Bundesrepublik Deutschland (vgl. Abb. 4.25). Die Zonenfelder werden
ausgehend vom Mittelmeridian weiter in ein Quadratraster mit Maschenweite
100 km zerlegt, wobei die Quadrate durch Doppelbuchstaben gekennzeichnet wer-
den. Innerhalb eines Quadrates können dann Punkte durch Koordinaten festgelegt
werden. So liegt z.B. die Kirche von List (Nordostzipfel von Sylt) im UTM-Gitterfeld
32UMF6397, also innerhalb des Zonenfeldes 32U, innerhalb des 100-km-Quadrates
MF und dann innerhalb des 1-km-Quadrates mit der Südwestecke 63 (rechts) und 97
(hoch).
Ähnlich zur Gauß-Krüger-Notation beginnt die Zählung der x-Koordinaten am
Äquator (angegeben mit N, North bzw. Nord), die der y-Koordinaten jeweils am
Mittelmeridian (angegeben mit E, East bzw. Ost). Die Koordinaten werden in Me-
tern angegeben. Um negative Koordinaten zu vermeiden, werden zu dem jeweiligen
Koordinatenursprung Zuschläge addiert. Die Mittelmeridiane erhalten jeweils den
Wert 500.000 (in Metern). In der amerikanischen Notation vieler Geoinformations-
systeme wird dieser Wert „false easting“ genannt. Für die Südhalbkugel wird zu
den negativen x-Werten die Zahl 10.000.000 addiert (in Metern). In der amerikani-
schen Notation vieler Geoinformationssysteme wird dieser Wert „false northing“
genannt. Den Ostwerten wird zu Beginn manchmal die zweistellige Bezeichnung
des Meridianstreifens vorangestellt (für die westliche Hälfte Deutschlands 32, für
die östliche Hälfte 33).
Die Koordinate (Ostwert 434.777, Nordwert 5.791.572) kennzeichnet einen
Punkt im Schlossgarten der Stadt Osnabrück. Er liegt somit ca. 65 km westlich des
Hauptmeridians von 9° und ca. 5.792 km nördlich des Äquators (im Bezugssystem
WGS84 bzw. GRS80, vgl. Tab. 4.4). Der identische Punkt hat im Bezugssystem ED
50 (Europäisches Datum 1950, Internationaler Ellipsoid nach Hayford) die UTM-
Koordinaten (Ostwert 434.859, Nordwert 5.791.776). Dies zeigt, dass sich UTM-
Koordinaten auf verschiedene geodätische Datumsangaben beziehen können und
dass somit generell zu einer Koordinate das zugehörige geodätische Datum ange-
geben werden muss.
Insgesamt ist festzuhalten, dass die weltweite Einführung des UTM-Systems
(mit dem WGS 84) zu einer Vereinheitlichung und zu einer starken Vereinfachung
Geodätische Abbildungen 175
ܱݐݎ݁ݓݐݏ = ܽଵ ή ݈ଵ + ܽଷ ή ݈ ଷ + ܽହ ή ݈ ହ + ܽ ή ݈ + ڮ
)߮(ܤ = ݐݎ݁ݓ݄ܿܪ+ ܽଶ ή ݈ ଶ + ܽସ ή ݈ ସ + ܽ ή ݈ + ଼ܽ ή ݈ ଼ + ڮ
mit:
ܽଵ = ܰ ή cos ߮
௧
ܽଶ = ή ܰ ή ܿ ݏଶ ߮
ଶ
ଵ
ܽଷ = ή ܰ ή ܿ ݏଷ ߮ ή (1 െ ݐଶ + ߟଶ )
௧
ܽସ = ή ܰ ή ܿ ݏସ ߮ ή (5 െ ݐଶ + 9 ή ߟଶ + 4 ή ߟସ )
ଶସ
ଵ
ܽହ = ଵଶ
ή ܰ ή ܿ ݏହ ߮ ή (5 െ 18 ή ݐଶ + ݐସ + 14 ή ߟଶ െ 58 ή ݐଶ ή ߟଶ )
௧
ܽ = ή ܰ ή ܿ ߮ ݏή (61 െ 58 ή ݐଶ + ݐସ + 270 ή ߟଶ െ 330 ή ݐଶ ή ߟଶ )
ଶ
ଵ
ܽ = ହସ
ή ܰ ή ܿ ߮ ݏή (61 െ 479 ή ݐଶ + 179 ή ݐସ െ ) ݐ
௧
଼ܽ = ସଷଶ
ή ܰ ή ܿ ߮ ଼ ݏή (1385 െ 3111 ή ݐଶ + 543 ή ݐସ െ ) ݐ
= )߮(ܤ Meridianbogenlänge
ܽ bzw. b große bzw. kleine Halbachse des Bezugsellipsoiden
మ
ܰ = Querkrümmungshalbmesser
ήඥଵା ఎమ
ଶ ଶ ଶ
ߟ = ݁Ԣ ή ܿ߮ ݏ Hilfsgröße
మ ି మ
݁Ԣଶ = ݁Ԣ zweite numerische Exzentrizität
మ
ݐ = ߮ ݊ܽݐ Hilfsgröße
݈ = (ߣ െ ߣ ) Abstand vom Zentralmeridian
ߣ Länge des Zentralmeridians (z.B. 9°, 15° östl. Länge)
Die Meridianbogenlänge, d.h. die Distanz vom Äquator zum Punkt w auf dem El-
lipsoiden (elliptische Distanz), berechnet sich durch:
ఝ ିଷ
ܽ = )߮(ܤή (1 െ ݁ ଶ ) ή න (1 െ ݁ ଶ ή ݊݅ݏଶ )ݐଶ ݀ݐ
mit:
మ ି మ
݁ଶ = ݁ erste numerische Exzentrizität
మ
Dieses elliptische Integral ist nicht direkt, d.h. analytisch lösbar. Eine Entwicklung
des Integranden als Taylorreihe und gliedweise Integration liefert (vgl. Hofmann-
Wellenhof 2008 S. 287):
= )߮(ܤȽ ή (ɔ + Ⱦ ή sin(2߮) + ߛ ή sin( 4߮) + ߜ ή sin(6߮) + ߝ ή sin(8߮)) mit:
ା మ ర
ߙ= ଶ
ή (1 +
ସ
+
ସ
)
ଷ ଽ ή య ଷ ή ఱ
ߚ =െ ή݊+ െ )
ଶ ଵ ଷଶ
ଵହ ଵହ ή ర
ߛ= ή ݊ଶ െ )
ଵ ଷଶ
ଷହ ଵହ ή ఱ
ߜ =െ ή ݊ଷ +
ସ଼ ଶହ
ଷଵହ
ߝ=
ହଵଶ
ή ݊ସ
(ି)
݊=
(ା)
Diese Formeln gehen bereits auf Helmert zurück (vgl. Helmert 1880 S. 46 ff.). An-
dere Autoren implementieren in ihren Formeln die numerische Exzentrizität e (vgl.
BEV-Bundesamt für Eich- und Vermessungswesen 2019).
Geodätische Abbildungen 177
Falls die Parameter des Bessel-Ellipsoiden zugrunde gelegt werden, ergeben sich
mit (x,y) Hoch- und Rechtswert im Gauß-Krüger-System. Bei der UTM-Abbildung
wird der Bezugsmeridian nicht längentreu abgebildet, sondern mit dem Faktor
0,996 multipliziert (vgl. Kap. 4.5.5). Somit ergeben sich die (vorläufigen) UTM-
Koordinaten zu:
ܰ݀ݎ = 0,996 ή ݕ
ܱ ݐݏ# = 0,996 ή ݔ
4.5.7 EPSG-Codes
Eine häufige Praxisaufgabe besteht darin, eine Vorlage wie z.B. ein analoges Luft-
bild oder eine Papierkarte in einem Geoinformationssystem darzustellen. Dazu
muss die Vorlage zunächst digitalisiert und dann georeferenziert werden. Das ältere
Vorgehen sah die Georeferenzierung einer analogen Karte mit Hilfe eines Digitali-
siertableaus und den Funktionen eines Geoinformationssystems vor. Demgegen-
über werden fast nur noch digitale Vorlagen, d.h. digitale Luft- oder Satellitenbilder
oder Scans verwandt, die mit den Funktionen eines Geoinformationssystems direkt
am Monitor georeferenziert werden.
Aus Gründen der hohen Anschaulichkeit wird in diesem Beispiel ein Ausschnitt
einer Topographischen Karte 1.25.000 Blatt 3548 Rüdersdorf bei Berlin genom-
men. Zum einen sind in der Vorlage eindeutige Passpunkte vorhanden, zu denen
exakte Koordinaten der Landesvermessung vorliegen. Zum anderen sind mehrere
Koordinatensysteme zu erkennen, so dass sich dieser Kartenausschnitt auch gut eig-
net, verschiedene Koordinatensysteme und die Datumstransformation zu veran-
schaulichen (vgl. Kap. 4.6.2 u. 4.6.3).
Nach dem Scannen wird das TIF-Bild in den graphischen Editor eines Geoinfor-
mationssystems geladen. Zur Georeferenzierung werden die Bildpunkte der Passer
mit dem Auswahlwerkzeug des Geoinformationssystems (d.h. in der Regel mit der
Maus) „angeklickt“, dann werden ihnen Koordinaten zugewiesen. Tabelle 4.10 do-
kumentiert den Prozess der Georeferenzierung (stark gerundete Werte):
Die zweite und dritte Spalte enthalten die Pixelkoordinaten für die acht Passer
der Vorlage. Im Vergleich mit Abbildung 4.26 ist zu erkennen, dass der Ursprung
der Y-Koordinaten in der linken oberen Ecke des graphischen Editors (d.h. des Mo-
nitors) liegen muss und dass die Orientierung der Y-Achse nach unten weist.
Anwendungsbeispiel: Georeferenzierung in einem Geoinformationssystem 179
Die Spalten vier und fünf weisen die zugehörigen UTM-Koordinaten der Zone 33
auf. Zugrunde gelegt wird somit das blau eingedruckte Gitter (zum UTM-System
vgl. Kap. 4.5.5). Da eine flache Vorlage eingescannt wurde, von der zudem ange-
nommen werden kann, dass sie nicht verzerrt ist, wird eine affine Koordinatentrans-
formation eingesetzt. Die Vorlage hat leicht schief auf dem Scanner gelegen, sie
muss somit in Nord-Süd-Richtung gedreht werden. Sie muss aus dem Pixelkoordi-
natensystem in sog. Real-World-Koordinaten verschoben werden. Außerdem müs-
sen die Pixelwerte auf Meterangaben skaliert werden (vgl. Definition einer affinen
Koordinatentransformation in Kap. 4.2.5.2). Mit den acht Passern ist die Bestim-
mung der Transformationsgleichung überbestimmt. Bevor aber die Koeffizienten
A0 und B0 der Koeffizienten ai und bi der Transformationspolynome durch Aus-
gleichsrechnung bestimmt werden können, müssen die Y-Werte in ein Koordina-
tensystem mit mathematisch üblicher Orientierung umgerechnet werden (hier yi =
5000 – y).
Die ursprünglichen wie auch die umgerechneten Passerkoordinaten lassen erken-
nen, dass die regelmäßigen Gitterpunkte nicht korrekt erfasst werden konnten. Wäh-
rend die Zielkoordinaten das regelmäßige Koordinatensystem wiedergeben, sind
die Passerkoordinaten im Pixelkoordinatensystem (xi,yi), d.h. Spalten zwei und drei
in Tabelle 4.10, ungenau bestimmt worden. Dies liegt in der Regel daran, dass der
Anwender nicht in der Lage war, die Passer eindeutig zu identifizieren, da sie meh-
rere Pixel groß sein können. Somit folgt beinahe zwangsläufig, dass die in das
UTM-System transformierten Passer (ui,vi), d.h. Spalten sechs und sieben in Tabelle
4.10, ebenfalls von den Zielkoordinaten (x‘i,y‘i), d.h. Spalten vier und fünf in Ta-
belle 4.10, abweichen. Die letzte Spalte enthält diese Abweichungen, d.h. genauer
die quadrierten Abweichungsdistanzen, d.h. di2 (x’i – ui)2 + (y’i-vi)2. Für die erste
Zeile der Tabelle 4.10 errechnet sich diese Teilsumme durch:
QDIFF1 = (410000-409999,724)2 + (5807000-5806999,287)2 = 0,585
Die Werte di werden in Abbildung 4.11 durch die kleinen Pfeile veranschaulicht.
Der RMS-Fehler ergibt sich dadurch, dass die Werte der letzten Spalte aufsummiert
werden, der Wert durch die Anzahl der Passer geteilt und schließlich die Wurzel
gezogen wird. Da das Zielsystem in Meter vorliegt, ist der RMS-Fehler ebenfalls in
Metern angegeben. Somit ergibt sich eine gute Veranschaulichung dieses Genauig-
keitsmaßes.
Für die letzte Spalte der Tabelle 4.3 errechnet sich der RMS-Fehler durch:
ଵ
RMS = ට ή σ଼ୀଵ ܳܨܨܫܦ = 1,113
଼
In der Praxis ist das Bestimmen der Passer ein iterativer Prozess. Da der fünfte Pas-
ser den größten Beitrag zum RMS-Fehler liefert, sollte er gelöscht und neu gesetzt
werden. Zu berücksichtigen ist allerdings, dass nicht nur ein kleiner RMS-Fehler
anzustreben ist. Vielmehr muss darauf geachtet werden, dass das gesamte Untersu-
chungsgebiet durch die Verteilung der Passer optimal abgedeckt wird.
Im vorliegenden Beispiel, das den typischen Anwendungsfall beschreibt, wird
davon ausgegangen, dass in der Vorlage Passer eindeutig zu erkennen sind. Dem-
Anwendungsbeispiel: Georeferenzierung in einem Geoinformationssystem 181
gegenüber ist die Georeferenzierung einer Vorlage ohne Passer wie z.B. die Geore-
ferenzierung eines Luftbildes aufwendiger und voraussichtlich ungenauer. So müs-
sen vorab geodätischen Koordinaten von markanten Punkten wie z.B. von Gebäu-
deecken bestimmt werden.
ist darauf zu achten, wie die geographischen Koordinaten eingeben werden. Bedeu-
tet die Angabe 3,50 eine geographische Koordinate von 3° 50‘ oder von 3° 30‘, d.h.
die Hälfte eines Grads?
Anhand der Abbildung 4.26 kann auch der Einsatz einer Datumstransformation auf-
gezeigt werden. Einerseits sind zwei Gitter eingezeichnet, die UTM-Koordinaten-
systeme darstellen, die auf dem WGS84- bzw. ETRS89-Ellipsoiden basieren. Das
rote Gitter kennzeichnet UTM-Koordinaten in Zone 32, das blaue Gitter UTM-
Koordinaten in Zone 33. Daneben sind schwach schwarze Passerkreuze zu erken-
nen, die mit entsprechenden schwarzen Koordinatenangaben am Kartenrand kor-
respondieren. Dies ist das Gitter, das das Gauß-Krüger-Koordinatensystem kenn-
zeichnet, das auf dem Bessel-Ellipsoiden beruht. Um die Gauß-Krüger-Koordinaten
(5.410.000, 5.810.000) in eine UTM-Koordinaten zu transformieren, ist ein Da-
tumswechsel notwendig. Hingegen entfällt eine Datumstransformation bei der Um-
rechnung einer UTM-Koordinate aus Zone 32 zur Zone 33, da jeweils das gleiche
Bezugsellipsoid zugrunde gelegt ist.
Literatur
http://sgs.geodatenzentrum.de/coordtrans/ (11.11.2019)
BKG, Bundesamt für Kartographie und Geodäsie (2019d): Quasigeoid GCG2016. Die Höhenrefe-
renzfläche der Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder (AdV).
https://www.bkg.bund.de/DE/Produkte-und-Services/Shop-und-Downloads/Digitale-
Geodaten/Quasigeoid/quasigeoid.html (11.11.2019)
Bock, H.H. (1974): Automatische Klassifikation. Göttingen: Vandenhoeck u. Rupprecht.
Bortz, J. u. C. Schuster (2010): Statistik für Human- und Sozialwissenschaftler. Lehrbuch mit On-
line-Materialien. Berlin: Springer. 7. Aufl.
Bugayevskiy, L.M. u. J.P. Snyder (1995): Map Projections. A Reference Manual. London: Taylor
u. Francis.
Dana, P.H. (2019a): Geodetic Datum Overview.
https://foote.geography.uconn.edu/gcraft/notes/datum/datum_f.html (11.11.2019)
Dana, P.H. (2019b): Reference Ellipsoids and Geodetic Datum Transformation Parameters (Local
to WGS-84). https://foote.geography.uconn.edu/gcraft/notes/datum/edlist.html (11.1.2019)
Dana, P.H. (2019c): GPS. https://foote.geography.uconn.edu/gcraft/notes/gps/gps.html (11.11.2019)
Dana, P.H. (2019d): Map Projection Overview.
https://foote.geography.uconn.edu/gcraft/notes/mapproj/mapproj.html (11.11.2019)
de Lange, N. u. J. Nipper (2018): Quantitatice Methodik in der Geographie. Grundriss Allgemeine
Geographie. Paderborn: Schöningh.
Döller, H., Höggerl, N. u. E. Imrek (1996): GPS-Grundnetz von Österreich. In: Dollinger, F. u. J.
Strobl (1996): Angewandte Geographische Informationsverarbeitung VIII = Salzburger Geogra-
phische Materialien 24. Salzburg: Selbstverlag Inst. Geographie.
Freund, R.W. u. R.H.W. Hoppe (2007): Stoer/Bulirsch: Numerische Mathematik 1. Berlin: Sprin-
ger. 10. Aufl.
GEObasis.nrw (2019): ETRS89/UTM. Das amtliche Lagebezugssystem in Nordrhein-Westfalen.
https://www.bezreg-koeln.nrw.de/brk_internet/publikationen/abteilung07/pub_geoba-
sis_etrs89.pdf (11.11.2019)
GEObasis.nrw (2016): Normalhöhen und Höhenbezugsflächen in Nordrhein-Westfalen. Bonn:
Bez.Reg. Köln. https://www.bezreg-koeln.nrw.de/brk_internet/publikationen/abtei-
lung07/pub_geobasis_normalhoehen.pdf (11.11.2019)
Gerlach, C. u.a. (2017): Höhensysteme der nächsten Generation. In: Rummel, R. (2017, Hrsg.).
Erdmessung und Satellitengeodäsie. Handbuch der Geodäsie. S. 349-400. Berlin/Heidelberg:
Springer Spektrum
Grafarend, E.W. u. F.W. Krumm (2006): Map projections: cartographic information systems. Hei-
delberg: Springer.
Hake, G. u. V. Heissler (1970): Kartographie I. Kartenaufnahme, Netzentwürfe, Gestaltungsmerk-
male, Topographische Karte. Berlin: Walter de Gruyter, Sammlung Göschen Bd. 30/30a/30b.
Hake, G. u.a. (2002): Kartographie. Visualisierung raum-zeitlicher Informationen. Berlin: de Gruy-
ter, 8. Aufl.
Helmert, F.R. (1880): Die mathematischen und physikalischen Theorien der höheren Geodäsie. Ein-
leitung und 1 Teil. Leipzig: Teubner, S. 46–48. https://archive.org/stream/diemathema-
tisch01helmgoog#page/n67/mode/2up (11.11.2019)
Hofmann-Wellenhof, B., Lichtenegger, H., Wasle, E. (2008): GNSS – Global Navigation Satellite
Systems. GPS, GLONASS, Galileo and more. Springer: Wien.
IOGP, International Association of Oil & Gas Producers (2019): EPSG home.
http://www.epsg.org/EPSGhome.aspx (11.11.2019)
Kahmen, H. (1997): Vermessungskunde. Berlin: de Gruyter. 19. Aufl.
Kahmen, H. (2006): Angewandte Geodäsie. Vermessungskunde. Berlin: de Gruyter. 20. Aufl.
Krüger, L. (1912): Konforme Abbildung des Erdellipsoids in der Ebene. Veröffentl. Königl. Preuss.
Geodät. Inst. NF 52. Leipzig. Teubner
Kuntz, E. (1990): Kartenentwurfslehre. Grundlagen und Anwendungen. Heidelberg: Wichmann. 2.
Aufl.
184 Geoobjekte und Bezugssysteme
5.1 Grundbegriffe
aus Zeichnungen oder Karten mit Hilfe eines Digitalisiertabletts oder direkt am
Bildschirm (vgl. Kap. 5.2.1). Sie liefert zweidimensionale Gerätekoordinaten im
Vektorformat. Demgegenüber erzeugen Scanner z.B. aus analogen Strichzeichnungen
ausschließlich digitale Rasterdaten ohne Bezugssystem. In beiden Fällen wird eine
Georeferenzierung auf ein Koordinatensystem notwendig.
5.1.2 Diskretisierung
Von großer Bedeutung ist die mit der Analog-Digital-Wandlung verbundene Dis-
kretisierung, d.h. eine zeitliche und räumliche Diskretisierung. So werden zeitlich
kontinuierlich anfallende (Mess-)Daten wie Lufttemperatur, Niederschlag, Pegel-
stände oder Verkehrsströme nur in bestimmten Zeitintervallen erhoben oder auf
Zeiträume bezogen und als Einzelwerte gespeichert. Insbesondere ist die räumliche
Diskretisierung von Geoobjekten eine wesentliche Voraussetzung zur Erfassung
und Modellierung in Geoinformationssystemen:
- Punkthafte Geoobjekte sind bereits diskrete Daten.
- Linienhafte Geoobjekte wie z.B. ein Bach oder ein Weg werden in einzelne Teils-
trecken zerlegt, wobei nur deren Anfangs- und Endpunkt digital erhoben und der
Verlauf dazwischen als geradlinig angenommen werden. Dieses Prinzip ent-
spricht der Festlegung von Flurstücksgrenzen, bei der an jeder Ecke oder bei jeder
Richtungsänderung der Grenze ein Grenzstein gesetzt ist. Zuweilen werden An-
fangs- und Endpunkte erfasst und das Zwischenstück durch Angabe einer Funk-
tion modelliert und diskretisiert (z.B. als Bogenstück durch Festlegen eines Ra-
dius).
- Flächen werden durch Grenzlinien erfasst, die nach dem gerade beschriebenen
Prinzip modelliert werden.
- Bei Rasterdaten wird eine Linie (bzw. Fläche) durch einzelne bzw. benachbarte
Pixel diskretisiert.
Abb. 5.1: Modellierung von Oberflächen durch Diskretisierungen (Höxberg bei Beckum)
Die Erfassung von Punkten, die als Vektoren in einem Koordinatensystem zu ver-
stehen sind, mit Hilfe eines Digitalisiertabletts und einer Fadenkreuzlupe ist inzwi-
schen zwar veraltet (vgl. Abb. 2.7). Diese Technik eignet sich aber, um das Grund-
prinzip der Datenerfassung zu verdeutlichen. Mit der Lupe werden ausgewählte
Punkte einer Graphik, die auf dem Tablett aufliegt, nachgezeichnet. Nach Betätigen
einer Eingabetaste auf der Lupe werden zwei Leiterbahnen im Tablett aktiviert, die
der x- bzw. x-Koordinate entsprechen. Ausgewählt wird jeweils die Leiterbahn, die
der Lage des ausgewählten Punktes am nächsten liegt. Die Auflösung und die Er-
fassungsgenauigkeit werden durch die Abstände der Leiterbahnen bestimmt. Die
Digitale sekundäre Erfassung von Geometriedaten 189
Bauart des Tabletts ermöglicht dabei die genaue Lagebestimmung der Lupe auf dem
Tablett.
Beim Arbeiten mit einem Digitalisiertablett werden sämtliche Geometrien durch
einzelne Punkte erfasst, d.h. diskretisiert. Eine Linie wird durch eine Folge von Ko-
ordinaten angenähert. Dabei wird zunächst davon ausgegangen, dass zwischen den
Koordinaten eine geradlinige Verbindung besteht. Eine gekrümmte Linie wird
dadurch in eine Folge von geradlinigen Stücken zerlegt, wobei nur jeweils deren
End- bzw. Anfangspunkte erfasst werden (vgl. Abb. 5.3).
Die digitale Erfassung von Geometriedaten mit einem Digitalisiertablett hat den
Vorteil, dass auch großformatige analoge Karten und Zeichnungen verarbeitet wer-
den können (Einsatz von DIN-A-0-Tableaus). Dies war gerade in den 1990er Jahren
von großer Bedeutung, als umfangreiche analoge Kartenbestände zum Aufbau di-
gitaler Informationssysteme zu digitalisieren waren. Diese Phase der (Erst-)Erfas-
sung von Geometrien vor allem in der räumlichen Planung und Landesvermessung
(Erfassung von Altbeständen) ist abgeschlossen. Die Kartengrundlagen liegen als
georeferenzierte Rasterkarten vor (vgl. auch die Kartenwerke der Landesvermes-
sungen), so dass die Erfassung von digitalen Vektordaten direkt aus analogen Vor-
lagen mit einem Digitalisiertablett verschwunden ist. Demgegenüber ist die digitale
Datenaufnahme durch On-Screen-Digitalisierung zum Standard geworden. Hierun-
ter versteht man die digitale Datenaufnahme von Geometrien direkt am Bildschirm
(also „On Screen“, häufig missverständlich auch „Bildschirmdigitalisierung“ ge-
nannt). Bei dieser Technik dienen im Bildschirmhintergrund liegende Graphiken
(z.B. Grundrisspläne, Bilder) als Vorlage, aus der Geometrien am Bildschirm mit
der Computermaus nachgezeichnet werden. Zum einen können Rasterkarten be-
nutzt werden, d.h. z.B. digitale Luftbilder oder gescannte Karten und Zeichnungen,
um neue Geometrien zu erzeugen. Zum anderen können digitale Datenbestände
fortgeführt werden, vor allem Aktualisierung von Gebäudegrundrissen oder Ein-
zeichnen von Punktobjekten wie Einzelbäumen.
Abbildung 5.4 zeigt die On-Screen-Datenerfassung für das Grünflächenkataster
der Stadt Osnabrück. Dadurch wird ein klassischer Untersuchungsansatz darge-
stellt, der die digitalen Geobasisdaten (hier: Informationen der Automatisierten Lie-
genschaftskarte vgl. Kap. 5.5.2) mit den in Form analoger Luftbilder und Karten
190 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Zu beachten ist, dass bei der On-Screen-Digitalisierung stets die orthogonalen Bild-
schirmkoordinaten und nicht ein vielleicht bestehender Netzentwurf der Karten-
grundlage zugrunde gelegt werden. Falls in der Vorlage kein orthogonales Karten-
netz vorliegt, müssen die orthogonalen Gerätekoordinaten in den zugehörigen Kar-
tenentwurf projiziert werden. Generell muss direkt im Anschluss an eine Georefe-
renzierung dem digitalen Rasterbild (in Bildschirmkoordinaten) ein Koordinaten-
system in sog. Real-World-Koordinaten (z.B. UTM-Koordinaten) zugewiesen wer-
den (vgl. Kap. 4.6.2). Ein Geoinformationssystem bietet hierfür viele Werkzeuge.
Das Digitalisiersystem unterstützt ferner auf vielfältige Weise die Erfassung von
Geometriedaten und hilft, Fehler zu beseitigen oder sie gar nicht erst entstehen zu
lassen. Sehr häufige Probleme sind lückenhafte Erfassungen von linienhaften Da-
tenstrukturen, die dann auftreten, wenn z.B. der Endpunkt einer Linie nicht genau
mit dem Anfangspunkt einer anderen Linie übereinstimmt. Bei der Erfassung sollte
ein sog. Koordinatenfang gesetzt werden, so dass diejenige Koordinate nur angenä-
hert zu wählen ist, an die z.B. eine Linie angeschlossen werden soll. Der Anfang
der neuen Linie springt oder „schnappt“ auf eine vorhandene Koordinate.
Von Vorteil ist eine strenge Knoten-Kanten-Knoten-Erfassung, bei der Linien-
stücke bzw. Kanten digitalisiert werden, die immer an einem Knoten beginnen und
genau bis zum nächsten Knoten gehen. Hierbei wird niemals über eine Kreuzung
mit anderen Linien bzw. Kanten hinaus digitalisiert. Eine Linie endet immer an ei-
nem Knoten, wobei ein Knoten als Treffpunkt mindestens dreier Linien definiert
ist. Diese Digitalisiervariante ist sehr stringent, aber auch aufwendig. Demgegen-
über stellt die sog. Spaghettidigitalisierung keine spezifischen Anforderungen. Die
Linien werden beliebig erfasst, sie müssen nicht an Kreuzungen mit anderen Linien
enden und können sich überlagern. Hierdurch ergeben sich Vereinfachungen. Eine
derartige unsystematische Analog-Digital-Wandlung sollte aber immer vermieden
werden. Ein Geoinformationssystem stellt zwar Funktionen bereit, um eine Spa-
ghettidigitalisierung in eine Knoten-Kanten-Knoten-Digitalisierung zu überführen.
Jedoch können bei der Spaghettidigitalisierung eher Inkonsistenzen und Fehler wie
vor allem fehlende Punkte oder Linien auftreten. Dann entsteht ein vergrößerter
Aufwand, um diese Probleme zu beseitigen.
Die Knoten-Kanten-Knoten-Erfassung führt zu einer strengen geometrisch-topo-
logischen Modellierung von Geoobjekten im Vektormodell, die einigen Geoinfor-
mationssystemen zugrunde liegt (vgl. Kap. 9.3.2). Eine Fläche wird dadurch mo-
delliert, dass sie stückweise aus den sie konstituierenden Kanten zusammengesetzt
wird. Die in Abbildung 5.3 vorliegende Fläche F1 wird entsprechend durch die be-
grenzenden Linien L2, L3 und L4 definiert. Diese topologischen Informationen
werden zusätzlich zu den geometrischen Informationen im Datenmodell gespei-
192 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
chert. Die Modellierung einer Nachbarfläche erfolgt dadurch, dass lediglich die zu-
gehörige topologische Information gespeichert wird (F2 durch L3, L5, L6). Eine
Grenzlinie (hier L3) wird somit nur einmal erfasst (vgl. Kap. 9.3.2).
Gegenüber dieser strengen Modellierung von Flächen bestehen vereinfachte Da-
tenmodelle. Das genormte Simple-Feature-Geometry-Object-Model zur Beschrei-
bung zweidimensionaler Vektorgeometrien definiert eine Fläche als geschlossenes
Polygon (vgl. Kap. 6.3.2 u. Tab. 6.2). Ebenso wird im proprietären Shape-Daten-
format der Firma ESRI eine Fläche durch eine zusammenhängende Begrenzung ge-
bildet (vgl. Kap. 9.3.3). Zu beachten ist, dass dabei Grenzlinien benachbarter Flä-
chen doppelt erfasst werden müssen, was zu Inkonsistenzen und Fehlern führen
kann (vgl. Kap. 9.3.2 u. Abb. 9.4).
Hinsichtlich der Darstellung von Linien und Flächen durch Raster soll hier lediglich
die wichtige geometrische Konvertierung von Linien behandelt werden (zur
Konvertierung von Sachdaten vgl. Kap. 9.5.2). Hierbei werden die Zeilen- und
Spaltenindizes der Pixel bestimmt, die von einem Liniensegment geschnitten wer-
den. Da Anfangs- (xa,ya) und Endkoordinaten (xe,ye) des Segmentes sowie die Pi-
xelgröße bekannt sind, können die Zeilen- und Spaltenindizes des Anfangs- (ia,ja)
und Endpixels (ie,je) berechnet werden (vgl. Abb. 5.6). Für alle Zeilen i zwischen ia
und ie sind anschließend die Spaltenindizes js und jt zu bestimmen (Aufstellen der
Geradengleichung, Schnitt mit dem Raster), so dass die Pixel zwischen js und jt den
Wert 1 erhalten und „geschwärzt“ erscheinen. Gegenüber dieser vereinfachten Dar-
stellung ist zu beachten, dass die beiden Koordinatensysteme unterschiedlich orien-
tiert sind. Benutzt wird zumeist der sog. Bresenham-Algorithmus, der ein Standard-
verfahren der Computergraphik darstellt, einfach zu implementieren ist, mit der Ad-
dition von ganzen Zahlen als komplexeste Operation und somit ohne Multiplika-
tion, Division und Gleitkommazahlen auskommt (vgl. Foley u.a. 1996 S. 72 ff.).
Gegenüber der Vektor-Raster-Konvertierung spielt in der Geoinformatik die
Raster-Vektor-Konvertierung eine größere Rolle. Das Vorgehen besitzt ein größe-
res Automatisierungspotenzial. So liefert ein Scanner schnell eine Rastervorlage.
Ein geeigneter Algorithmus könnte hieraus Daten im Vektorformat erzeugen. In der
194 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Während die Randlinienextraktion bei der Vektorisierung von Flächen Vorteile be-
sitzt (vgl. Abb. 5.7), bietet sich die Methode der Mittellinienextraktion bei Strich-
darstellungen an (vgl. Abb. 5.8). Grundlage hierfür ist die sog. topologische Skelet-
tierung, bei der u.a. Linienanfänge, Linienelemente und Knoten zu bestimmen sind
(zum Verfahrensablauf vgl. Worboys u. Duckham 2004 S. 208 ff.). Nach einer Li-
nienverdünnung (z.B. mit dem gebräuchlichen Zhang-Suen-Algorithmus, vgl. Kap.
3.4.3) wird die Rasterstruktur in eine Menge von Pixelketten transformiert, die je-
weils ein Linienstück repräsentieren (sog. Kettenkodierung, Chain Coding, vgl.
Kap. 9.3.5). Anschließend wird jede Pixelkette in eine Sequenz von Vektoren über-
führt. Allerdings kann das Ergebnis der Vektorisierung noch Mängel aufweisen, die
sich teilweise automatisiert beheben lassen (vgl. Linienglättung), die zumeist aber
eine manuelle Korrektur erfordern (vgl. Abb. 5.8 u. 5.9).
Abb. 5.8: Prinzip der Mittellinienextraktion bei der Raster-Vektor-Konvertierung (nach Hake u.a.
2002 S. 258)
Abb. 5.9: Probleme bei der Raster-Vektor-Konvertierung von Linienstrukturen (nach Hake
u.a. 2002 S. 259)
deren Bahnen. Die Leitstation stellt aus den Daten der Monitorstationen die sog.
Navigationsnachricht mit genauen Flugbahndaten und Daten zu den Satellitenuhren
zusammen, die über die Antennenstationen den Satelliten (zur Aussendung an die
Empfängerstationen der Benutzer) übermittelt werden.
Das Nutzersegment besteht aus den GPS-Empfängern und den Anwendern. Die
GPS-Empfänger bestimmen aus den Signalen, die von den Satelliten ausgesandt
werden, den genauen Standort auf der Erde. Dabei werden mindestens vier Satelli-
ten gleichzeitig zur dreidimensionalen Ortung in Echtzeit benötigt (vgl. Kap. 5.3.3).
Herauszustellen ist, dass das GPS ein passives System ist, das nur Daten empfängt.
Entsprechend dem in der Radiotechnik üblichen Prinzip erfolgt die Übermittlung
der Satelliteninformationen an den GPS-Empfänger über geeignete Trägerwellen.
Für die zivile, freie und kostenlose Nutzung steht die sog. L1-Trägerwelle (1575,42
MHz) zur Verfügung. Für militärische Nutzungen ist daneben die L2-Trägerwelle
(1227,60 MHz) verfügbar. Im Rahmen der GPS-Modernisierung werden weitere
Frequenzbänder zur zivilen Nutzung ergänzt (vgl. Kap. 5.3.6). Auf die Trägerwelle
wird durch Phasenmodulation ein regelmäßiges Signal (Code) aufgesetzt (zu den
Grundprinzipien vgl. Abb. 5.10 u. 5.11, vgl. weiterführend die sehr ausführliche
Darstellung in Bauer 2018 S. 142 ff.). Ziele der Modulation sind:
- Die Signale werden strukturiert, so dass das Problem der Mehrdeutigkeit der Mes-
sung gelöst wird.
- Die Signale tragen die Navigationsnachricht (Bahndaten der Satelliten und Zu-
satzinformationen).
- Die zur Modulation verwendeten Codes (sog. Pseudo-Random-Noise-Codes,
PRN-Codes) werden geheim gehalten, so dass nur erwünschte Anwender Nutzen
aus GPS ziehen können.
Die Trägerwellen werden durch drei verschiedene Binärcodes moduliert (zu den
Signalstrukturen des NAVSTAR/GPS vor der Modernisierung vgl. Bauer 2018 S.
310 ff.):
198 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Die Modulation mit dem C/A-Code (C/A = Coarse Acquisition, grobe Auf-
nahme) ist eine allgemein zugängliche Kodierung, so dass jedermann die GPS-
Signale – bei eingeschränkter Genauigkeit – nutzen kann („Grob-Code“). Der C/A-
Code wiederholt sich alle 1023 Bit (d.h. nach einer Millisekunde) und moduliert nur
die L1-Trägerwelle.
Der P-Code (P = Precise) moduliert sowohl die L1- als auch die L2-Trägerwelle
und ermöglicht eine besonders genaue Ortung. Er ist ein sehr langer PRN-Code
(sieben Tage). Seine Entschlüsselung erfordert eine Autorisierung durch die US-
Militärbehörden.
Der D-Code (D = Data) überträgt die eigentlichen Navigationsnachrichten.
Die Genauigkeit des Global Positioning System unterscheidet sich nach zwei Kate-
gorien:
- Standard Position Service (SPS): SPS basiert auf dem C/A-Code. Die Genauig-
keit wurde mit Absicht vom US-Verteidigungsministerium heruntergesetzt (sog.
Selective Availability, SA). So wurde die Navigationsnachricht der Satelliten
durch Schwankungen im Signal verstümmelt. Dabei waren diese Manipulationen
unregelmäßig angelegt und konnten daher nicht korrigiert werden. Die Selective
Availability wurde am 1. Mai 2000 abgeschaltet. Sie kann allerdings jederzeit wie
z.B. in internationalen Krisen vom US-Militär wieder eingeschaltet werden. SPS
kann jedermann weltweit uneingeschränkt und ohne Entgelt nutzen.
- Precise Positioning Service (PPS): PPS basiert auf dem P-Code, der durch Über-
lagerung mit einem unbekannten zusätzlichen Code verschlüsselt wird (sog. Anti-
Spoofing, AS, Generieren des sog. Y-Codes für einen manipulationssicheren Be-
trieb). Dadurch soll verhindert werden, dass ein von einem militärischen Gegner
mit falschen Informationen ausgesandtes Signal ausgewertet wird. Die Entschlüs-
selung ist somit nur militärischen Behörden und ausgewählten zivilen Nutzern
vorbehalten. Militärische GPS-Geräte können durch Zweifrequenzmessung den-
selben P-Code auf zwei Frequenzen (L1 und L2) auswerten und somit eine Navi-
gationsgenauigkeit von 0,8 bis 1m erreichen. Allerdings können inzwischen die
Satellitengestützte Standortbestimmung und Erfassung von 3D-Lagekoordinaten 199
mit den verschlüsselten Codes ausgestrahlten Signale auch für zivile Anwendun-
gen und für Zweifrequenz-GPS-Geräte genutzt werden, ohne aber beurteilen zu
können, ob falsche Daten vorliegen.
Die Trägerfrequenzen bzw. die C/A- und P-Codes werden benutzt, um die Lauf-
zeit der Signale zwischen Empfänger und sichtbaren Satelliten zu bestimmen, um
daraus die Entfernung zu berechnen (vgl. Kap. 5.3.3). Über den D-Code wird
gleichzeitig, was letztlich die Genialität des Ansatzes ausmacht, die eigentliche Na-
vigationsnachricht übermittelt, die vor allem die Position der Satelliten enthält. Aus
diesen beiden Informationen, Entfernung zu Fixpunkten (hier Satelliten) und Posi-
tion der Fixpunkte, lässt sich die unbekannte Position des Empfängers ermitteln. Im
zweidimensionalen Fall, bei dem die Entfernungen r1 und r2 zu zwei bekannten Fix-
punkten vorliegen, lässt sich dieses Prinzip sehr einfach nachvollziehen (vgl. Abb.
5.12). Die Kreise mit Radien r1 und r2 um die Fixpunkte schneiden sich im zunächst
unbekannten Standort.
Abb. 5.12: Ansatz der Standortbestimmung im zwei- und dreidimensionalen Fall bei bekannten
Fixpunkten und bekannten Entfernungen zu den Fixpunkten
Subframe enthält Parameter der Ephemeriden. Ein Teil dieser Daten ist militäri-
schen Nutzern vorbehalten.
Erst der vierte und fünfte Subframe umfassen die Daten des sog. Almanachs, die
Informationen u.a. über die Bahnparameter aller Satelliten enthalten, d.h. nicht nur
des sendenden Satelliten (vgl. Subframe 2 u. 3). Der (Gesamt-)Almanach umfasst
Daten geringerer Genauigkeit, er kann aufgrund der Datenmenge trotzdem nicht
geschlossen versandt werden und wird auf 25 aufeinanderfolgende Dataframes auf-
geteilt, d.h. auf die Subframes 4/5.
ܴ = (ȟT + ȟ )ݐή ܿ
Dabei sind:
ȟT die im Empfänger gemessene Zeitdifferenz
ܿ Lichtgeschwindigkeit im Vakuum
ܴ Distanz (Range) Empfänger zu Satellit
ȟݐ der Fehler der Empfängeruhr gegenüber der Satellitenuhr
Insgesamt liegen vier Unbekannte vor (Xe, Ye, Ze, 't ), so dass ein Gleichungssys-
tem mit vier Gleichungen aufgestellt werden muss. Somit werden zur Standortbe-
stimmung mindestens vier Pseudoentfernungen zu verschiedenen Satelliten benö-
tigt:
[(ȟܶ + ȟ )ݐή ܿ]ଶ = (ܺ െ ܺ )ଶ + (ܻ െ ܻ )ଶ + (ܼ െ ܼ )ଶ
Dabei sind:
ȟܶ die gemessenen Laufzeiten der Satellitensignale
ܿ die Ausbreitungsgeschwindigkeit des Signals im Vakuum
ܺ , ܻ , ܼ die bekannten Koordinaten der Satelliten
ܺ , ܻ , ܼ die unbekannten Koordinaten des Empfängers
ȟݐ der unbekannte Zeitfehler des Empfängers
Dieses nichtlineare Gleichungssystem liefert die Grundlage zur Berechnung der
Empfängerkoordinaten, wobei in der Praxis die Entfernungsbestimmung wesentlich
umfangreicher ist. In der Regel liegen Distanzen zu mehr als vier Satelliten vor, so
dass das Gleichungssystem komplexer ist und über eine Ausgleichsrechnung be-
stimmt wird. Ferner ist die dargestellte Distanzbestimmung nicht eindeutig. So wie-
derholt sich der C/A-Code bereits nach einer Millisekunde, was bei Lichtgeschwin-
digkeit von 300.000 km/s einer Entfernung von 300 km entspricht, so dass im
Grunde die Entfernung nur bis maximal 300 km bestimmt werden kann. Allerdings
sind die Satelliten mehr als 20.000 km entfernt. Daher werden in der Initialisie-
rungsphase ungefähre Standortkoordinaten innerhalb mehrerer hundert Kilometer
des Empfängers angenommen (Basiseinstellung des Empfängers, zu weiteren Aus-
wertemethoden und zur Aufstellung von weiteren Entfernungsgleichungen, u.a. Be-
rücksichtigung der Erddrehung während der Laufzeit der Signale vgl. Hofmann-
Wellenhof u.a. 2008 S. 238 ff., Bauer 2018 S. 213 ff.).
Satellitengestützte Standortbestimmung und Erfassung von 3D-Lagekoordinaten 203
breitung der Wellen in der Iono- und Troposphäre). Die Genauigkeit der Positions-
bestimmung hängt neben der Sichtbarkeit der Satelliten vor allem auch von der Po-
sition der Satelliten zueinander und zum unbekannten Standort ab. Diese Abwei-
chung, die bei einer zweidimensionalen Ortung bei einem Satellitenabstandswinkel
von 90° am geringsten ist, lässt sich für den zweidimensionalen Fall anhand der
Abbildung 5.15 relativ leicht veranschaulichen. Der Empfängerstandort befindet
sich innerhalb der dargestellten Fehlerflächen (vgl. eingehender und für den dreidi-
mensionalen Fall Mansfeld 2010 S. 193 ff.).
Die stetige Entfernungsmessung zu einem ruhenden Empfänger schwankt auf-
grund der sich ständig ändernden Satellitenkonstellationen und der angeführten
Fehlereinflüsse. Der Entfernungsmessfehler kann anhand der Standardabweichung
ߪோ der Entfernungsmessungen beschrieben werden. Aus den gleichen Gründen va-
riieren die errechnete Position des Empfängers und entsprechend der zugehörige
Positionsfehler, ausgedrückt durch die Standardabweichung ߪ der Positionsbe-
stimmungen.
Für den Faktor der relativen Vergrößerung bzw. Verschlechterung des Positions-
fehlers ist die Bezeichnung „Dilution of Precision“ (DOP) eingeführt.
Abb. 5.15: Positionsfehler und Fehlerflächen bei der Standortbestimmung anhand von zwei mit
Unsicherheit behafteten Entfernungsmessungen für zwei unterschiedliche Satellitenkonstellatio-
nen (nach Flühr 2010 S. 103)
Der DOP-Faktor gibt an, um welchen Faktor sich der Positionsfehler gegenüber
dem Fehler der gemessenen Entfernung erhöht. DOP ist dimensionslos und be-
schreibt keinesfalls die durchschnittliche Abweichung von der wahren Position des
Empfängers.
ୗ୲ୟ୬ୢୟ୰ୢୟୠ୵ୣ୧ୡ୦୳୬ ୢୣୱ ୭ୱ୧୲୧୭୬ୱୣ୦୪ୣ୰ୱ ఙು
= ܱܲܦ
ୗ୲ୟ୬ୢୟ୰ୢୟୠ୵ୣ୧ୡ୦୳୬ ୢୣୱ ୬୲ୣ୰୬୳୬ୱ୫ୣୱୱୣ୦୪ୣ୰ୱ ఙೃ
Tabelle 5.1: Überblick über die Entwicklung der GPS-Signaltypen und Signale (vgl. GPS.gov 2019a)
Satellitentyp
Signal modernisiert
IIR IIR-M IIF III
L1 C/A • • • •
P • • • •
M • • •
C •
L2 P • • • •
C • • •
M • • •
L5 C/A • •
1997 – 2005 – 2010 – zuerst
2004 2009 2016 2018
gestartet / operationell: 11 7 12
5.3.7 GLONASS
5.3.8 Galileo
die in drei Umlaufebenen in 23.000 km Höhe die Erde mit 56° Neigung zum Äqua-
tor umkreisen (vgl. ESA 2019). Die ersten beiden Satelliten starteten im Oktober
2011, zwei weitere folgten im Oktober 2012. Nach umfangreichen Tests erfolgte im
ersten Schritt der Einrichtungsphase (In-Orbit Validation) die Validierung des Kon-
zepts. Der zweite, derzeit andauernde Schritt der Vervollständigung (Full Operati-
onal Capability, FOC) soll 2020 abgeschlossen sein. Mitte August 2019 bestand die
Konstellation aus 22 nutzbaren Satelliten sowie zwei Satelliten in der Testphase,
die im Frühjahr 2019 gestartet wurden (vgl. EGSA 2019a). Das Bodensegment be-
steht aus zwei Kontrollzentren (Galileo Control Centres (GCC) in Oberpfaffenh-
ofen und in Fucino/ Italien) sowie aus einem weltweiten Netz von Ground Control
Segments (GCS) und Ground Mission Segments (GMS) sowie weiteren Serviceein-
richtungen (vgl. EGSA 2019b).
Das Funktionsprinzip von GPS und Galileo ist grundsätzlich identisch. Galileo
nutzt drei Frequenzbänder E1, E5 und E6, wobei E1 bzw. L1 und E5 bzw. L5 (teil-
weise) gemeinsam von GPS und Galileo genutzt werden (vgl. Bauer 2018 S. 138
ff.). Galileo soll vier Dienste anbieten (vgl. EGSA 2019c):
- Open Service (OS): Galileo bietet einen kostenlosen und unverschlüsselten
Dienst an. Die Signale sollen standardmäßig in zwei Frequenzbereichen ausge-
sandt werden, so dass mit entsprechenden Zweifrequenzempfängern eine Positi-
oniergenauigkeit in Echtzeit bis in den Meterbereich erreicht werden kann.
- High Accuracy Service (HAS): Zusätzlich zum OS sollen weitere Navigations-
signale und Dienste (z.B. Wetterwarnungen) bereitgestellt werden. Das HAS-
Signal soll verschlüsselt werden, um den Zugriff auf die kostenpflichtigen HAS-
Dienste zu steuern. HAS resultiert aus der Neugestaltung des ehemaligen Com-
mercial Service
- Public Regulated Service (PRS): Dieser verschlüsselte und kostenpflichtige
Dienst soll für von staatlichen Stellen autorisierte Benutzer beschränkt sein im
Hinblick auf sensible Anwendungen, die ein hohes Maß an Qualität und Integrität
sowie Kontinuität auch in Krisensituationen erfordern.
- Search and Rescue Service (SAR): Dieser Dienst soll Europas Beitrag zu
COSPAS-SARSAT sein, einem internationalen satellitengestützten Such- und
Rettungsalarmsystem.
5.3.9 BeiDou
- Vervollständigen von BDS-3, um bis Ende 2020 einen weltweiten Dienst bereit-
zustellen. Dann soll die Konstellation aus 27 MEOs (Satelliten auf mittlerer Erd-
umlaufbahn, wie auch GPS und GLONASS Satelliten), 5 GEOs (Satelliten auf
geosynchroner Umlaufbahn) und den seit Phase 1 bestehenden 3 IGSOs (Satelli-
ten im geostationärem Orbit) bestehen.
Das Positionierungssystem BeiDou wird mehrere besondere Merkmale aufweisen
(vgl. BeiDou Navigation Satellite System 2019):
- Das Raumsegment wird aus Satelliten in drei Arten von Umlaufbahnen bestehen.
Im Vergleich zu anderen Navigationssatellitensystemen werden mehr Satelliten
in hohen Umlaufbahnen sein, um eine bessere Abdeckung gerade in Gebieten mit
geringer geographischer Breite zu ermöglichen.
- BeiDou soll Navigationssignale in mehreren Frequenzen bereitstellen, um durch
die Verwendung kombinierter Mehrfrequenzsignale die Positionierungsgenauig-
keit zu verbessern.
- BeiDou soll Navigations- und Kommunikationsfunktionen integrieren und über
fünf Hauptfunktionen verfügen: Echtzeitnavigation, schnelle Positionsbestim-
mung, präzises Timing, Standortberichte und Kurznachrichtenkommunikations-
dienste.
Die derzeitigen (Stand Dezember 2018) Genauigkeitseigenschaften werden global
mit 10 m horizontal und vertikal und für den asiatisch-pazifischen Raum mit 5 m
horizontal und vertikal angegeben (vgl. BeiDou Navigation Satellite System 2019).
Die Datenübertragung soll über drei Frequenzen erfolgen. Genauere Informationen
liegen über das Signal B1 für den offenen Dienst vor (vgl. China Satellite Naviga-
tion Office 2019 u. Bauer 2018 S. 360 ff.). Geplant sind zwei globale Positionie-
rungsdienste, ein offener (Open Service OS) und ein autorisierter Dienst (Authori-
sed Service AS), neben mehreren regionalen Diensten (vgl. China Satellite Naviga-
tion Office 2018 S. 7).
5.3.10 GNSS-Daten
Die National Marine Electronics Association (NMEA) hat für die Kommunikation
zwischen Navigationsgeräten auf Schiffen ein nicht offenes Austauschformat ent-
wickelt. Die Datensätze liegen im ASCII-Format vor. Zu Beginn eines Datensatzes
steht ein „$“ oder „!“ gefolgt von einer Geräte-ID (normalerweise zwei Zeichen),
einer Datensatz-ID (meist drei Zeichen) und von entsprechend der Datensatzdefini-
tion jeweils durch Kommata getrennten Datenfeldern. Im Rahmen von GNSS sind
mehrere Geräte-IDs wie BD (Beidou), GA (Galileo), GL (Glonass), GP (GPS) so-
wie mehrere Datensatz-IDs von Bedeutung, von denen hier nur auf Global Positio-
ning System Fix Data (GGA) näher eingegangen wird (siehe eingehender NMEA
2019). Die Zeile:
$GPGGA,110727.00,5217.054002,N,00801.403383,E,1,29,0.3,72.9,M,46.5,M,,
beschreibt einen Punkt auf dem Campus der Universität Osnabrück, der um
11:07:27 UTC aufgenommen wurde mit der Länge 52° 17. 054002' N und Breite 8°
210 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Abb. 5.16: Airborne Laserscanning: Prinzip und Systemkomponenten (nach Höfle u. Rutzinger
2011 S. 4)
Einzelne Objekte können mehr als ein Echo erzeugen. So können z.B. eine Baum-
krone ein erste Echo (sog. First Pulse) erzeugen und dann die darunter liegende
Oberfläche ein letztes Echo (sog. Last Pulse), sofern die Baumkrone zumindest stel-
lenweise durchlässig ist. Durch Abgleich von First und Last Pulse kann Vegetation
relativ leicht erkannt werden. Allerdings ist nicht jedes Aufnahmesystem in der
Lage, mehrere Echos zu empfangen.
Airborne Laserscanning bietet zusammengefasst mehrere Vorteile:
- Die 3D-Erfassung von Objekten erfolgt direkt, d.h. ohne die sonst übliche Stere-
obildauswertung der Photogrammetrie.
- Anforderungen an die Lichtverhältnisse und an die Oberflächenbeschaffenheit
bestehen nicht.
214 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Abb. 5.17: 3D-Oberflächenmodell eines Gebäudes durch ALS-Höhenpunkte (zur besseren Druck-
wiedergabe ohne das im Hintergrund liegende Dach)
Geobasisdaten 215
5.5 Geobasisdaten
talog (OSKA) und des Objekttyps beschrieben. Der OSKA war ein zentraler Ver-
schlüsselungskatalog und diente dem Nachweis aller Folien und Objektarten. Er
wurde inzwischen durch den mehr als 500 Seiten umfassenden ALKIS-
Objektartenkatalog abgelöst (vgl. Kap. 5.5.4.4).
Abb. 5.18: Auszug aus der Folie 1 (nur Flurstücksgrenzen) und der Folie 11 (nur Gebäudeumrisse)
für einen Teil der Innenstadt von Osnabrück
Grundlegend ist, dass alle rechtlichen und tatsächlichen Gegebenheiten der realen
Welt, die als Informationen für das amtliche Vermessungswesen von Bedeutung
sind, aus fachlicher Sicht strukturiert und als Fachobjekte in einem gemeinsamen
AAA-Datenmodell abgebildet werden. Das AFIS-ALKIS-ATKIS-
Anwendungsschema bezeichnet dabei die formale Beschreibung der Datenstruktu-
ren und Dateninhalte des AAA-Datenmodells. Das AAA-Anwendungsschema glie-
dert sich in (vgl. Abb. 5.20):
- das AAA-Basisschema,
- das AFIS-ALKIS-ATKIS-Fachschema,
- das AAA-Versionierungsschema,
- NAS-Operationen (Normbasierte Austauschschnittstelle).
Zusatzdaten
AAA-Anwendungsschema
AAA-Basisschema
Vererbung Vererbung
Abb. 5.20: Anbindung von Fachschemata an das AAA-Basisschema (nach Niedersächsische Ver-
messungs- und Katasterverwaltung 2010 Folie50)
dieser Bereiche enthält wiederum Objektartengruppen wie z.B. Angaben zum Flur-
stück. Die Objektartengruppen enthalten schließlich die Objektarten wie z.B. die
Flurstücke. Die Objektarten werden von Attributarten beschrieben, d.h. zumeist von
vielen Attributen. Eine Objektart kann über Relationen einer anderen Objektart zu-
geordnet sein. So können z.B. Angaben zum Eigentümer generell für mehrere Flur-
stücke zutreffen. Daher werden sie als eigenständige Objektart AX_Person model-
liert und über Relationen dem Flurstück zugeordnet.
Die AdV hat einen bundeseinheitlichen Kerndatenbestand festgelegt, der von al-
len Vermessungsverwaltungen der Länder zu führen ist: Flurstück, Besondere Flur-
stücksgrenze, Grenzpunkt, Gebäude, Lagebezeichnung, Siedlung, Verkehr, Vege-
tation, Gewässer, Kataloge, Aufnahmepunkt, Punktort, Buchungsblatt, Buchungs-
stelle, Namensnummer, Person, Anschrift, Klassifizierung nach Straßenrecht, Klas-
sifizierung nach Wasserrecht, Bau-, Raum- und Bodenordnungsrecht. Darüber hin-
aus hat jedes Bundesland die Möglichkeit, über den Grunddatenbestand hinaus ei-
gene Länderprofile zu definieren.
Abb. 5.22: Datenmodellierung in ALKIS am Beispiel von Gebäuden (nach Niedersächsische Ver-
messungs- und Katasterverwaltung 2010 Folie 61)
Abb. 5.24: Präsentation der Liegenschaften über TIM-online, Gemeinde Welver / Kreis Soest
(Datendownload über TIM-online. Land NRW (2019) Datenlizenz Deutschland – Namensnen-
nung - Version 2.0 www.govdata.de/dl-de/by-2-0)
228 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Mit der Einführung des AAA-Modells wurden die ATKIS-Daten entsprechend der
Dokumentation zur Modellierung der Geoinformationen des amtlichen Vermes-
sungswesens modelliert, an die neuen Normen angepasst und mit ALKIS verein-
heitlicht. Die Dokumentation enthält sehr umfangreiche und komplexe Vorschriften
(z.B. Unterführungen, Überlagerungen von Flächen tatsächlicher Nutzung mit Bau-
werken) und stellt gegenüber ALKIS einen anderen Genauigkeitsanspruch heraus.
So bezieht sich die Modellgenauigkeit von ±3 m auf die Geometrie linienförmig zu
modellierender Straßen, der schienengebundenen Verkehrswege und die auf der
Erdoberfläche liegenden Gewässer sowie auf die topologischen Knoten (z.B.
Schnittpunkte der Fahrweg mit den Straßenachsen) im Netz der Straßen und schie-
nengebundenen Verkehrswege. Die übrigen Objekte des Basis-DLM auf der Erd-
oberfläche haben eine Lagegenauigkeit von ±15 m (vgl. GeoInfoDok 2019a S. 29).
Die Genauigkeit der alten ATKIS-Daten bleibt nach der Fortschreibung erhalten.
Das Ergebnis der Modellierung zeigt Abbildung 5.25, die auf einem Datenabruf des
gesamten ATKIS-Basis-DLM von Nordrhein-Westfalen beruht. Die Daten werden
im Rahmen der Initiative „Offene Geodaten der GDI-NRW“ geldleistungsfrei zur
Verfügung gestellt (vgl. Kap. 6.7.5). Dargestellt sind im ATKIS-Basis-DLM aus-
gewählte Linienobjekte, die als einfache Vektordaten in ein Geoinformationssystem
Geobasisdaten 229
übernommen wurden, wobei eine Eisenbahnsignatur verwandt und die weiteren Li-
nien lediglich farblich unterschieden wurden. Eine Straße bzw. ein Weg wird mo-
delliert und dargestellt durch die jeweiligen Mittellinien (Straßen- und Wegeach-
sen). Die mehrspurige Bundesautobahn A2 im Süden wird zusätzlich aufgelöst in
mehrere Fahrbahnachsen (vgl. Ausschnittsvergrößerung).
Ein wesentliches Ziel bei der Entwicklung des AAA-Modells war die Harmoni-
sierung der Objektartenkataloge von ALKIS und ATKIS. Dies betraf insbesondere
den Objektbereich Tatsächliche Nutzung und die Objektarten, die im neuen AAA-
Modell in ALKIS und ATKIS identisch sind. Daneben bestehen Objektarten, die
ausschließlich in AFIS, ALKIS oder in ATKIS vorkommen. So treten z.B. beim
Objektartenbereich Gewässer (44000) die Objektarten 44001 Fließgewässer, 44005
Hafenbecken, 44006 Stehendes Gewässer und 44007 Meer gemeinsam in ALKIS
und ATKIS auf, während die Objektarten 44002 Wasserlauf, 44003 Kanal, 44004
Gewässerachse nur in ATKIS auftreten. Die semantische Harmonisierung zielte auf
Übereinstimmung von Begriff und Inhalten ab, insbesondere identische Bezeich-
nungen von Objektbereichen, Objektgruppen und Objektarten, identische Objekt-
definitionen und -kennungen, identische Attributarten und -werte. Die Migration
aus dem alten ATKIS-Datenmodell in das neue AAA-Modell war für ATKIS ge-
genüber ALKIS mit weniger Problemen behaftet. Zwar wurden hierbei auch fehler-
hafte Daten korrigiert. Die Datenmodelle waren nicht derart grundsätzlich vonei-
nander verschieden wie das ALK- zum AAA-Modell.
Eine geometrische Harmonisierung ist allerdings konzeptionell und maßstabsbe-
dingt nicht möglich (vgl. Abb. 5.26). ATKIS kennzeichnet in einer gröberen Detail-
lierung die tatsächliche Nutzung z.B. eines ganzen Baublocks als Fläche gemischter
Nutzung, wohingegen ALKIS einzelne Parzellen z.B. als Wohnbaufläche, Fläche
gemischter Nutzung, Industrie- und Gewerbefläche und Landwirtschaft (Garten-
land) darstellt. ALKIS ist parzellenscharf, während ATKIS mehrere Flurstücke zu-
sammenfasst und über die Flurstückgrenze hinaus bis zur Straßenmittellinie geht.
ALKIS kennzeichnet die tatsächliche Nutzung eines Flurstücks als Straßenverkehr
oder Weg, ATKIS speichert die Straßenachse oder die Fahrwegachse.
Abb. 5.27: DTK 25, Neubeckum / Kreis Warendorf (Datenquelle: TIM-online, Land NRW (2019)
Datenlizenz Deutschland – Namensnennung -Version 2.0 www.govdata.de/dl-de/by-2-0)
Abbildung 5.27 zeigt den Ausschnitt einer DTK 25, er ist mit der Abbildung 5.25
identisch, so dass das Gestaltungsprinzip, die Modellierung und die Signaturierung
deutlich werden. Die Karte basiert auf dem Europäischen Terrestrischen Referenz-
system 1989 (ETRS89, vgl. Kap. 4.4.3).
Durch die deutsche Landesvermessung werden zur einheitlichen topographi-
schen Beschreibung des Gebietes der Bundesrepublik Deutschland mehrere Topo-
graphische Kartenwerke unterschiedlicher Maßstäbe bereitgestellt,
- (Digitale) Topographische Karte 1:10.000 DTK10 bzw. TK10*
- (Digitale) Topographische Karte 1:25.000 DTK25 bzw. TK25
- (Digitale) Topographische Karte 1:50.000 DTK50 bzw. TK50
- (Digitale) Topographische Karte 1:100.000 DTK100 bzw. TK100
- (Digitale) Topographische Karte 1:250.000 DTK250 bzw. TK250
- (Digitale) Topographische Karte 1:1.000.000 DTK1000 bzw. TK1000
*Die DTK10 liegt flächendeckend in den östlichen Bundesländern sowie in
Nordrhein-Westfalen und Baden-Württemberg bzw. als Digitale Ortskarte (DOK)
in Bayern vor.
232 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Die Vermessungsverwaltungen der Länder sind für die DTK10, DTK25, DTK50
und DTK100, das Bundesamt für Kartographie und Geodäsie (BKG) ist für die
DTK250 und DTK1000 verantwortlich. Die AdV stellt eine jährlich aktualisierte
Übersicht über das Angebot der Digitalen Landschafts- und Geländemodelle sowie
der Digitalen Topographischen Karten zusammen (vgl. AdV-Online 2019a).
Zu der ATKIS-Produktfamilie zählen auch Digitale Orthophotos (DOP), die auf
Luftbildern beruhen, die computergestützt orientiert und auf ETRS89/UTM geore-
ferenziert, auf das DGM5 projiziert und nach einem bundeseinheitlichem Standard
aufbereitet wurden. Somit liegen entzerrte und maßstabsgetreue, digitale Senkrecht-
aufnahmen in einer Bodenauflösung von 20 cm x 20 cm (DOP20) bzw. 40 cm x 40
cm (DOP40) pro Pixel vor, in einigen Bundesländern existieren zusätzlich DOPs
mit der Bodenauflösung von 10 cm x 10 cm. Die Luftbilder liegen flächendeckend
vor und werden zumeist in einem 3-jährigen Zyklus erneuert.
Die Geobasisdaten werden als amtliche Daten unter verschiedenen Lizenzen von
den jeweiligen Landesvermessungsämtern bzw. vom Bundesamt für Kartographie
und Geodäsie zur Verfügung gestellt. Dabei bestehen unterschiedliche Abgabefor-
men und Abgabebedingungen. Für die meisten Bundesländer unterliegt die Abgabe
(noch) einer amtlichen Kostenordnung, wobei einzelne Geodaten auch kostenlos
abgegeben werden. Lediglich die Open-Data-Länder Berlin, Hamburg, Nordrhein-
Westfalen und Thüringen sowie das Bundesamt für Kartographie und Geodäsie stel-
len vollständig ihre Geodaten geldleistungsfrei zum Download und zur Online-Nut-
zung zur Verfügung. Im Rahmen des Open-Data-Angebots des Bundesamtes für
Kartographie und Geodäsie (BKG) werden Karten und Daten, die ab einem Maß-
stab 1:250.000 und kleiner durch das BKG selbst erzeugt und gepflegt werden, ge-
mäß Geodatenzugangsgesetz kostenfrei zur Verfügung gestellt (vgl. BKG 2019a u.
BKG2019b).
Geobasisdaten sind inzwischen im Rahmen der Abgabebedingungen über die
Geoportale der Vermessungsverwaltungen der einzelnen Bundesländer verfügbar
und digital abrufbar (vgl. Kap. 6.7.3 u. 6.7.5). Über einen Web Map Service ist ein
Einbinden einer Digitalen Topographischen Karte in ein Geoinformationssystem
leicht und fast standardmäßig möglich (vgl. Abb. 6.6). Die Bedeutung von Papier-
karten geht somit stark zurück. In Nordrhein-Westfalen ist z.B. eine analoge Daten-
abgabe als Plot nur gegen eine Gebühr möglich.
Herauszustellen ist das Produkt TopPlusOpen (TPO, vgl. BKG 2019c). Das Bun-
desamt für Kartographie und Geodäsie stellt eine frei nutzbare weltweite Webkarte
auf der Basis von freien und amtlichen Datenquellen bereit. Dabei ist TPO als
Download von Ausschnitten oder Kacheln der Webkarte und Präsentationsgraphi-
ken sowie vor allem als Web Map Service verfügbar.
Volunteered Geographic Information (VGI) 233
Gegenüber diesen Präsentationen, die zur Werbung, zur Selbstdarstellung und ein-
fachen Verbreitung von Informationen unter Freunden dienen, ist die Erfassung und
Bereitstellung von Geodaten im engeren Sinn wie Straßenverläufe oder Landnutzen
in Konkurrenz zu Geobasisdaten zu sehen. Das derzeitig bedeutendste Beispiel ist
das Open Street Map - Projekt (initiiert 2004), das für jeden frei nutzbare Geodaten
sammelt und bereitstellt (vgl. Open Street Map 2019). Die Daten standen unter einer
Creative-Commons-Attribution-ShareAlike-2.0-Lizenz, die Open Street Map - Da-
tenbank wird seit dem 12.09.2012 unter der Open Database License (ODbL) 1.0
verteilt. Sie können daher unter Angabe der Datenquelle in Drucke, Webseiten und
Anwendungen wie Navigationssoftware eingebunden werden. Dazu müssen die
Daten durch Freiwillige selbst aufgenommen werden. In der Regel werden während
einer Fahrt oder eines Spaziergangs mit einem GPS-Empfänger Koordinaten einer
234 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Straße oder eines Weges selbst erfasst oder auch durch Digitalisierung von frei ver-
fügbaren Vorlagen wie Luftbildern oder Karten selbst aufgenommen. Hier besteht
eine nicht zu unterschätzende Hürde. So ist ein einfaches Abzeichnen von Karten
und Plänen nicht möglich, die häufig wie bei öffentlich-rechtlichen Geoinformatio-
nen durch Urheberrecht geschützt sind. Allerdings haben inzwischen viele Unter-
nehmen oder Organisationen Daten zum Import in die Open Street Map - Datenbank
frei gegeben. Microsoft hat die Luftaufnahmen seines Kartenangebots im Internet
„Bing Maps“ zum Abzeichnen freigegeben, der sog. TIGER-Datensatz mit den vom
Statistischen Bundesamt der USA herausgegebenen Straßendaten wurde importiert,
in Deutschland haben einzelne Kommunen ihre Straßendaten zur Verfügung ge-
stellt.
Die aufgezeichneten, rohen Geodaten werden über ein Web-Portal hochgeladen
und in einem zweiten Schritt editiert. Das Open Street Map - Projekt stellt hierfür
verschiedene Möglichkeiten bereit. Grundlegende Editierschritte sind mit dem sehr
einfachen Programm iD möglich. Das Programm Potlatch 2 stellt die professionel-
lere Version dar. Alternativ ist eine Anpassung der erfassten Daten auch über den
Offline-Editor JOSM (JavaOpenStreetMap-Editor) als Desktopanwendungen sowie
EHUGLH$SSV9HVSXFFLRGHU*R0DSĵIUGLH6PDUWSKRQH-Betriebssysteme And-
roid bzw. iOS möglich. Hierdurch werden die Geometrien mit Attributen versehen
und z.B. ein Linienzug als Feldweg gekennzeichnet. Vor allem werden Points of
Interest (POI), die Sehenswürdigkeiten, öffentliche Einrichtungen oder auch z.B.
Bushaltestellen umfassen, ergänzt und bearbeitet. Das Editieren kann dabei auch
durch andere Personen als die eigentlichen Datenerheber erfolgen, so dass sich auch
Personen ohne GPS-Geräte beteiligen können, die aber über Ortskenntnisse verfü-
gen und somit helfen, den Datenbestand zu korrigieren, zu erweitern und zu aktua-
lisieren.
Abb. 5.28: Radfahrkarte Osnabrück auf Grundlage von OSM-Daten (Quelle: Open Street map
2019)
Volunteered Geographic Information (VGI) 235
Der unschätzbare Vorteil der OSM-Daten besteht darin, dass jeder registrierte Nut-
zer ohne restriktive Lizenzvorgaben oder Zahlung von Gebühren Geodaten frei be-
ziehen und in eigenen Anwendungen nutzen kann. Ferner bieten verschiedene Un-
ternehmen aufbereitete Daten an. Während die Aufbereitung mit Kosten verbunden
sein kann, ist die Nutzung frei möglich. Die Daten besitzen für viele Anwendungs-
fälle eine ausreichende Qualität. Durch das Lizenzmodell des Open Street Map -
Projektes ergeben sich beinahe unzählige Verwendungen. Im World Wide Wide
bestehen vielfältige Beispiele vor allem bei Routenplanern und zur Darstellung von
Anfahrtmöglichkeiten oder von Tourismuskarten von Reiseunternehmen (vgl. Sten-
gel u. Pomplun 2011 S. 116, vgl. Abb. 5.28). Bemerkenswert ist, dass das Umwelt-
bundesamt als amtliche Behörde OSM-Daten als Hintergrundinformationen be-
nutzt, um in einer interaktiven Karte die Umweltzone und Luftreinhaltepläne dar-
zustellen (vgl. Umweltbundesamt 2019).
Ein zuweilen dem Einsatz von OSM-Daten entgegengebrachtes Argument ist die
uneinheitliche und letztlich unbestimmte Datenqualität. Allerdings gilt auch hier
grundsätzlich, dass die Qualität von Geodaten nutzungsspezifisch zu beurteilen ist
(sog. „fitness for use“, vgl. Kap. 6.6.1). Die amtlichen Geobasisdaten zeichnen sich
durch eine präzise, flächendeckende und wertneutrale Erhebung in einer klaren,
festgelegten Verantwortlichkeit aus. Die Daten besitzen eine einheitliche Aufnah-
mequalität, die auf Grundlage des amtlichen Vermessungswesens basieren. Diese
Kriterien bestehen naturgemäß nicht für die freiwillige Datenaufnahme von sehr
unterschiedlich ausgebildeten und motivierten Datenerhebern. Insbesondere ist die
Qualität der Open Street Map - Daten oder allgemein von Volunteered Geographic
Information nicht gleichmäßig. So bestehen hinsichtlich der Vollständigkeit große
Unterschiede zwischen einerseits Großstädten und touristisch gut erschlossenen Ge-
bieten sowie andererseits ländlichen Räumen. Die Positionierungsgenauigkeit ist
leider nicht überall einheitlich. Somit wird man bei Fragestellungen des Kataster-
wesens, wenn hohe Zuverlässigkeit wie z.B. bei der Trassenplanung von Energie-
versorgern unabdingbar ist, nicht ohne amtliche Geobasisdaten auskommen. Jedoch
ist die Datenqualität für viele Webanwendungen, für Stadt- und Tourismusportale
und vor allem als Grundlage für Anfahrtskarten oder Routing-Systeme völlig aus-
reichend. Die Open Street Map - Daten stellen für derartige Zwecke eine sehr ernst-
zunehmende Konkurrenz zu den amtlichen Geodaten dar. Die Geobasisdaten und
Webservices der Landesvermessungen werden aufgrund der restriktiven, kosten-
pflichtigen Lizenzpolitik zumeist nicht eingesetzt.
236 Digitale räumliche Daten: Datengewinnung, Geobasisdaten und VGI
Literatur
Jäger, E. (1995): Kartographische Präsentation aus ATKIS. In: Kophstahl, E. u. H. Sellge (1995):
Das GIS ATKIS und seine Nutzung in Wirtschaft und Verwaltung. Vorträge anl. des 2. AdV
Symposiums ATKIS. S. 231–241. Hannover: Nieders. Landesverwaltungsamt – Landesverm.
Kahle, C. (2015): Geoweb 2.0 – nutzergenerierte Geoinformationen. Bibliotheksdienst, Band 49,
Heft 7, Seiten 762–766. https://www.degruyter.com/view/j/bd.2015.49.issue-7/bd-2015-
0086/bd-2015-0086.xml (14.11.2019)
Kahmen, H. (2006): Angewandte Geodäsie: Vermessungskunde. Berlin: de Gruyter. 20. Aufl.
Kohlstock, P. (2011): Topographie: Methoden u. Modelle der Landesaufnahme. Berlin: de Gruyter.
Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (2010): Geographic Information Sys-
tems and Science. New York: John Wiley 3. Aufl.
Mansfeld, W. (2010): Satellitenortung und Navigation: Grundlagen, Wirkungsweise und Anwen-
dung globaler Satellitennavigationssysteme. Wiesbaden: Vieweg + Teubner. 3. Aufl.
Matikainen, L. u.a. (2017). Object-based analysis of multispectral airborne laser scanner data for
land cover classification and map updating. ISPRS Journal of Photogrammetry and Remote
Sensing, Volume 128: S. 298 –313
NASA (2012): Global Positioning System History. https://www.nasa.gov/directorates/heo/scan/
communications/policy/GPS_History.html (14.11.2019)
NASA (2017): Global Positioning System. https://www.nasa.gov/directorates/heo/scan/communica-
tions/policy/GPS.html (14.11.2019)
Nicolaus, S. (2000): Erfassung städtischer Grünflächen auf Grundlage von Luftbildern. - In: N. de
Lange (Hrsg.): Geoinformationssysteme in der Stadt- und Umweltplanung. Fallbeispiele aus Os-
nabrück. S. 37–48. Osnabrück: Rasch. = Osnabrücker Studien zur Geographie 19.
Niedersächsische Vermessungs- und Katasterverwaltung (2010): Basiswissen ALKIS/ETRS 89,
Schulungsunterlagen. Hannover 2010.
https://www.lgln.niedersachsen.de/download/126790/Basiswis-
sen_ALKIS_ETRS89_Schulungsmaterial_Stand_12.04.2010.pdf (14.11.2019)
NMEA (2019): NMEA 0183. http://www.nmea.de/nmea0183datensaetze.html (14.11.2019)
Open Street Map (2019a): About. https://www.openstreetmap.org/about (14.11.2019)
Pfeifer, N. u.a. (2017): Laserscanning. In: Heipke, C. (2017): Photogrammetrie und Fernerkundung,
S. 431–482. Handbuch der Geodäsie. (Hrsg. Freeden, W. u. R. Rummel). Berlin: Springer.
Resnik, B. u. R. Bill (2018): Vermessungskunde für den Planungs-, Bau- und Umweltbereich. Ber-
lin: Wichmann. 4. Aufl.
SAPOS (2019a): Satellitenpositionierungsdienst der deutschen Landesvermessung.
http://www.sapos.de (14.11.2019)
SAPOS (2019b): SAPOS Dienste. https://www.sapos.de/dienste-im-ueberblick.html (14.11.2019)
Sellge, H. (1998): Zukunft der Geobasisdaten in Niedersachsen. In: Creuzer, P. (Hrsg.): Geographi-
sche Informationssysteme. Einsatz und Nutzung in Kommunen und Landesverwaltung. S. 91–
96. Hannover: Landesvermessung + Geobasisinformation.
Shan, J. u. C. K. Toth (2008, Hrsg.): Topographic Laser Ranging and Scanning. Principles and Pro-
cessing. Boca Raton Fl.: CRC Press
Stengel, S u. S. Pomplun (2011): Die freie Weltkarte Open Street Map – Potenziale und Risiken. In:
Kartographische Nachrichten, Jg. 61, H. 3, S. 115–120.
Teledyne Optech (2019): Titan. World’s first mulitspectral lidar. https://www.teledyneop-
tech.com/en/products/airborne-survey/titan/ (14.11.2019)
Umweltbundesamt (2019): Umweltzonen und Luftreinhaltepläne. https://gis.uba.de/website/um-
weltzonen/index.html (14.11.2019)
Vosselman, G. u. H.-G. Maas (2010, Hrsg.): Airborne and Terrestrial Laser Scanning. Boca Raton
Fl.: CRC Press
Wichmann, V. u.a. (2015). Evaluating the potential of multispectral airborne lidar for topographic-
mapping and landcover classification. ISPRS Annals of the Photogrammetry, Remote Sensing
and Spatial Information Sciences, Volume II-3/W5, S. 113–119.
Worboys, M. F. u. M. Duckham (2004): GIS: A computing perspective. Boca Raton: CRC Press.
6 Standards und Interoperabilität von Geodaten
Die einfache Grundüberlegung ist, einmal erhobene und somit vorhandene Geoda-
ten auch für neue, weitere Fragestellungen zu nutzen und dann nicht mehr neu zu
erfassen. Im Mittelpunkt stehen Effizienzsteigerungen, da eine Mehrfachnutzung
fast immer wirtschaftlich günstiger ist. Unabhängig von irgendwelchen Gebühren
für die Mehrfachnutzung ist eine Neuerfassung in der Regel mit höheren Kosten
verbunden. Bei einer Mehrfachnutzung werden Datenredundanzen vermieden,
wodurch sich auch die Gefahr von Dateninkonsistenzen verringert.
Inzwischen liegen große digitale Bestände von Geodaten vor, so dass die Wahr-
scheinlichkeit zur Neuverwendung gestiegen ist und eine Mehrfachnutzung nahe-
liegt, wobei davon ausgegangen wird, dass Datenlieferanten und Datenquellen ei-
nerseits sowie Datennachfrager andererseits verschieden sind. Der Wunsch bzw. die
Notwendigkeit, (Geo-)Daten mehrfach zu nutzen, führt zu zwei unterschiedlich
komplexen Fragen:
- Welche Daten sind in welcher Qualität für eine bestimmte Fragestellung eines
Nutzers (irgend-)wo vorhanden?
- Wie ist ein Datenaustausch (technisch) zu vollziehen?
Die erste Frage zielt auf die (reine) Kenntnis von geeigneten Daten ab. Häufig ist
unbekannt, dass überhaupt schon Daten für eine bestimmte Fragestellung vorliegen,
häufig ist auch die Kenntnis über Eigenschaften vorhandener Daten unzureichend.
Die Daten selbst befinden sich an mehreren Orten auf unterschiedlichen Datenträ-
gern. Den Daten liegen zumeist unterschiedliche Erfassungsziele, Erfassungsme-
thoden, Datengenauigkeiten und Datenformate zugrunde. Für eine Mehrfachnut-
zung sind daher beschreibende Informationen über die Daten eine unabdingbare
Voraussetzung. Insbesondere ist eine verbindliche Mindestmenge an Informationen
über die Daten, d.h. an Metadaten, vorzuhalten. Durch standardisierte Metadaten-
kataloge, d.h. zwingend zu erfassende, vorzuhaltende Metadaten zu den eigentli-
chen Fachdaten, können geeignete Daten gefunden und deren Möglichkeiten und
Grenzen der Verwendung (u.a. Verfügbarkeit, Bereitstellungskosten und Nutzungs-
rechte) abgeschätzt werden.
Die zweite Frage schließt Teilfragen zu Formen der Datenübertragung, zu Da-
tenschnittstellen und Datenformaten ein. Insbesondere müssen die Daten vollstän-
<flurstueck>
<flurstuecksnummer>12-3733</flurstuecksnummer>
<gemeinde>osnabrueck</gemeinde>
<eigenschaften Datum=“2012-05-24“>
<groesse>1100</groesse>
<fnp>g</fnp>
<altlastenverdacht>ja</altlastenverdacht>
</eigenschaften>
</flurstueck>
Standardisierung und Interoperabilität 241
6.2 Standardisierungsinstitutionen
6.2.2 Normierungsinstitutionen
Die Internationale Normierungsorganisation ISO mit Sitz in Genf ist die internatio-
nale Vereinigung von Normungsorganisationen, wobei sich das Akronym nicht als
Abkürzung des Unternehmens versteht, sondern sich von dem griechischen Wort
„isos“ (dt. gleich) ableitet. Die ISO erarbeitet internationale Normen in allen Berei-
chen außerhalb von Elektrik, Elektronik und der Telekommunikation. Die Organi-
sation gliedert sich in Technische Komitees, Subkomitees und Arbeitsgruppen. Die
ISO hat über 22.000 internationale Standards entwickelt, mehr als 1.000 neue Stan-
dards werden in jedem Jahr veröffentlicht. Die ISO-Standards werden durch einen
präzise festgelegten Arbeitsprozess entwickelt, der mehrere klar definierte Schritte
und Phasen umfasst, um einen möglichst breiten Konsens unter Herstellern, Anbie-
tern, Konsumentengruppen, Behörden und Forschungseinrichtungen zu erreichen
(vgl. ISO 2019a). Allgemein ist eine Hinwendung von nationalen hin zu internatio-
nalen Normen zu erkennen.
Das Technical Committee TC 211 Geographic Information/Geomatics in der ISO
beschäftigt sich in mehreren Arbeits- und Spezialgruppen mit der Entwicklung von
Normen zur Geoinformatik (Normfamilie 191xx,). Sehr viele Normen haben inter-
nationalen Standard erreicht, die meisten befinden sich bereits in einer erneuten
Phase der Überarbeitung. Der Katalog an Standards deckt sehr viele Belange der
Geoinformatik ab wie z.B. „Geography Markup Language“, „Web Feature Ser-
vice“, „Data quality“, „Addressing“ oder „Calibration and validation of remote
sensing imagery sensors and data“ (vgl. ISO2019b).
Das TC 211 verfolgt neben dem generellen Ziel der Nachhaltigkeit weitere Leit-
linien, von denen als herausragende zu nennen sind: Unabhängigkeit von Software
und Hardware, Entwicklung von (Schnittstellen- und Daten-)Modellen auf der kon-
zeptionellen Ebene anstelle von Datenformaten, Kommunikationsdienste (z.B. Da-
tentransfer) auf der Basis von normierten Schnittstellen.
244 Standards und Interoperabilität von Geodaten
Das Open Geospatial Consortium (OGC, vor 2004 Open GIS Consortium Inc.)
stellt eine 1994 gegründete Non-Profit-Standardisierungsorganisation dar, in der in-
zwischen über 520 Unternehmen, Behörden und Forschungseinrichtungen freiwil-
lig zusammenarbeiten, um in einem konsensualen Prozess allgemein verfügbare
Schnittstellenstandards zu entwickeln. Schlagwortartig kann das Ziel des OGC um-
schrieben werden durch: „geo-enable the Web by geospatial standards“:
„Mission:
To serve as the global forum for making location Findable, Accessible, Interopera-
ble, and Reusable (FAIR) via a proven consensus-based collaborative and agile pro-
cess combining standards, innovation, and partnerships.” (OGC 2019a).
Das OGC erarbeitet mehrere Arten von Dokumenten, unter denen (neben OGC Ref-
erence Model (ORM) Best Practices Documents, Engineering Reports, Discussion
papers, White papers) die OGC-Implementation-Standards und die OGC Abstract
Specifications die wichtigsten sind. Die OGC Abstract Specifications bieten die
konzeptionelle Basis für die meisten OGC-Entwicklungen und liefern ein Referenz-
modell für die Entwicklung der Implementation-Spezifikationen (vgl. OGC 2019b).
Die Implementation-Standards richten sich an eine technische Zielgruppe und
beschreiben ausführlich die Schnittstellenstrukturen zwischen Softwarekomponen-
ten (vgl. OGC 2019c:). So stellt z.B. das Feature-Geometry-Model eine abstrakte
Spezifikation des OGC dar, die einen implementierungsunabhängigen Rahmen bil-
det, an dem sich Implementierungs-Spezifikationen ausrichten sollen (vgl. Kap.
6.3.1). Auf dem Feature-Geometry-Model bzw. auf Untermengen davon bauen die
OGC-Spezifikationen (bzw. inzwischen auch ISO-Normen) auf:
- das Simple-Feature-Geometry-Object-Model (zur Beschreibung zweidimensio-
naler Vektorgeometrien in zwei ISO-Normen Simple Feature Access ISO 19125-
1 u. 19125-2),
- die Geography Markup Language (GML, zur XML-basierten Repräsentation von
Geodaten, ISO 19136).
Unter den OGC-Implementation-Standards definieren die Webservices (konkreter
bzw. ausführlicher benannt: die OGC-konformen Geodatendienste, vgl. Kap. 6.4)
die Interoperabilität im Web, d.h. vor allem der Web Map Service (WMS, gekachelt
(tile) als Web Map Tile Service WMTS), der Web Feature Service (WFS) und der
Web Coverage Service (WCS). Der wichtige Catalogue Service for the Web (CSW,
auch Web Catalogue Service) wird innerhalb der Catalogue Service Implementation
Specifications definiert.
Seit 1997 besteht eine enge Zusammenarbeit zwischen dem OGC und dem
ISO/TC211 (vgl. ISOTC211 2019). So werden z.B. die Implementierungsspezifi-
kationen des OGC bei der ISO als Normvorschlag eingereicht.
Die Einhaltung von OGC-Standards ist inzwischen das entscheidende Kriterium
für die Interoperabilität von Geodaten und von Softwaresystemen (vgl. Kap. 6.4.2).
OGC-Konformität ist nicht nur ein allgemeines Gütemerkmal, sondern auch ein
Kaufkriterium von Software und Grundlage von Geodateninfrastrukturen. Falls die
Standards zur Modellierung von Geodaten 245
Abb. 6.1: Die Hauptpakete für das Feature-Geometry-Modell (nach Brinkhoff 2013 S. 67)
Das Feature Geometry Model besteht aus den beiden Hauptpaketen „Geometry“
und „Topology“, die selbst wieder aus fünf bzw. drei Unterpaketen bestehen (vgl.
Abb. 6.1). So gehören zum Paket Geometry das Teilpaket „Geometry Root“ mit der
Geometrie-Oberklasse „GM_Object“, das Teilpaket „Geometry Primitive“ mit De-
finition der geometrischen Primitiven (Punkte, Linien, Flächen, Körper) und das
Teilpaket „Coordinate Geometry“ mit Klassen zur Beschreibung der Geometrien
durch Koordinaten, das Teilpaket „Geometry Aggregate“ zur Zusammenfassung
von mehreren Geoobjekten zu losen Geometriesammlungen und das Teilpaket „Ge-
ometry Complex“ zur Zusammenfassung von mehreren geometrischen Primitiven,
die ein komplexes Geoobjekt beschreiben (vgl. eingehender Brinkhoff 2013 S. 68
246 Standards und Interoperabilität von Geodaten
ff.). Ferner werden das Paket „Coordinates“ aus der ISO-Norm 19111 „Spatial Re-
ferencing by Coordinates“ und das Paket „Basic Types“ aus der ISO-Norm 19103
„Conceptional Schema Language“ verwendet.
Innerhalb der OGC hat das Feature Geometry Object Model, das als ein abstraktes,
implementierungsunabhängiges, konzeptionelles Datenmodell die räumlichen Ei-
genschaften von Geoobjekten beschreibt, eine zentrale Bedeutung. Aktuell ist die
Korrekturversion 1.2.1 von 2011, die gegenüber der ISO-Norm 19125 etwas erwei-
tert ist (vgl. OGC 2019d). In der ISO-Norm 19125-1 Simple Feature Access – Com-
mon Architecture werden die technologieunabhängigen Eigenschaften des Daten-
modells festgelegt, in der ISO-Norm 19125-2 (ebenfalls von 2004) wird die Umset-
zung in ein SQL-Datenbankschema beschrieben. Die übrigen beiden von der OGC
erarbeiteten Ausprägungen für Simple Features, d.h. für die Common Object Requ-
est Broker Architecture (CORBA) und für das Object Linking and Embed-
ding/Component Object Model (OLE/COM) zum Datenaustausch in einem
Windows-Netzwerk, haben technologisch an Bedeutung verloren.
Das Simple-Feature-Geometry-Object-Model soll hier zur beispielhaften Veran-
schaulichung von Modellierungsprinzipien dienen und in das Vorgehen bei der Mo-
dellierung von einfachen Geometriestrukturen und Objektbildung für Vektordaten
einführen (vgl. Kap. 9.3.2). Als Simple Features sind maximal zweidimensionale
Geoobjekte definiert, deren Stützpunkte gradlinig miteinander verbunden sind. So-
mit sind Kurven und Kreise keine Simple Features, sondern nur Punkte, Linien,
Streckenzüge und Flächen. Tabelle 6.2 verdeutlicht die Implementierung des
Simple-Feature-Geometry-Object-Models in der Geodatenbank PostgreSQL/Post-
GIS (vgl. Kap. 8.7.3). Mit Point, Linestring und Polygon sind drei Basis-Geomet-
rietypen vorhanden, von denen vier weitere Geometrietypen abgeleitet sind.
Von der Oberklasse „Geometry“, die auf ein räumliches Bezugssystem (Klasse
„SpatialReferenceSystem“) verweist, werden spezifischere Klassen für geometri-
sche Basisobjekte (sog. geometrische Primitive) und für Geometriesammlungen ab-
geleitet (vgl. Abb. 6.2). Im Hinblick auf eine Beispielanwendung (vgl. Abb. 6.3)
soll hier lediglich auf Linien näher eingegangen werden. Linien werden beim
Simple-Feature-Geometry-Object-Model durch die abstrakte Klasse „Curve“ mo-
delliert, die nur eine einzige Unterklasse „LineString“ zur Speicherung von Stre-
ckenzügen aus einer (geordneten) Folge von (Strecken-)Punkten hat. „LineString“
besitzt die Unterklasse „Line“ (Strecken, engl. line segments, mit genau zwei Stre-
ckenpunkten) und die Unterklasse „LinearRing“ für geschlossene einfache Stre-
ckenzüge (Ringe).
Die Geography Markup Language (GML), die auf dem Feature Geometry Model
beruht, stellt eine XML-basierte Beschreibung von Geodaten dar (vgl. OGC 2019e).
Seit 2012 ist die GML-Version 3.3 verfügbar, die die Vorgängerversion 3.2.1 er-
gänzt. GML beschreibt die geometrischen, topologischen und temporalen Merk-
male von bis zu dreidimensionalen Geoobjekten.
248 Standards und Interoperabilität von Geodaten
Seit 2005 werden GML-Profile eingeführt, die Untermengen von GML für be-
stimmte Anwendungsbereiche festlegen (z.B. GML Simple Features Profile). GML
ist mit Version 3.2.1 ISO-konform (ISO 19136:2007). Das bedeutet insbesondere,
dass GML nunmehr auch eine Implementierung von ISO 19107 darstellt (vgl. Kap.
6.3.1).
Das OGC beschreibt Geoobjekte als sog. Features mit den Bestandteilen „Ele-
ment Property“, die allgemeine Informationen zum Geoobjekt enthalten, und mit
den Bestandteilen „Geometric Property“, modelliert durch geometrische Basistypen
(Geometrische Primitive) „Point“, „LineString“, „LinearRing“ oder „Polygon“ so-
wie durch komplexere, aggregierte Mengen dieser Objekte (Geometriesammlun-
gen, MultiCurve und MultiSurface) (zu Klassendiagrammen vgl. Brinkhoff 2013 S.
339 ff.).
In einem kleinen Beispiel wird ein Ausschnitt eines Gewerbeflächeninformati-
onssystems modelliert, das aus einzelnen Gewerbeflächen mit Attributen besteht
(vgl. Abb. 6.3). Als geometrischer Basistyp soll nur der einfache „Line String“ vor-
gestellt werden, der eine Folge von Punkten ist, die durch gerade Liniensegmente
verbunden sind (vgl. weitere Arten von Line-Strings wie z.B. mit Überschneidun-
gen oder geschlossene Line-Strings). Ein Geographic Feature wird als Liste mit Na-
men modelliert, die geographische und nichtgeographische Eigenschaften aufweist.
Die geographischen Eigenschaften werden dabei durch die bereits definierten Geo-
metrie-Typen kodiert.
Das XML-Dokument ist auch ohne breite Erläuterungen und tiefe Kenntnisse
von GML leicht nachvollziehbar. Jede Fläche hat eine eindeutige Flächennummer,
die Zugehörigkeit zu einer Verwaltungseinheit, einen Besitzer und eine Grenze.
Durch „geometryProperty“ werden die geometrischen Eigenschaften des Features
bezeichnet. Eine Sammlung von Feature-Elementen stellt eine FeatureCollection
dar. Für die Geometriedaten muss das räumliche Bezugssystem spezifiziert sein
(srsName, srs abgekürzt nach spatial reference system). Benutzt werden sog. EPSG-
Codes (vgl. Kap. 4.5.7).
6.3.4 GeoPackage
Zur Speicherung und zum Übertragen von Geodaten hat das OGC 2014 einen offe-
nen, nicht proprietären und plattformunabhängigen Standard entwickelt. Dadurch
soll insbesondere eine Unabhängigkeit gegenüber Industriestandards erreicht wer-
den (vgl. die proprietären Shape- bzw. Geodatabase-Datenformate der Firma ESRI,
vgl. Kap. 9.3.3). Der OGC-GeoPackage-Standard beschreibt Konventionen, um
Geodaten in einer SQLite-Datenbank zu speichern: Vektordaten, Bild- und Raster-
karten, Attribute (nichträumliche Daten) und Erweiterungen. Ein GeoPackage ist
der SQLite-Container, während der GeoPackage Encoding Standard die Regeln und
Anforderungen definiert, wie Inhalte in einem GeoPackage-Container gespeichert
sind (vgl. OGC 2019f).
Die gesamte Datenbank, die mehrere verschiedene Themen und Feature-Klassen
umfassen kann, befindet sich in einer einzigen, sehr kompakten, d.h. platzsparenden
Datei. Die Daten in einem GeoPackage können in einem „nativen“ Speicherformat
250 Standards und Interoperabilität von Geodaten
6.4 Geodatendienste
Ein Datenaustausch ist grundsätzlich nicht neu, er war bis in die späten 90er Jahre
zumeist durch umständliche und aufwendige Arbeitsschritte gekennzeichnet. Ein
Nachfrager wie z.B. ein Energieversorgungsunternehmen richtet seine Anfrage z.B.
zu aktuellen Flurstücksgeometrien über ein Bestellformular (oder per E-Mail) an
eine Katasterbehörde. Die gewünschten Daten werden dort aus dem Datenbestand
der Behörde bzw. aus dem Format des dort eingesetzten Informationssystems in ein
standardisiertes Datenformat konvertiert (vgl. EDBS bzw. NAS in Kap. 5.5.2. bzw.
5.5.4.1), auf einer DVD oder per E-Mail (zusammen mit einem Kostenbescheid)
zurückgeschickt. Das Unternehmen konvertiert die Daten und fügt sie in den eige-
nen Datenbestand ein, d.h. in das Datenformat des unternehmensinternen Informa-
tionssystems (vgl. Abb. 6.4). Der Datenaustausch war gekennzeichnet durch
Konvertierung zwischen proprietären Datenformaten verschiedener Softwareher-
steller. Dabei konnten durchaus Datenverluste auftreten. Der Prozess wurde etwas
vereinfacht, wenn der Datenaustausch über ein einheitliches Datenformat erfolgte
oder das Informationssystem beim nachfragenden Unternehmen über entspre-
chende Datenimportstellen verfügte.
Inzwischen vollzieht sich der Datenaustausch weitgehend automatisiert über das
Internet über vereinheitlichte, normierte Daten(austausch)schnittstellen und auf der
Basis von OGC-konformen Geodatendiensten.
Der MapServer ist (inzwischen) ein Softwareprojekt der Open Source Geospatial
Foundation (OSGeo), das auf eine Entwicklung der University of Minnesota
(UMN) zurückgeht und daher häufig weiterhin mit dem Namen UMN-Mapserver
oder UMN-MapServer bezeichnet wird. Die Freie Software stellt Webservices ent-
sprechend den Spezifikationen des Open Geospatial Consortium bereit (WMS,
WFS, WCS). Verwirrend ist eine häufig vereinfachende Formulierung. So wird von
einem WMS-Server gesprochen, wenn auf einem Server (Hardware) ein Web Map
Service implementiert ist (vgl. Abb. 2.15), der nicht zwingend auf der UMN-
MapServer-Software basieren muss. Bei dieser Sprechweise vermengen sich zudem
Hard- und Softwaresicht mit OGC-Konformität.
252 Standards und Interoperabilität von Geodaten
MAP
NAME OS_Freiflaechen
IMAGETYPE PNG
EXTENT 3427000 5787000 3445000 5805000
SIZE 800 800
SHAPEPATH 'C:/osdaten/fnutzung/'
IMAGECOLOR 255 255 255 # Hintergrundfarbe weiss
WEB
METADATA
'WMS_TITLE' 'Sportanlagen Osnabrück WMS'
'WMS_ONLINERESOURCE' 'http://localhost/cgi-bin/mapserv.exe?map=
C:/ms4w/Apache/htdocs/os_fnutzung/freiflaechen_wms.map'
'WMS_CRS' 'EPSG:31467'
END
END
PROJECTION
"init=epsg:31467"
END
# Start der LAYER DEFINITION -----------------------
LAYER # Beschreibung Layer EINS
NAME 'Stadtgrenze'
DATA 'grenzen.shp'
STATUS ON
TYPE LINE
METADATA
'WMS_Title' 'Stadtgrenze'
'WMS_SRS' 'EPSG:31467'
END
CLASS
STYLE COLOR 0 0 0 END
END #class
END # Beschreibung Layer EINS
LAYER # Beschreibung Layer ZWEI
NAME 'Siedlungsfreiflaechen'
DATA 'freiflaechen.shp'
STATUS DEFAULT
TYPE POLYGON
METADATA
'WMS_Title' 'Siedlungsfreiflaechen'
'WMS_SRS' 'EPSG:31467'
END
CLASSITEM 'nutzcode'
CLASS
EXPRESSION '10'
STYLE COLOR 0 200 0 END
END
CLASS
EXPRESSION '20'
STYLE COLOR 255 0 0 END
END
END # Beschreibung Layer ZWEI
END # Ende des Mapfiles
Abb. 6.5: Auszug aus einem Mapfile einer UNM-MapServer-Anwendung
Geodatendienste 253
Eine UMN-MapServer-Anwendung besitzt neben den Daten ein sog. Mapfile, das
als zentrale Layout- und Konfigurationsdatei dient (Textdatei mit der Endung
.map). Dieses Mapfile (vgl. Abb. 6.5, freiflaechen_wms.map) liegt in einem Ver-
zeichnis auf einem Server (hier im Ordner C:/ms4w/Apache/htdocs/os_fnutzung)
und enthält Parameter zur Steuerung des WMS (d.h. zur kartographischen Darstel-
lung, Informationen zum Maßstab, zur Legende oder zur Kartenprojektion). In einer
sehr häufigen Standardkonfiguration wird auf diese Datei über den Apache-HTTP-
Server als Webserver zugegriffen. Der WMS-Request „GetMap“ liefert eine Ras-
tergraphik an den Browser (vgl. Kap. 6.4.4). Dies kann nur der erste Schritt beim
Aufbau eines sog. Web-GIS sein, da in einem Browser zunächst derartig einfache
Werkzeuge wie z.B. zum Verschieben der Karte fehlen (Einbinden von Web-Map-
ping-Bibliotheken, vgl. Kap. 7.2.3).
Ein Mapfile ist in mehrere Abschnitte organisiert. Die Themenlayer spezifizieren
Geodaten, die in diesem Beispiel auf einem Server im Ordner C:/osdaten/fnutzung
liegen (zum Layerprinzip vgl. Kap. 4.1.4). Hierdurch werden die Stadtgrenze und
Siedlungsfreiflächen für Sportanlagen und Campingplätze im Stadtgebiet von Osn-
abrück definiert. Die Geodaten liegen im proprietären Shape-Datenformat (vgl.
Kap. 9.3.3, Endung shp) vor.
Ein OGC-konformer Web Map Service kann Rasterdaten (d.h. Graphiken) und
Vektordaten aufbereiten, d.h. vor allem Vektordaten in proprietären Datenformaten
z.B. der Softwareunternehmen Oracle, AutoDesk und ESRI, die zum großen Teil
Industriestandards darstellen. Ein WMS ermöglicht somit den einfachen, standardi-
sierten Zugriff auf (beinahe beliebige) Geodaten im WWW über das Hypertext
Transfer Protocol (HTTP). Zurückgegeben wird ein georeferenziertes Kartenbild in
der Regel in einem einfachen Raster-Graphikformat (z.B. in den Formaten JPEG
oder PNG). Somit kann ein Anwender einen Web Map Service über seinen
Webbrowser aufrufen, in dem dann auch nach erfolgreicher Ausführung die ange-
forderte Karte angezeigt wird.
Ein WMS bereitet zusammenfassend Vektordaten und Rasterbilder in einer stan-
dardisierten Form primär zu reinen Darstellungszwecken auf. Darüber hinaus kann
dieser Webservice Auskunft geben über Metainformationen der Geodaten und all-
gemeine Abfragen der zugrunde liegenden Sachdaten zulassen.
Ein OGC-konformer WMS besitzt drei Funktionen, die am Beispiel des MapSer-
vers und des Mapfiles aus Abbildung 6.5 verdeutlicht werden sollen.
GetCapabilities
http://localhost/cgi-bin/mapserv.exe?map=C:/ms4w/Apache/htdocs/os_fnutzung/
freiflaechen_wms.map&service=wms&version=1.3&request=GetCapabilities
Hierdurch werden die Fähigkeiten des WMS erfragt. Zurückgeschickt wird eine
XML-Datei mit Metainformationen u.a. mit Angaben zum Datenanbieter, zu unter-
stützten Ausgabeformaten (z.B. PNG) sowie vor allem zu den abfragbaren Daten-
ebenen (Layern).
254 Standards und Interoperabilität von Geodaten
GetMap
http://localhost/cgi-bin/mapserv.exe?map=C:/ms4w/Apache/htdocs/os_fnutzung/
freiflaechen_wms.map&service=wms&version=1.1&request=GetMap&layers=
Siedlungsfreiflaechen&BBOX=3427066,5787000,3445000,5805000&
SRS=epsg:31467&Format=image/png&width=600&height=600
Hierdurch wird eine georeferenzierte Rastergraphik (Karte) vom WMS zurückge-
liefert. In der Anfrage werden u.a. die gewünschte Dateneben (Layer, hier: Sied-
lungsfreiflaechen referenziert auf den Layer freiflaechen.shp im Mapfile), die
Größe der Kartenausgabe (hier 600 x 600 Pixel), das Ausgabeformat (hier PNG),
das zugrunde liegende Koordinatensystem (hier: EPSG-Code 31467, d.h. dritter
Gauß-Krüger-Meridianstreifen) sowie die Größe des Daten- bzw. Kartenausschnitts
angefordert. Die zurückgegebene PNG-Datei kann in einem Browser dargestellt
werden. Die Flächen erscheinen für den Nutzungscode 10 in der Farbe Grün (vgl.
RGB-Code 0 200 0 zu den Darstellungsvorgaben im Mapfile) und für den Nut-
zungscode 20 in der Farbe Rot. Der Nutzungscode bezeichnet hierbei ein Attribut
in den Originaldaten, d.h. in dem Shape „freiflaechen.shp“.
GetFeatureInfo
http://localhost/cgi-bin/mapserv.exe?map=C:/ms4w/Apache/htdocs/os_fnutzung/
freiflaechen_wms.map&service=wms&version=1.3&request=GetFeatureInfo&layers=
Siedlungsfreilaechen&CRS=EPSG:31467&BBOX=3427000,5787000,3444200,
5801000&width=800&height=800&INFO_FORMAT=text/plain&QUERY_LAYERS=Siedl
ungsfreiflaechen
Durch diese optionale Funktion kann ein Web Map Service Informationen zu einer
Position im Kartenausschnitt zurückgeben, die mit dem Mauszeiger angeklickt
wird. Die zugrunde liegenden, thematischen Informationen werden im XML-
Format zurückgeliefert. Sie können z.B. durch JavaScript im Browser aufbereitet
werden.
Deutlich herauszustellen ist, dass in diesem Beispiel auf Geodaten in einem
proprietären Vektordatenformat (Shape-Datenformat) zugegriffen wird (vgl. Kap.
9.3.3) und diese Daten von irgendwo über einen beliebigen Browser abgefragt und
angezeigt werden können. Ferner ist mit Nachdruck darauf hinzuweisen, dass nur
eine Graphik, d.h. eine starre Karte zurückgeliefert wird. Der Anwender und Nach-
frager kann diese Information kaum nutzen. Zur effizienten Visualisierung der zu-
rückgelieferten Graphik werden für den Browser noch spezielle Softwarekompo-
nenten benötigt (vgl. Ka. 7.2.3).
ten wie z.B. sog. Geoviewer benötigt. Ein WFS kann auch in einem Geoinformati-
onssystem eingebunden werden, das dann die graphische Darstellung der Vektor-
daten übernimmt. So kann z.B. das freie Geoinformationssystem QGIS Vektordaten
im GML-Format direkt verarbeiten.
Ein OGC-konformer WFS besitzt drei obligatorische Funktionen (sog. Basic
WFS), die als HTTP-Anfragen an den WFS geschickt werden können. Die Funk-
tionen, die das Mapfile aus Abbildung 6.5 auswerten, sollen am Beispiel des Map-
Servers verdeutlicht werden.
GetCapabilities
http://localhost/cgi-bin/mapserv.exe?map=C:/ms4w/Apache/htdocs/os_fnutzung/ frei-
flaechen_ wfs.map&service=wfs&version=1.1&request=GetCapabilities
Hierdurch werden die Fähigkeiten des WFS erfragt. Zurückgeschickt wird eine
XML-Datei mit Metainformationen: u.a. Angaben zum Datenanbieter, zu abzufra-
genden Feature Types und zu möglichen Operationen.
DescribeFeatureType
http://localhost/cgi-bin/mapserv.exe?map=C:/ms4w/Apache/htdocs/os_fnutzung/ frei-
flaechen_wfs.map&service=wfs&version=1.1.0&request= DescribeFeatureType
Hierdurch werden Informationen zur Struktur der einzelnen Feature Types der
Geoobjekte erfragt, die über den WFS übermittelt werden können.
GetFeature
http://localhost/cgi-bin/mapserv.exe?map=C:/ms4w/Apache/htdocs/os_fnutzung/ frei-
flaechen_wfs.map&service=wfs&version=1.1.0&request=GetFeature&
typename=Siedlungsfreiflaechen
Hierdurch werden Vektordaten im GML-Format zurückgeliefert. Durch weitere
Anfragen können Geoobjekte erzeugt, geändert oder gelöscht werden (Transaction),
Geoobjekte zur Bearbeitung gesperrt werden (LockFeature) oder z.B. einzelne Ele-
mente aus der GML-Datei abgefragt werden (GetGmlObject). Der Basic WFS bie-
tet somit einen nur lesenden Zugriff an. Der Transaction WFS mit den obligatori-
schen Funktionen Transaction und LockFeature ermöglicht zusätzlich einen schrei-
benden Zugriff auf die Daten.
Das Open Geospatial Consortium entwickelt neben WMS und WFS weitere Stan-
dards zum Austausch von Geodaten im Web:
Der Web Map Tile Service (WMTS), der konzeptionelle Ähnlichkeiten zum Web
Map Service besitzt, dient dazu, standardisiert digitale Kartenkacheln (map tiles)
anzubieten und abzurufen (vgl. OGC 2019g). Diese Kartenkacheln können in einem
Browser angezeigt werden, in dem viele einzeln über das Web angeforderte Bild-
dateien nahtlos verbunden werden (vgl. z.B. Laden von OSM-Tiles in einer Web-
Mapping-Anwendung, vgl. Abb. 5.28). Demgegenüber zeigt ein WMS normaler-
weise ein einzelnes großes Bild an.
Der Web Coverage Service (WCS) definiert eine standardisierte Schnittstelle und
Operationen zum interoperablen Zugriff auf sog. Coverages. Der Begriff
256 Standards und Interoperabilität von Geodaten
„coverage“ oder „grid coverage“ bezieht sich auf Rasterdaten wie z.B. digitale Luft-
bilder, Satellitenbilder oder sonstige digitale Rasterdaten, bei denen jeder Raster-
zelle keine Graustufen wie einem Photo, sondern Datenwerte zugeordnet sind (z.B.
Höhenangaben in einem sog. Elevation Grid). Ein WCS liefert die angeforderten
Rasterdaten mit den zugehörigen ausführlichen Beschreibungen zurück. Wie ein
WFS ermöglicht ein WCS die Weiterverarbeitung der Daten auf der Clientseite.
Der Web Catalogue Service (CSW, Catalogue Service for the Web) ermöglicht
eine standardisierte Recherche nach Geodaten und Geodatendiensten auf der Basis
von Metadaten.
Ein Web Processing Service (WPS) bietet eine Standardschnittstelle, die die Auf-
gabe vereinfacht, Berechnungsdienste über Webdienste zugänglich zu machen. Zu
diesen Diensten gehören Verarbeitungsprozesse, die standardmäßig in GIS-
Software verfügbar sind, wie z.B. Pufferbildung oder Verschneidungen, sowie spe-
zialisierte Prozesse für die räumlich-zeitliche Modellierung und Simulation (vgl.
OGC 2019h). Festgelegt werden Verfahrensregeln für die Datenein- und Datenaus-
gabe für Funktionen wie z.B. Pufferbildung oder Verschneidungen. Der Standard
legt ferner fest, wie ein Client die Ausführung eines (Geoverarbeitungs-) Prozesses
anfordern kann und wie die Ergebnisse des Prozesses verarbeitet werden. Er defi-
niert eine Schnittstelle, die die Veröffentlichung von räumlichen Analyseprozessen
ermöglicht und das Auffinden und die Anbindung von Clients an derartige Prozesse
unterstützt. Dabei kann ein WPS sowohl Vektor- als auch Rasterdaten verarbeiten.
Ein WPS bietet drei verschiedene Funktionen, die von einem Client angefordert
werden können:
- Durch „GetCapabilities“ werden dem Client Metadaten geliefert, die die Fähig-
keiten des verfügbaren Dienstes beschreiben (u.a. Metadaten über den Anbieter,
eine Liste der verfügbaren Operationen oder der angebotenen Prozesse).
- Durch „DescribeProcess“ wird eine detaillierte Prozessbeschreibung geliefert, die
auch die Aufstellung der benötigten Input-Parameter (mit den zulässigen Daten-
formaten) sowie des erwarteten Daten-Outputs enthält.
- Durch „Execute“ wird ein Prozess des WPS angestoßen, der durch entsprechende
Aufrufparameter näher bestimmt werden muss. So müssen z.B. die benötigten
Eingangsdaten, sofern vom Prozess vorgegeben, über den Parameter „DataIn-
puts“ spezifiziert werden. Die Ausgabe kann über „ResponseDocument“ festge-
legt werden.
Ein typischer Beispielaufruf hat die Form:
http://pfad?request=Execute&service=WPS&version=1.0.0&language=de-
DE&Identifier=Buffer&DataInputs=Object=freiflaechen.shp;BufferDistance=10&Respons
eDocument=BufferedPolygon
Der Platzhalter „pfad“ kennzeichnet den Pfad zum Aufruf des Dienstes auf einem
Server. Durch „Identifier“ wird der gewünschte Prozess spezifiziert (hier: Bilden
Geodatendienste 257
eines Puffers). DataInputs legt die benötigten Eingabedaten fest (hier das zu puf-
fernde Shapefile und die Breite des Puffers). Die Rückgabe der Ergebnisse dieser
Operation hängt von der festgelegten Rückgabeform ab. Im einfachsten Fall von
„RawDataOutput“ werden die Ergebnisse direkt zum Client zurückgeliefert (z.B.
als GML-Datei). Die GML-Datei kann aber auch zunächst auf dem Server zwi-
schengespeichert werden. Dann wird nur der Pfad zu dieser Datei zurückgegeben.
Der Client wie z.B. das Geoinformationssystem QGIS kann dann zum passenden
Zeitpunkt die Datei abrufen.
Die Web Processing Services bieten ein großes Potenzial für die Verarbeitung
von Geodaten. Da lediglich auf der Clientseite ein Browser oder ein kleines Java-
Programm benötigt wird, können mit diesem neuen Standard Geodaten systemüber-
greifend analysiert werden, d.h. auf verschiedenen Betriebssystemen und Hard-
wareplattformen (z.B. Desktop, Tablet-PC oder Smartphone). Die Funktionen sind
über das Web überall und zumeist kostenfrei verfügbar. Bislang waren die Analy-
sefunktionen, die ein Geoinformationssystem erst auszeichnen und gegenüber an-
deren Softwaresystemen abgrenzen, den Geoinformationssystemen auf Desktops
vorbehalten (GIS als umfangreiches Softwaresystem, vgl. Kap. 9.3.4). Mit einem
WPS kann ein Anwender ubiquitär und nur auf die Funktionen zurückgreifen, die
er tatsächlich benötigt. Dieser Ansatz ist grundsätzlich benutzerfreundlicher gegen-
über kostenintensiven, häufig überfrachteten und dadurch unübersichtlichen Desk-
top-Geoinformationssystemen. Allerdings steckt die Implementierung von Web
Processing Services noch in den Anfängen. So muss für jede konkrete Analyse der
Aufruf recht umständlich spezifiziert werden, so dass die Handhabung selbst noch
nicht benutzerfreundlich ist. Jedoch unterstützen einige Geoinformationssysteme
den WPS.
Die Möglichkeit, mit Hilfe eines WMS auf Geodaten zuzugreifen, besitzt in einem
Geoinformationssystem eine hohe praktische Relevanz. Vielfach besteht die Auf-
gabe, eigene Geodaten wie z.B. ein kommunales Biotopkataster oder Darstellung
von Freizeiteinrichtungen vor dem Hintergrund weiterer Daten wie z.B. Grundkar-
ten der öffentlichen Verwaltung zu präsentieren. Diese Hintergrundinformationen
können benutzereigene Karten wie z.B. der Stadtplan Ruhr für die Städte und Ge-
meinden des Ruhrgebiets, nur lokal verfügbare Karten mit Radwegen, amtliche Ge-
obasisdaten wie die Digitale Topographische Karte 1 : 25.000 oder digitale amtliche
Liegenschaftskarten sein.
Gerade viele amtliche Geobasisdaten sind über einen WMS direkt verfügbar und
müssen nicht umständlich beschafft und installiert werden. Die Daten haben auf
dem Client stets die größtmögliche Aktualität. Sie liegen zudem blattschnittfrei vor.
Über eine Authentifizierung kann erreicht werden, dass nur ein spezieller Nutzer-
kreis mit besonderen Zugriffsrechten auf die Geodaten zugreifen kann (u.a. auf-
grund von Vorgaben zum Datenschutz z.B. bei der Darstellung von sensiblen Daten
wie Altlastenverdachtsflächen oder Besitzerinformationen). Natürlich sind hierüber
258 Standards und Interoperabilität von Geodaten
auch eine Lizensierung und ein kostenpflichtiger Zugriff auf Geodaten zu realisie-
ren. Die Landesvermessungsämter stellen viele, Berlin, Hamburg, Nordrhein-West-
falen und Thüringen sowie das Bundesamt für Kartographie und Geodäsie sämtli-
che Geobasisdaten u.a. als WMS zur Verfügung.
Abb. 6.6: Aufruf eines WMS und Einbindung der DTK25 in QGIS
Metadaten 259
6.5 Metadaten
Einen allgemeinen Standard von Metadaten bildet die Metadatenmenge der Dublin
Core Metadata Initiative (DCMI). Er umfasst ein Vokabular von 15 Eigenschaften,
die zur Beschreibung von allgemeinen Ressourcen verwendet werden können. Der
Name „Dublin“ geht auf einen Workshop im Jahre 1995 in Dublin, Ohio zurück.
Die Bezeichnungen „core“, „core elements“ bzw. „Kernfelder“ machen deutlich,
dass die Elemente breit, umfassend und generisch zu verstehen sind, um eine große
Spannweite von Ressourcen beschreiben zu können. Dieser allgemeine Standard ist
nicht auf Geodaten eingeschränkt. Allerdings können durch das DCMI-Element
„coverage“ räumliche und zeitliche Merkmale angegeben werden. Die ISO
15386:2017 enthält die 15 Kernmetadatenelemente der Tabelle 6.3 (vgl. ISO
2019c).
Tabelle 6.3: Metadatenmenge der Dublin Core Metadata Initiative (nach Dublin Core Metadata Ini-
tiative 2012)
TermName Definition
Ein Vorbild für den Aufbau von Metainformationen bildete der Content Standard
for Digital Geospatial Metadata (CSDGM), der vom US-Federal Geographic Data
Committee (FGDC) entwickelt wurde (vgl. Tab. 6.4). Anhand von zehn Kategorien
und insgesamt durch mehr als 200 Attribute werden Inhalt und Entstehungskontext
raumbezogener Daten beschrieben sowie Regeln zur Dokumentation aufgestellt.
Seit 1995 musste jede US-Behörde sämtliche neuen raumbezogenen Daten, die von
262 Standards und Interoperabilität von Geodaten
ihr erhoben oder direkt bzw. indirekt produziert werden, nach diesem Standard do-
kumentieren (vgl. Federal Geographic Data Committee 1998 S. V). Inzwischen
werden US-Bundesbehörden angehalten, internationale Standards zu nutzen. Das
FGDC befürwortet die Anwendungen von ISO-Metadatenstandards. US-
Bundesbehörden und Akteure beim Aufbau einer nationalen Geodateninfrastruktur
(National Spatial Data Infrastructure NSDI) werden aufgefordert, auf ISO-
Metadaten umzusteigen (vgl. Federal Geographic Data Committee 2019a).
Tabelle 6.4: Content Standard for Digital Geospatial Metadata der FGDC von 1998 (vgl. Federal
Geographic, Data Committee 2019b)
Gruppen ausgewählte Attribute
identification infor- u.a. citation, description, time period of content, status, access con-
mation straints, keywords
data quality informa- u.a. attribute accuracy, positional accuracy, logical consistency report,
tion completeness report
spatial data organiza- u.a. point and vector object information (u.a. types and numbers of vector
tion information objects), raster object information (u.a. row count)
spatial reference in- horizontal_and_vertical_coordinate_system definition (u.a. map projec-
formation tion)
entity and attribute detailed_description u.a. entity_type, attribute_definition, attribute_do-
information main values
distribution infor- u.a. distributor, digital_transfer_option, available_time_period
mation
metadata reference metadata_date, metadata_use_constraints, metadata_security_infor-
information mation
citation information publication_date, title, series_information, publications_information
time period infor- single_date/time, range_of_dates/times
mation
contact information contact_person_primaty, contact_position, contact_electronic_mail-ad-
dress
Der Standard der International Organization for Standardization (ISO), ISO 19115
„Geographic Information – Metadata“, ist der international bedeutendste Metada-
tenstandard. Er definierte eine umfassende Menge von über 400 Metadatenelemen-
ten. Der Kerndatensatz der ISO 19115:2003 (Core Metadata Elements), der zur
Identifizierung eines Datensatzes benötigt wird, bestand aus lediglich 22 Elemen-
ten, die zudem nicht alle als verpflichtend vorgegeben werden. Die überarbeitete
Norm ISO 19115-1: 2014 definiert das Schema, das für die Beschreibung geogra-
phischer Informationen und Dienste mit Hilfe von Metadaten erforderlich ist (vgl.
ISO 2019d, auch 2018 als DIN veröffentlicht). Es liefert Informationen über die
Identifizierung, den Umfang, die Qualität, die räumlichen und zeitlichen Aspekte,
den Inhalt, den räumlichen Bezug, die Darstellung, die Verteilung und andere Ei-
genschaften digitaler geographischer Daten und Dienste. Die Norm berücksichtig
inzwischen die zunehmende Nutzung des Web für das Metadaten-Management
Metadaten 263
Tabelle 6.5: ISO 19115:2003 Core Metadata for Geographic Datasets der ISO 19115
(Koordinierungsstelle GDI-DE 2008)
Dataset title (M)
Dataset reference date (M)
Abstract describing the dataset (M)
Dataset topic category (M)
Dataset language (M)
Metadata point of contact (M)
Metadata date stamp (M)
Geographic location of the dataset (by four coordinates or by geographic identifier) (C)
Dataset character set (C)
Metadata language (C)
Metadata character set (C)
Dataset responsible party (O)
Spatial resolution of the dataset (O)
Distribution Format (O)
Spatial representation type (O)
Reference system (O)
Lineage statement (O)
On-line resource (O)
Metadata file identifier (O)
Metadata standard name (O)
Metadata standard version (O)
Additional extent information for the dataset (vertical and temporal) (O)
M – verpflichtend (engl. mandatory), O – optional
C – unter bestimmten Bedingungen verpflichtend (engl. mandatory under certain conditions)
Die Website Geoportal.de, die ein gemeinsames Projekt von Bund und Ländern
darstellt, eröffnet den Blick auf die Inhalte der Geodateninfrastruktur Deutschland
(GDI-DE). Das Geoportal.de ist somit die zentrale Geodatensuchplattform für
Deutschland (vgl. Geoportal.de 2019a,). Über den angebundenen Geodatenkatalog-
DE lassen sich Datenbestände, die entsprechend den Standards vorgehalten werden,
durchsuchen sowie weiterführende Informationen und Metadaten anzeigen. Die
Geodatensuchmaschine erlaubt, dezentral gehaltene Geodaten aus unterschiedli-
chen öffentlichen Quellen zu recherchieren. Über die Unterseiten „Service“ und
weiter „Viewer und Portale“ gelangt man zu einer Vielzahl von Geodatenportalen,
die umfangreiche Informationen zu Datenbeständen und Datenangeboten bereithal-
ten.
Die technische Umsetzung des Geodatenkatalog-DE basiert auf einer Vernet-
zung der Metadatenkataloge innerhalb der Geodateninfrastruktur Deutschland
(GDI-DE). Im Frühsommer 2019 waren ca. 35 Katalogdienste mit ca. 135.000 Me-
tadatensätzen eingebunden (vgl. Geoportal.de 2019b).
Insbesondere ist ein Leitfaden vorhanden, mit dem ein ISO-konformer Metada-
tensatz erzeugt werden kann, der zudem die Anforderungen erfüllt, die sich aus der
INSPIRE-Durchführungsbestimmung zu Metadaten ergeben (vgl. GDI-NI 2019c).
Dieser Leitfaden wird unterstützt durch eine Excel-Tabelle, deren Felder die Meta-
daten der GDI-NI beschreiben. Die Tabelle 6.6 fasst diese Vorlage zusammen, wo-
bei nur Pflichtfelder wiedergegeben sind. Deutlich werden soll beispielhaft, welche
Arten von Informationen überhaupt erfasst werden. Somit ist herauszustellen, dass
die in der Tabelle 6.6 aufgelisteten Merkmale nicht das vollständige Metadatenpro-
fil der GDI-NI ausmachen.
Tabelle 6.6: Metadatenelemente zur Übernahme in die GDI-NI (ohne optionale Angaben, nach Me-
tadatenprofil GDI-NI 2.1.1“
Titel Müllabfuhrbezirke 1:5000 (Umringe) x
Kurzbeschreibung Die Müllabfuhrbezirke zeigen … x
Eindeutiger Identifikator x
INSPIRE-Annex-Thema* Versorgungswirtschaft und staatliche Dienste x
Schlagwort 1 (GEMET) Abfall y
Schlagwort 2 (GEMET) Verwaltungsgrenze y
ISO-Schlagwort Grenzen x
Bearbeitungsstatus abgeschlossen y
Datum 05.11.2009 x
Art des Datums Publikation x
Maßstabszahl 5000 y
Räumliche Darstellungsart Vektor y
Sprache deutsch x
Zeichensatz utf8 x
Dienststelle (a) Stadt Musterort x
Funktion der Dienststelle (a) Eigentümer x
Person (a) Mitarbeiter Geodaten y
Funktion der Person (a) Sachbearbeiter y
Straße (a) Beispielstraße 23a y
PLZ (a) D-30659 y
Ort (a) Hannover y
E-Mail (a) [email protected] x
URL (a) http://www.beispielstadt.de/ x
Telefonnummer (a) +49 511 / 6 46 09 - 0 y
West (b) 6.76 x
Ost (b) 11.66 x
Süd (b) 51.08 x
Nord (b) 54.06 x
Koordinatenreferenzsystem (b) EPSG:31467 (Gauß-Krüger, 3. Meridianstreifen) x
Anfangsdatum (b) 31.01.2008 y
Enddatum (b) 31.12.2012 y
Art der Daten (b) Datenserie (oder Datenbestand oder Software) x
Basis der Datenerstellung (b) aus Grundkarte 1:5000 und eigener Erhebung x
Datenformat (c) Shape y
Medium (c) CD-ROM y
Kosten (c) kostenfrei y
URL (c) http://www.beispielstadt.de/muell/downloads/ x
Anwendungseinschränkung (c) Bekannter Datenfehler in … x
266 Standards und Interoperabilität von Geodaten
Über das Geodatenportal Niedersachsen ist für die Geodaten führenden Stellen eine
Erfassung von Metadaten zu niedersächsischen Geodaten, Geodatendiensten und
Fachinformationssystemen möglich. Zur Verfügung gestellt wird eine Weboberflä-
che, die die Vorgaben für das Metadatenprofil der GDI-NI erfüllt. Mit ihr können
z.B. INSPIRE-konforme Metadaten erzeugt werden. Die Datensätze werden auto-
matisiert in die zentrale Geodatensuche Niedersachsen übernommen und stehen so-
mit für die von INSPIRE geforderte öffentliche Recherche innerhalb Europas zur
Verfügung (vgl. GDI-NI 2019d). Darüber hinaus bestehen (kostenpflichtige) Soft-
wareprogramme unterschiedlicher Anbieter, die aber in der Regel nicht von Kom-
munen eingesetzt werden, die über wenige eigene Geodaten verfügen oder die sich
z.B. aus Kostengründen keine eigene Metadatenhaltungskomponente anschaffen
möchten.
Qualität von Daten und Geodaten 267
6.6.1 Qualitätsmerkmale
Metadaten dienen vor allem der inhaltlichen Beschreibung von Daten. Hierdurch
werden auch Qualitätsmerkmale erfasst und beschrieben, aber weniger die Qualität
von Daten. Diese kann nur auf der Basis dieser Qualitätsmerkmale im Hinblick auf
eine konkrete Fragestellung oder Eignung für einen klar definierten Zweck beurteilt
werden. Zwar ist die geometrische Auflösung von Rasterdaten (weitaus) geringer
als die von Vektordaten, Rasterdaten sind deswegen aber nicht „schlechter“ als
Vektordaten. Rasterdaten eignen sich zwar nicht zum Aufbau von z.B. Liegen-
schafts- oder Leitungskatastern, sind aber das gängige Datenmodell z.B. bei einem
Emissionskataster oder bei Luftreinhalteplänen.
Allgemein kann mit Qualität die Gesamtheit aller charakteristischen Eigenschaf-
ten eines Produktes bezeichnet werden. Als Datenqualität kann die Menge von Da-
tenmerkmalen umschrieben werden, die den Einsatz der Daten für eine konkrete
Aufgabe ermöglichen („quality = fitness for use“). Metadaten liefern Bewertungs-
merkmale und ermöglichen somit letztlich die Mehrfachnutzung von Daten (vgl.
Data quality information als Teil von ISO 19115-1:2014).
Qualitätsangaben können quantitativ durch geeignete Maßzahlen oder Parameter
wie Standardabweichung, RMS-Fehler (vgl. Kap. 4.2.5.5), Konfidenzintervalle o-
der Wahrscheinlichkeiten angegeben oder durch qualitative, rein textliche Beschrei-
bungen benannt werden. Tabelle 6.7 listet die Qualitätsparameter nach der im Jahre
2002 verabschiedeten ISO-Norm ISO 19113 auf. Sie können nach quantitativen und
nichtquantitativen Merkmalen unterschieden werden. Inzwischen ist diese alte
durch die neue Norm ISO 19157:2013 ersetzt worden, die die Prinzipien für die
Beschreibung der Qualität von geographischen Daten festlegt. Die Norm
- definiert Komponenten zur Beschreibung der Datenqualität;
- legt Komponenten und Inhaltsstruktur eines Registers für Datenqualitätsmessun-
gen fest;
- beschreibt allgemeine Verfahren zur Bewertung der Qualität geographischer Da-
ten;
- legt Grundsätze für die Berichterstattung über die Datenqualität fest.
Insbesondere werden Datenqualitätskennzahlen zur Verwendung bei der Bewer-
tung und Berichterstattung der Datenqualität definiert (vgl. ISO 2019e).
268 Standards und Interoperabilität von Geodaten
Quantitative Qualitätsmerkmale
Vollständigkeit (com- Datenausschuss (zu viele Daten), Datenausfall (fehlende Daten)
pleteness)
Logische Konsistenz Konsistenz und Widerspruchsfreiheit auf der konzeptionellen, logi-
(logical consistency) schen und physikalischen Datenstruktur, Einhaltung von Wertebe-
reichen, topologische Konsistenz
Lagegenauigkeit (po- absolute (oder externe), relative (oder interne) Genauigkeit, Genau-
sitional accuracy) igkeit von Gitter- und Rasterdaten
Zeitliche Genauigkeit Genauigkeit einer Zeitmessung, Gültigkeit von zeitlichen Angaben
(temporal accuracy) von Daten und zeitlichen Beziehungen, Konsistenz der Chronologie
Thematische Genau- korrekte Klassifizierung der Geoobjekte, korrekte Erfassung von
igkeit (thematic ac- nichtquantitativen und Genauigkeit von quantitativen Attributen)
curacy)
Eine Geodateninfrastruktur (GDI, engl. Spatial Data Infrastructure, SDI) ist durch
eine (daten-)technische und eine organisatorische Sichtweise gekennzeichnet. Zum
einen umfasst eine GDI zumeist über das Internet vernetzte Geodatenbanken, die
Geobasisdaten und Geofachdaten enthalten, sowie Funktionalitäten zum Austausch
dieser Daten. Zum anderen gehören zu einer GDI rechtliche, organisatorische und
fachliche Regelungen, die den Auf- und Ausbau sowie die Pflege vorantreiben und
sichern. Das bundesdeutsche Geodatenzugangsgesetz definiert: „Geodateninfra-
struktur ist eine Infrastruktur bestehend aus Geodaten, Metadaten und Geodaten-
diensten, Netzdiensten und -technologien, Vereinbarungen über gemeinsame Nut-
zung, über Zugang und Verwendung sowie Koordinierungs- und Überwachungs-
mechanismen, -prozesse und -verfahren mit dem Ziel, Geodaten verschiedener Her-
kunft interoperabel verfügbar zu machen.“ (§ 3 Abs. 5 Gesetz über den Zugang zu
digitalen Geodaten von 2009, vgl. Kap. 6.7.3). Generell ist die Optimierung von
Zugang und Austausch von Geodaten das Kernziel zum Aufbau und Betreiben einer
Geodateninfrastruktur. Hierdurch soll eine bessere, d.h. zuverlässigere, schnellere,
barrierefreie Informationsgewinnung erreicht werden.
Inzwischen ist der Aufbau von Geodateninfrastrukturen ein Anliegen in vielen
Ländern wie in der Europäischen Gemeinschaft, in den USA (National Spatial Data
Infrastructure NSDI) oder Kanada (Canadian Geospatial Data Infrastructure
CGDI). In Deutschland wie in den anderen Ländern der EU ist der Aufbau einer
nationalen Geodateninfrastruktur eng verbunden mit europäischen Initiativen (vgl.
Kap. 6.7.2). Ebenso ist eine grundlegende Voraussetzung für das Funktionieren von
Geodateninfrastrukturen die Beachtung von internationalen Normen und Standards.
Erst dadurch wird die reibungslose Zusammenarbeit einzelner unabhängiger und
durchaus heterogener Bestandteile möglich (vgl. vor allem verteilte Datenangebote
in proprietären Formaten).
6.7.2 INSPIRE
in der Regel Steuermittel verwandt wurden und die Daten somit einen Teil der all-
gemein vorhandenen Infrastruktur darstellen (sollten). In Deutschland wurde hierzu
das Kunstwort „geldleistungsfrei“ geschaffen.
Mit der Novellierung des Geodatenzugangsgesetzes des Bundes vom 07.11.2012
wurde die Grundlage geschaffen, Geodaten und Geodatendienste einschließlich zu-
gehöriger Metadaten nach dem GeoZG grundsätzlich geldleistungsfrei für die kom-
merzielle und nichtkommerzielle Nutzung zur Verfügung zu stellen. Diese Ände-
rung betrifft allerdings nur die Geodaten und Geodatendienste des Bundes. Sie dient
dem Abbau von Bürokratie, indem die Nutzungsbedingungen einheitlich und ver-
bindlich geregelt werden. Hierdurch soll das in den Geodaten des Bundes liegende
Wertschöpfungspotenzial aktiviert werden. Allerdings betrifft diese Freigabe nur
Datenbestände in der Zuständigkeit des Bundes. Im Rahmen des Open-Data-Ange-
bots des Bundesamtes für Kartographie und Geodäsie (BKG) werden Karten und
Daten, die ab einem Maßstab 1 : 250.000 und kleiner durch das BKG selbst erzeugt
und gepflegt werden, gemäß Geodatenzugangsgesetz kostenfrei zur Verfügung ge-
stellt (vgl. BKG 2019).
Der Grundgedanke von INSPIRE ist in anderen Ländern schon länger umgesetzt.
In den Niederlanden sind Katasterdaten frei verfügbar. In Österreich steht für nicht-
kommerzielle Nutzung ein hochauflösender kostenfreier Orthophoto-WMS-Dienst
zur Verfügung. In Großbritannien bieten der British Geological Service mit dem
Vorhaben OpenGeoscience und der Ordnance Survey mit dem Projekt OS Open-
Data neben freien Daten auch Dienste und Schnittstellen für die freie Integration in
eigene Anwendungen an.
Ferner findet man im GEOviewer einen Open Data Downloadclient. Darüber hinaus
bestehen vielfältige Webdienste, die im GEOkatalog.NRW und angeschlossenen
Katalogen mit Metadaten beschrieben sind.
Besonders ist auf die umfangreichen standardisierten Geodatendienste der Be-
zirksregierung Köln, Geobasis NRW, hinzuweisen, die eine hersteller- und platt-
formneutrale Nutzung der Geobasisdaten der Landesvermessung und des Liegen-
schaftskatasters NRW webbasiert ermöglichen (WMS/WMTS, WFS u. WCS, vgl.
Geobasis.NRW 2019b).
Eine weitere Visualisierungskomponente für NRW stellt TIM-online dar (vgl.
TIM-online 2019). TIM-online ist eine Internet-Anwendung des Landes Nordrhein-
Westfalen zur Darstellung der Geobasisdaten der Vermessungs- und Katasterver-
waltung NRW. Der Dienst bietet in Abhängigkeit der Zoomstufe sämtliche Topo-
graphische Karten von der Übersichtskarte 1:500.000 bis zur DTK 25 und DTK 10
sowie zur Deutschen Grundkarte 1:5.000, ferner die Liegenschaftskarte mit der Ab-
fragemöglichkeit nach Flurnummer sowie Orthophotos (d.h. Senkrechtluftbilder).
Zudem bestehen Druck- und Downloadmöglichkeiten.
Literatur
Abb. 7.1: Visualisierung als ein Werkzeug wissenschaftlicher Forschung nach DiBiase 1990 (zi-
tiert nach MacEachren 1994 S. 3)
Eine Auswertung mit Methoden der deskriptiven Statistik liefert das fälschliche
Bild von Gleichheit bzw. Homogenität der Verteilungen jeweils der xi und yi sowie
der Zusammenhänge zwischen xi und yi. Auch ein Betrachten der Daten in Tabelle
7.1 führt zu keinem (großen) Erkenntnisgewinn. Man wird erkennen, dass x1 = x2 =
x3 und dass die Werte der Variablen x4 fast konstant sind, aber einen sog. Ausreißer
aufweisen. Dann ist eine Auswertung mit Hilfe von Parametern der statistischen
Methodenlehre am Ende. In der Regel wird ein Bearbeiter gar nicht auf die Idee
kommen, dieses Resultat zu hinterfragen, sondern genau dieses mit Hilfe objektiver
statistischer Parameter gewonnene Bild von Homogenität als Endergebnis präsen-
tieren. Erst die Darstellung der Merkmalspaare in einem Diagramm, also die Visu-
alisierung, bricht dieses Vorgehen auf. Die vier Merkmalspaare zeigen nämlich sehr
unterschiedliche Zusammenhangsstrukturen, die durch die statistischen Parameter
nicht aufgelöst werden. Diese Auswertung einer noch sehr überschaubaren Daten-
menge muss Wissenschaftler in eine tiefe Depression verfallen lassen. Wie sieht die
Situation bei großen Datenbeständen aus? Können parametergestützte statistische
Auswertungen „richtige“ Ergebnisse liefern? Besteht eine Gefahr, dass diese als
objektiv eingeschätzten Methoden Sachverhalte verschleiern?
Häufig reicht die Berechnung von statistischen Parametern allein nicht aus. Da-
her sollen in der Korrelations- und Regressionsrechnung bei quantitativen Merkma-
len stets Streuungsdiagramme (sog. Korrelogramme, Scatterplots) erstellt werden
(vgl. de Lange u. Nipper 2018 S. 127). Allerdings garantieren graphische Präsenta-
tionsformen keineswegs den gewünschten Erkenntnisgewinn. So können vor allem
282 Visualisierung raumbezogener Informationen
7.1.3 Geovisualisierung
Die Geovisualisierung kann als eine besondere Form der computergestützten wis-
senschaftlichen Visualisierung verstanden werden. Der Begriff „Geographic Visu-
alization (GVIS)“ geht auf MacEachren u. Ganter (1990) zurück und wurde später
auf „Geovisalization“ verkürzt (vgl. MacEachren u.a. 1999). Die Definition von
2001 hebt die visuelle Exploration anstelle von Visualisierung heraus: „Geovisual-
ization integrates approaches from visualization in scientific computing (ViSC),
cartography, image analysis, information visualization, exploratory data analysis
(EDA), and geographic information systems (GISystem) to provide theory, meth-
ods, and tools for visual exploration, analysis, synthesis, and presentation of geo-
spatial data (with data having geospatial referencing).“ (MacEachren u. Kraak 2001
S. 3).
Die interdisziplinäre Sicht auf die Kartographie 283
Grundlage der konzeptionellen Entwicklung bildete das Modell des Map Use Cubes
nach MacEachren (1994), das vier verschiedene Funktionen der Kartennutzung her-
ausstellt (Präsentation, Synthese, Analyse, Exploration, vgl. Abb. 7.3, zur Entwick-
lung vgl. Kraak u. MacEachren 2005 sowie Schiewe 2013). Die Geovisualisierung
verfolgt somit einen integrativen bzw. interdisziplinären Ansatz, bei dem die Kar-
tographie eine bedeutende Funktion besitzt. Die Geovisualisierung findet ihre Fort-
setzung im jüngeren interdisziplinären Forschungsbereich „Geovisuelle Analytik“
(Geovisual Analytics oder Geospatial Visual Analytics, zum Einstieg vgl. Meng
2011 S. 252 – 253, vgl. G. u. N. Andrienko 2005 u. G. Andrienko u.a. 2007 u. 2010).
Abb. 7.3: Map Use Cube nach MacEachren 1994 in der Darstellung von Schiewe 2013
Der Ausdruck Visualisierung schafft somit eine neue Begrifflichkeit, die zweiseitig
zu verstehen ist (vgl. Schiewe 2013). Einerseits steht das sichtbare Produkt im Mit-
telpunkt, also die Generierung von Karten, um räumliche Daten und Informationen
zu veranschaulichen und sichtbar zu machen (d.h. klassisches Anliegen der Karto-
graphie). Andererseits wird die Kartennutzung herausgestellt, die zur Generierung
von Hypothesen und Wissen durch den Nutzer und durch das Nutzen einer interak-
tiven Umgebung (z.B. ein Geoinformationssystem) führt. Die interaktive Visuali-
sierung wird als explorativer Forschungsansatz verstanden, um komplexe und große
Datenmengen im wissenschaftlichen Erkenntnisprozess zu verarbeiten.
284 Visualisierung raumbezogener Informationen
noch keine eigenen Daten hinzufügen. Bereits auf dieser Stufe waren multimediale
Karten bzw. Präsentationen von zentraler Bedeutung, bei denen über sog. Hyper-
links Graphiken, Bilder, Photos, Luftbilder, Texte oder Ton aufzurufen sind. Grund-
legend ist hierfür das sog. Hypermap-Konzept, das analog zu dem Hypermedia-
Konzept aufgebaut ist (vgl. Abb. 7.4).
Ausgehend von einer digitalen Übersichtskarte am Monitor, die von einer CD
oder aus dem Internet abgerufen wird, erschließen sich nacheinander vielfältige In-
formationen, die nach inhaltlichen Zusammenhängen durch Verweise miteinander
verbunden sind. Der Benutzer steuert selbstständig in Abhängigkeit seiner Frage-
stellung und seines Vorwissens durch das Informationsangebot. Das kontextabhän-
gige Navigieren durch einen Datenbestand und die Datenexploration mit einem di-
gitalen Informationssystem wird durch einen Rückkopplungsprozess charakteri-
siert, der in einem Dialog immer fortschreitende Spezifizierungen der Fragestellung
ermöglicht und jeweils neue, das Problem genauer kennzeichnende Antworten an-
bietet (vgl. Abb. 7.5). Diese Datenexploration schafft gegenüber der klassischen
Nutzung analoger Karten den entscheidenden Qualitätssprung! Anzumerken ist,
dass auch ein Geoinformationssystem multimediale Präsentation und Datenexplo-
ration bietet, dass aber erst das Web diesen Darstellungsmöglichkeiten aufgrund der
freien Verfügbarkeit von Anwendungen und Daten sowie einer einfachen Handha-
bung den Durchbruch verschaffte.
In der dritten Entwicklungsstufe ergeben sich über den multimedialen Ansatz und
Datenexploration hinaus, die bereits gegenüber analogen Karten „revolutionär“
sind, noch weiter reichende Möglichkeiten:
Im Web 2.0 werden Nutzer nicht nur zum Konsumenten, sondern auch zum Pro-
duzenten eigener graphischer Darstellungen.
Die rasante Verbreitung von mobilen Endgeräten führt zu einem enormen und
stetig wachsenden Angebot von Apps, die Graphik- oder Kartenanwendungen wie
selbstverständlich nutzen und die zumeist mit dem Web verbunden sind.
Die interdisziplinäre Sicht auf die Kartographie 287
Mit zunehmendem Grad der Interaktionen von Nutzer und digitaler Präsentation
eröffnen sich mit Anwendungen zur Augmented und Virtual Reality völlig neue
Darstellungsmöglichkeiten.
Die drei Screenshots zeigen für die deutschen Bundesländer den für die Raumpla-
nung wichtigen Indikator „Wohnfläche pro Einwohner in m2“. Somit ist jeweils ein
Die interdisziplinäre Sicht auf die Kartographie 289
Grundlegend ist somit die Forderung nach einer korrekten, unverzerrten, nicht ma-
nipulierten und objektiven Wiedergabe von Informationen. Dies ist leider eine Illu-
sion, da eine graphische Präsentation immer von den Anstrengungen und Fertigkei-
ten des Verfassers abhängig ist, graphische Stilmittel adäquat einzusetzen, und stets
der graphische Kommunikationsprozess (vgl. Kap. 7.3) mit seinen vielfältigen Fil-
tern einen objektiven Erkenntnisprozess erschwert. So unterliegen kartographische
Darstellungen der Gefahr der Manipulation oder Fehleinschätzung der Inhalte. Ge-
rade ein „ungeübter“ Kartenleser wird die aufgezeigten Grenzen der Interpretation
von Karten nicht kennen. Die langjährig bewährten Darstellungsprinzipien der The-
matischen Kartographie bzw. der graphischen Semiologie helfen, die graphischen
Stilmittel auch in der Geoinformatik adäquat einzusetzen.
In der Geoinformatik finden sich im Zuge der starken Verbreitung von Smartphones
immer mehr Anwendungen von Augmented Reality. Unter Augmented Reality
(AR) oder erweiterte Realität ist zunächst allgemein die computergestützte Erwei-
terung der Realitätswahrnehmung zu verstehen, die alle menschlichen Sinneswahr-
nehmungen umfassen kann. Zumeist beschränken sich Anwendungen der AR auf
visuelle Informationen, die die Realität durch computergenerierte Zusatzinformati-
onen wie Texte, Bilder oder Videos ergänzen. Fast alltägliche Beispiele finden sich
bei Fernsehübertragungen von Fußballspielen, wenn z.B. eine Linie oder ein Kreis
eingeblendet werden, die eine Abseitssituation oder einen von gegnerischen Spie-
lern bei Freistößen freizuhaltenden Bereich markieren.
Für die Geoinformatik bedeutender sind Ansätze, bei denen in Echtzeit in einer di-
gitalen Aufnahme der realen Umgebung im Display eines Smartphones oder Tab-
letcomputers Zusatzinformationen in einer Überlagerung des Kamerabildes einge-
blendet werden. Diese Technik hat in dem Spiel Pokémon Go für Handheld-Mobil-
geräte wie Smartphones und Tabletcomputern große Verbreitung gefunden. Benö-
tigt werden verschiedene Sensoren, die inzwischen auf modernen Mobilgeräten
standardmäßig vorhanden sind. Die Sensoren für das Satellitennavigationssignal
und das Gyroskop (Lage- und Drehratensensor) dienen dazu, den Anwender exakt
zu positionieren und die eingeblendeten Informationen lagerichtig im Vollbild dar-
zustellen. Dies kann wie im Spiel eine virtuelle Figur oder auch erklärender Text
sein (zum Einstieg vgl. Broll 2013).
Eine Umsetzung dieser Spielidee kann zur Dokumentation von Landschaftsverän-
derungen durch eine breite Öffentlichkeit eingesetzt werden (Sammlung von Photos
durch crowd sourcing). Zu gewährleisten ist, dass die Photos von einem Objekt
(z.B. ein Uferabschnitt) von einem fast identischen Aufnahmestandort und aus fast
identischen Aufnahmewinkeln von unterschiedlichen Nutzern aufgenommen wer-
den können. Der Nutzer wird zu einem Aufnahmestandort navigiert, an dem die
Kamerasicht des Smartphones zu einer Augmented Reality Ansicht wechselt. An-
schließend wird der Nutzer angeleitet, die Kamera auf eine eingeblendete Zielmar-
kierung auszurichten und anschließend ein Photo zu erstellen (vgl. Albers u.a. 2017,
vgl. Kreuziger 2014).
Die interdisziplinäre Sicht auf die Kartographie 291
Zukunftsträchtig ist der Einsatz von Augmented Reality in der Navigation. Im Ge-
gensatz zur bekannten Turn-by-Turn-Navigation gängiger Navigationssysteme
kann die Routenfindung durch eine Abfolge von markanten Landmarken (z.B.
Kirchtürme, Gebäude) auf dem Weg zum Ziel erreicht werden. In der Kamera des
Smartphones werden durch Pfeile die Richtung zum nächsten Wegpunkt sowie das
Bild (ggf. mit Text) angezeigt, das das nächste Zwischenziel wiedergibt (vgl. den
Prototypen GuidAR in Schofeld u.a. 2017). Diese Navigation entspricht eher einer
intuitiven Wegführung („von der Kreuzung geradeaus weiter bis zum weißen Denk-
mal“), sie ist aber extrem aufwendig, da die Erfassung der Landmarken vorausge-
setzt wird. Weitere vielfältige Anwendungsmöglichkeiten sind fast nicht zu überse-
hen: Darstellung von Gebäudeentwürfen vor dem Hintergrund von Baulücken, Ein-
blenden von Daten zur Tragfähigkeit von Böden und Brücken, von Gebäudeinfor-
mationen im Katastropheneinsatz oder die Projektion von Navigationshinweisen
auf die Windschutzscheibe. Als eine besonders innovative, raumbezogene Variante
zur Navigation ist die fühlbare Orientierungshilfe für Blinde und Sehbehinderte mit-
tels Vibrationen über den sog. Navigürtel zu sehen (vgl. feelspace 2019).
Gegenüber Anwendungen von AR-Verfahren können Umsetzungen mit Techniken
der Virtuellen Realität (VR) viel (geräte-)aufwendiger sein, wenn der Nutzer in
Echtzeit in einer computergenerierten virtuellen Welt eingebunden wird und in ihr
agieren bzw. sich in ihr bewegen will. Während AR die Visualisierung der realen
Welt unterstützt bzw. überlagert, gehen die Möglichkeiten von virtueller Realität
einen Schritt weiter. Die reale Welt wird mit dem Nutzer in eine virtuelle Welt ab-
gebildet. Hierzu sind spezielle Ausgabegeräte notwendig (VR-Headsets, Shutter-
brillen), die den Augen direkt virtuelle Bilder der Umgebung übermitteln. Der Nut-
zer sieht nicht mehr die reale Umgebung, sondern nur Bilder der Umgebung oder
einer virtuellen Umgebung. Der Nutzer wird in die virtuelle Welt eingebettet (sog.
Immersion) und agiert z.B. über einen Datenhandschuh mit ihr. Dieses Eintauchen
kann so weit gehen, dass die virtuelle Welt als real angesehen wird. Fahrzeugsimu-
latoren wie z.B. zur Ausbildung von Piloten stellen sicher das bekannteste Anwen-
dungsgebiet dar (zum Einstieg vgl. Dörner u.a. 2013).
In der Geoinformatik sind Anwendungen der virtuellen Realität mit einem hohen
Immersionsgrad nicht verbreitet. Demgegenüber besteht eine Fülle von virtuellen
Darstellungen der Umwelt, die der Nutzer am Monitor betrachten kann. Mit Google
Earth und Google Street View kann man sehr viele Städte und Regionen virtuell am
Monitor in einem Browser „durchwandern“. Vor allem werden virtuelle 3D-Stadt-
modelle zunehmend zur Lösung von raumbezogenen Aufgabenstellungen in der
Stadt- und Raumplanung eingesetzt (vgl. die grundlegende Einführung von Coors
u.a. 2016 sowie Dickmann u. Dunker 2014, Edler u.a. 2018a, Edler u.a. 2018b).
Nach dem Detaillierungsgrad, dem Level of Detail (LoD), werden die 3D-Stadt-
oder Gebäudemodelle unterschieden. Der Level of Detail 1 (LoD1) stellt die Ge-
bäude einheitlich als einfache 3D-Blöcke mit einem Flachdach dar (sog. „Klötz-
292 Visualisierung raumbezogener Informationen
chenmodell“). Die nächste Detailstufe wird mit Level of Detail 2 (LoD2) bezeich-
net, auf der die Gebäude mit den Standarddachformen wie z.B. Flachdach, Pultdach
oder Satteldach sowie die Außenhülle mit einfachen Texturen präsentiert werden.
Der Level of Detail 3 (LoD3) kennzeichnet ein Architekturmodell, das den opti-
schen Eindruck der Originalgebäude am besten wiedergibt (photorealistische Tex-
tur). Aufgrund des hohen Aufwands werden zumeist nur einzelne Gebäude im
LoD3 dargestellt. Noch vereinzelter finden sich Gebäude im Level of Detail 4
(LoD4), die ein Innenraummodell des Gebäudes mit Etagen zeigen.
3D-Stadtmodelle sind für fast jede deutsche Großstadt vorhanden. So wurde z.B. in
Sachsen ein landesweites Digitales 3D-Stadtmodell aufgebaut. Flächendeckend
sind die Gebäude als LoD1 bzw. LoD2 verfügbar (vgl. Landesvermessung Sachsen
2019). Besonders herausragende Beispiele liegen für Karlsruhe und Helsinki vor
(vgl. Karlsruhe 2019, Helsinki 2019, vgl. auch Deutsche Gesellschaft für Kartogra-
phie 2019). Für Rheinland-Pfalz wurde ein landesweites LoD2-Modell erarbeitet
und online zur Verfügung gestellt (vgl. Hilling u. Greuler 2015).
7.2.1 Web-Mapping
sichts- oder Anfahrtsplan. Der Nutzer kann z.B. die Karte verschieben oder vergrö-
ßern. Die Karte selbst bleibt unverändert, sofern keine neuen Kartenausschnitte vom
Server angefordert werden. Bei einer dynamischen Mapserver-Anwendung wird
vom Server eine Karte aufgrund der spezifischen Anfrage des Client dynamisch
erzeugt und an ihn zurückgegeben. Häufig anzutreffende Beispiele im Web sind
Karten, die je nach Zoomstufe ihr Erscheinungsbild verändern und z.B. bei zuneh-
mender Vergrößerung die Symbole differenzierter darstellen (statt eines großen
Symbols für eine Stadt mehrere Symbole räumlich aufgelöst für einzelne Stadtteile
wie z.B. in Google Maps). Weitere Beispiele sind themenbezogene Auswahlmög-
lichkeiten, bei denen der Nutzer unter verschiedenen Datenebenen (Layern) aus-
wählen kann (einfaches Web-Auskunftssystem).
In der Praxis besteht eine häufige Aufgabe darin, Geodaten eines Unternehmens
oder einer Behörde, wie z.B. Anfahrtskarten, ein Baulandkataster oder eine Karte
der Bodenrichtwerte, Mitarbeitern oder einer größeren Öffentlichkeit zur Verfü-
gung zu stellen. Dies setzt die Bereitstellung eines geeigneten Serversystems und
einer Mapping-Software auf dem Client voraus (vgl. Kap. 7.1.3 und zu Web-Map-
ping als WebGIS Ersatz Kapitel 9.2.3). Das Beispiel der freien Mapserver-Software
„GeoServer“ zeigt, wie Geodaten serverseitig zur Verfügung gestellt werden (vgl.
Abb. 7.11). In der Standardkonfiguration, die im Download der Software enthalten
ist, kommt der Apache Tomcat Webserver zum Einsatz. Der Administrator des
GeoServer macht durch Setzen von Pfaden zu Datenverzeichnissen die Geodaten
verfügbar, wobei die Daten in unterschiedlichen Formaten vorliegen können. Ferner
wird das Layout festgelegt. Durch den GeoServer wird z.B. ein Web Map Service
bereitgestellt, der einen WMS-Layer über das Web anbietet, der anschließend mit
einer Mapping-Software in einem Browser präsentiert werden kann (vgl. Kap.
7.2.3).
Der GeoServer ist auch direkt als Client einzusetzen (d.h. nicht im Administrator-
modus). Die (freie) Software kann beliebig häufig in einer Behörde oder einem Un-
ternehmen installiert sein, wobei die Geräte einen Webzugang haben müssen. Dann
besteht die Möglichkeit, verschiedene Datenebenen (Layer) auszuwählen, sie z.B.
in Google Earth oder in einem Client mit z.B. OpenLayers in beliebigen Zoomstu-
fen darzustellen. Durch Klicken auf ein Objekt können zudem die Attribute abge-
fragt werden.
Mit freien wie auch proprietären Softwarelösungen ähnlich zum GeoServer können
interaktive Web-Karten und Anwendungen erstellt und im Web geteilt werden. Da-
bei kann unabhängig von der Hardware-Plattform, d.h. Desktop, im Browser, mit
Smartphone oder Tabletcomputer, auf die erstellten Inhalte zugegriffen werden.
Derartige Anwendungen haben für Behörden und Unternehmen, die neueste Karten
und Daten mit unterschiedlichen Endgeräten in verschiedenen Projektgruppen tei-
len wollen, besondere Relevanz. So sind z.B. die proprietären Angebote ArcGIS
Online oder GeoMedia WebMap umfassende, cloudbasierte GIS-Mapping-
Software Systeme (Software as a Service, vgl. Kap. 2.8.5), die Personen, Standorte
294 Visualisierung raumbezogener Informationen
und Daten mit Hilfe interaktiver Karten verbinden (vgl. ESRI 2019 u. Hexagon
2019). Dies ist insbesondere für Aufgaben wesentlich, die auf mobilen Endgeräten
im Außendienst zu erledigen sind (z.B. Datenaufnahmen oder Vermessungsaufga-
ben). Ebenso ist die freie QGIS Cloud eine leistungsfähige Plattform zur Publika-
tion von Karten, Daten und Diensten im Web (vgl. QGIS Cloud 2019a). Mit weni-
gen Anweisungen können eigene Karten im Web über qgiscloud.com einer breiten
Öffentlichkeit vorgestellt werden. So wird in QGIS ein Plug-in für QGIS Cloud
angeboten, welches das Onlinestellen der QGIS-Karte vereinfacht (vgl. QGIS
Cloud 2019b). Ähnliche Leistungen bestehen z.B. von Nextgis und Gisquick (vgl.
NextGIS 2019 u. GISQUICK 2019).
Während ein Mapserver die Web-Map zur Verfügung stellt, muss auf dem Client
eine Mapping-Software vorhanden sein, die die Web-Map präsentiert. Der WMS-
Layer, angeboten von einer freien Software wie Geoserver oder einer proprietären
Software wird in einer HTML-Seite mit Javascript eingebunden, die von einem Ser-
ver abgerufen wird. Abbildung 7.12 zeigt in sehr einfacher Weise die Umsetzung
mit der freien Javascript-Bibliothek Leaflet, mit der Web-Mapping-Anwendungen
erstellt werden können.
Von Leaflet unterstützt werden u.a. Web Map Service (WMS), Web Map Tile Ser-
vice (WMTS) und das GeoJSON-Format zur Darstellung von Geodaten. Auch mit
der ebenfalls weit verbreiteten JavaScript-Bibliothek OpenLayers können Geodaten
im Webbrowser unabhängig von der eingesetzten Serversoftware angezeigt werden.
OpenLayers stellt wie Leaflet typische Web-Mapping-Elemente bereit, wie zum
Beispiel eine Skala zum Verändern des dargestellten Maßstabs.
Graphische Präsentationen im Web 295
<html>
<head>
<meta charset="utf-8">
<link rel="stylesheet" href="https://unpkg.com/[email protected]/dist/leaflet.css"/>
<script src="https://unpkg.com/[email protected]/dist/leaflet.js"></script>
<script src="jquery-3.3.1.min.js"></script>
<title>Leaflet WMS Example</title>
<script>
// Geprüft wird das Laden der Seiten
$(document).ready(function(){
var map_variable = L.map("my_map", {
center: [52.049598, 8.032763],
zoom: 13
});
// Da Leaflet den Aufruf „getCapabilites“ nicht verarbeiten kann, muss ein
// Umweg ueber ein Javascript-Object gewaehlt werden.
var wmsLayer = L.tileLayer.wms("http://131.173.22.70:8080/geoserver/ows?", {
// Spezifizierung leaflet wms options, mindestens property "layers"
// Suchen nach verfuegbaren Layern in getCapabilites xml file
layers : "GISdorf:siedlungUTM32,GISdorf:umgehungostUTM32, GISdorf:
umgehungostUTM32"
});
map_variable.addLayer(wmsLayer);
});
</script>
</head>
<body>
<div id="my_map" style="height:600px"></div>
</body>
</html>
Abb. 7.12: Präsentation einer Web-Map mit der Javascript-Bibliothek Leaflet
296 Visualisierung raumbezogener Informationen
Diese Technik wird vielfältig verwendet, indem z.B. auf der Homepage eines Un-
ternehmens der Standort in einer Karte visualisiert und häufig mit einem Routen-
planer verknüpft wird. Der Webdesigner oder Informatiker wählt die Daten und Ba-
siskarten aus und ergänzt sie bei Bedarf mit weiteren Informationen. Dies können
eigene Daten oder auch Verweise auf weitere Internetquellen sein. Für diese Kom-
bination von Daten wie z.B. Texte, Bilder, Töne und Videos aus verschiedenen
Quellen im Internet wird der Begriff Mashup benutzt. Somit entstehen Mashup-
Karten durch das Darstellen von raumbezogenen Daten auf bereits bestehenden
Grundlagenkarten (vgl. Hoffmann 2011). Mashup-Karten sind digital, multimedial
und interaktiv. Sie stellen dadurch die umfassende theoretische Konzeption einer
Karte dar.
Das Web 2.0 wird durch interaktive und kollaborative Merkmale beschrieben (vgl.
Kap. 2.8.4). Dementsprechend bezeichnet der Begriff Web-Mapping 2.0 die inter-
aktive Erstellung von Karten im Internet durch den Endnutzer, dem die bedeutende
Rolle als Mapdesigner zukommt. Er stützt sich nun nicht mehr allein in einer passi-
ven Rolle auf fertige Karten, sondern kann selbst zum aktiven Produzenten werden,
indem er eigene Karten aus verschiedenen Datenquellen mit Hilfe webgestützter
Werkzeuge erzeugt. Er ist somit gleichzeitig Produzent und Konsument, d.h. „Pro-
sument“ nach Toffler (1980, vgl. auch Hoffmann 2011). Der Endnutzer steuert je-
weils wesentlich den kartographischen Darstellungsprozess. Allerdings ist häufig in
der Software nur ein rudimentäres kartographisches Fachwissen implementiert. Die
Web-Mapping-Software gibt die kartographischen Gestaltungsmöglichkeiten vor
und schränkt sie häufig stark ein.
Inzwischen müssen die Ersteller eigener (Thematischer) Karten im Web nicht mehr
zwingend über Programmierkenntnisse verfügen. Sie müssen nicht über eine Pro-
298 Visualisierung raumbezogener Informationen
stellung. Die graphische Präsentation, d.h. die analoge oder auch digitale Darstel-
lung, ist als Sekundärmodell der Realität zu verstehen. Die Informationsverarbei-
tung geschah traditionell häufig dadurch, dass der Kartograph Vorgaben erhält, das
Primärmodell des Fachwissenschaftlers (z.B. verbale Erläuterungen oder eine
Handskizze) graphisch umzusetzen. Inzwischen werden in digitalen Graphiksyste-
men oder Geoinformationssystemen Symbolbibliotheken benutzt, um z.B. die
Kennzeichnung „1100“ einer Fläche (nach dem Signaturenkatalog von ATKIS-
SK25) als Laubholz darzustellen. Bei diesen Umsetzungen sind mehrschichtige
Kommunikationsprobleme möglich. So ist denkbar, dass der Kartograph den Fach-
wissenschaftler bzw. sein Anliegen nicht in vollem Umfang versteht. Die im Geoin-
formationssystem (oder in der API) vorhandenen graphischen Gestaltungsmittel
lassen keine adäquate Umsetzung des Primärmodells zu, da z.B. das Geoinformati-
onssystem nicht über eine Laubwaldsignatur verfügt, wie sie in deutschen Topogra-
phischen Karten üblich ist. Auch hier können Abbildungsfehler auftreten, wenn z.B.
Farben oder Signaturen falsche Assoziationen hervorrufen (z.B. Einsatz der Farbe
Blau, die Gewässerflächen vorbehalten sein sollte, für Gewerbeflächen).
In einem dritten Kommunikationsprozess werden die Informationen, d.h. eigent-
lich die in der Graphik codierten Nachrichten, vom Benutzer empfangen und zu
einem (neuen) Modell der Umwelt (Tertiärmodell) verarbeitet. Aufgrund des man-
gelnden Vorwissens des Benutzers oder seines Unvermögens, graphische Darstel-
lungen zu lesen und zu verstehen, sowie der Mehrdeutigkeit oder fehlenden Genau-
igkeit der graphischen Präsentation können auch hier Abbildungs- oder Lesefehler
auftreten. Die gerade Verbindungslinie zwischen zwei Städten, dargestellt durch
eine Autobahnsignatur, soll z.B. nicht den tatsächlichen Straßenverlauf verdeutli-
chen, sondern eine Verkehrsanbindung. Die exakte Entfernung wird durch eine Ki-
lometerzahl angegeben, die in die Karte eingezeichnet ist, oder durch Anklicken des
Objekts in einem sich am Monitor öffnenden Fenster angezeigt. Während diese Ent-
fernungen in der Regel erst später „gelesen“ werden, wird auf den ersten Blick deut-
lich, welche Städte an das Autobahnnetz angebunden sind.
Hieraus lassen sich zwei Grundprobleme der graphischen Kommunikation ablei-
ten:
Zum einen muss Information, die in Form von Texten, numerischen Daten,
Zeichnungen und Bildern oder auch von Gedanken vorliegt, vom Sender in eine
bildhafte Darstellung transformiert oder übersetzt werden. Diese Aufgabe gilt auch
beim Einsatz der neuen Technologien weiterhin, wobei jetzt diese Umsetzung in ein
Sekundärmodell, d.h. u.a. in eine digitale Präsentation am Monitor, häufig durch
einen Nutzer geschieht, der zumeist nicht über das Fachwissen zum richtigen Ein-
satz (karto-)graphischer Darstellungsmittel verfügt!
Zum anderen muss vom Empfänger die bildhafte Information „richtig“, d.h. im
Sinne des Senders der Informationen verstanden werden. Durch die räumliche
Wahrnehmung einer Graphik, eines Bildes oder einer Karte, durch das Erkennen
von Zusammenhängen, durch Strukturieren des Karteninhalts oder durch Verglei-
che der Strukturen werden aber individuelle Interpretationsmöglichkeiten geschaf-
fen. Durch den falschen Einsatz kartographischer Darstellungsmittel sind leicht
Fehleinschätzungen möglich. Das Tertiärmodell stimmt dann nicht mehr mit dem
Primärmodell überein.
Graphische Kommunikation 301
Digitale graphische Präsentation und Kartographie haben auf die Entstehung des
Primärmodells der Wirklichkeit keinen Einfluss. Sie steuern hingegen entscheidend
die Entstehung des Sekundär- und Tertiärmodells (vgl. Abb. 7.13). Von großer Be-
deutung sind dabei die Zeichen als Träger der Informationen, mit denen sich die
Semiotik in mehr erkenntnistheoretischer Weise befasst. So sind in der (graphi-
schen) Zeichentheorie folgende Dimensionen zu unterscheiden:
Die syntaktische Dimension bezieht sich auf die formale Bildung der Zeichen
und auf ihre Beziehungen zueinander. Eine graphische Darstellung ist syntaktisch
einwandfrei, wenn die Zeichnung in ihrer Struktur richtig erkannt wird (vgl. z.B.
Größe, Abstand, Kontrast der Zeichen).
Die semantische Dimension beschreibt die Zeichenbedeutung. So muss die Be-
deutung der Zeichen beim Sender (z.B. Kartenhersteller) mit der beim Empfänger
(z.B. Kartenleser) identisch sein (z.B. Erkennen einer Eisenbahnsignatur).
Die pragmatische Dimension zielt auf den Zweck der Zeichen ab. Die Zeichen
können Einfluss auf Änderung von Verhaltensweisen haben (z.B. Einsatz von Rot
zur Kennzeichnung von Gefahr).
Über diese grundsätzliche Differenzierung hinaus hat Bertin die graphische Se-
miologie entwickelt, die als Theorie der graphischen Darstellung von Informationen
verstanden werden kann (vgl. Bertin 1974). Dieses System wurde von Bertin fort-
geführt, ohne aber wesentliche Veränderungen vorzunehmen (vgl. Bertin 1982).
Bertin unterscheidet analog zu den geometrischen Grundformen in einem Geoin-
formationssystem nur drei graphische Grundelemente: Punkt, Linie und Fläche. In
einer Erweiterung sollen hier die alphanumerischen Zeichen, d.h. Buchstaben, Zif-
fern und Sonderzeichen, ebenfalls als graphische Grundelemente verstanden wer-
den (vgl. Abb. 7.14).
Diese Grundelemente können sehr unterschiedlich gestaltet oder verändert wer-
den. Bertin nennt diese graphischen Variationsmöglichkeiten graphische Variablen
und unterscheidet Größe, Helligkeit, Muster, Farbe, Richtung und Form (neben den
beiden Dimensionen der Ebene, d.h. X- und Y-Wert als Koordinaten). Die Theorie
zielt darauf ab, die Geoobjekte mit ihren Merkmalen, die auf verschiedenen Skalie-
rungsniveaus vorliegen können, durch graphische Variablen mit ihren Eigenschaf-
ten abzubilden bzw. zueinander in Beziehung zu setzen. Mit diesen graphischen
Mitteln können Signaturen in Abhängigkeit der Skalierungsniveaus der Daten vari-
iert werden. So eignet sich z.B. die graphische Variable Größe mit ihrer quantitati-
ven Eigenschaft gut, metrisch skalierte Daten darzustellen. Ordinalskalierte Daten
werden am besten durch die graphischen Variablen Helligkeit oder Muster abgebil-
det, da sie eine ordnende Eigenschaft besitzen.
Graphische Semiologie 303
Abb. 7.14: Graphische Variablen nach Bertin 1974 mit Erweiterung alphanumerischer Zeichen
einer flächigen Gestaltung wird die Größe der Signatur fast nie verändert. Abbil-
dung 7.14 stellt zudem nur einzeln Gestaltungsvarianten dar. In einer Karte werden
aber zumeist mehrere graphische Variablen umgesetzt wie z.B. bei unterschiedlich
farbigen und breiten Linien, die verschiedene Straßentypen darstellen sollen.
Diese Systematisierung bietet die Möglichkeit, die sehr unterschiedlichen Eigen-
schaften und Ausdrucksmöglichkeiten der graphischen Variablen präzise zu analy-
sieren. Nach Bertin können nur vier spezielle Fähigkeiten bzw. Eigenschaften un-
terschieden werden, die nicht bei allen Variablen gleichermaßen ausgeprägt sind:
- Assoziation (assoziativ = verbindend, gleichmäßige Sichtbarkeit; dissoziativ =
auflösend, unterschiedliche Sichtbarkeit):
- Hierdurch wird die gleichartige Wahrnehmung und Sichtbarkeit gekennzeichnet.
Somit wird die Fähigkeit thematisiert, Zusammenhänge und verbindende Struk-
turen unter den Objekten zu erkennen. Die variierten Zeichen werden als homo-
gen wahrgenommen.
- Selektivität:
- Diese Fähigkeit drückt die Eigenschaft aus, dass Signaturen mehr oder weniger
deutlich unterschiedlich erkannt werden. Die Variablen ermöglichen eine selek-
tive und trennende Wahrnehmung der Objekte.
- Ordnung:
- Diese Fähigkeit zielt auf die (unterschiedliche) Leistung der einzelnen Variablen
ab, eine Rangordnung zwischen den Objekten auszudrücken.
- Quantität:
- Hierdurch wird die Fähigkeit einer Variablen gekennzeichnet, dass mengenmä-
ßige, über eine reine Ordnung hinausgehende Beziehungen wahrgenommen wer-
den können.
Abbildung 7.15 systematisiert grundlegende Regeln oder Prinzipien, die auf den
genannten Eigenschaften der graphischen Variablen beruhen. Diese Grundprinzi-
pien haben nichts an Bedeutung verloren. Sie sind auch weiterhin für kartographi-
sche Darstellungen in Geoinformationssystemen und im Web-Mapping gültig (vgl.
eingehender Bertin 1974 S. 73 ff.):
- Die Größe der Zeichen gibt proportional ein quantitatives Attribut wieder (z.B.
absolute Einwohnerzahl). Somit können die Objekte anhand eines Attributs quan-
titativ in der Karte verglichen werden.
- Muster und Helligkeit haben ähnliche Fähigkeiten, wobei die Bildung von Rang-
folgen durch Helligkeitsunterschiede herauszustellen ist (ordnende Wirkung).
- Größe und Helligkeit sind von unterschiedlicher Sichtbarkeit. Sie sind nach Ber-
tin dissoziativ. Mehrere Punktverteilungen in einer Graphik, die sich nur durch
Größe (oder Helligkeit) der Punktsymbole unterscheiden, sind nicht gleichmäßig
sichtbar, somit löst sich ab einer zu geringen Punktgröße (oder Helligkeit) die
Verteilung auf. Demgegenüber sind die übrigen Variablen gleichmäßig sichtbar
(vgl. z.B. Variation einer Punktverteilung allein nach der Form der Symbole).
Graphische Semiologie 305
Allerdings lösen Größe und Helligkeitswert auch jede andere Variable auf, mit
der sie kombiniert werden. So verringert sich z.B. die Anzahl der unterscheidba-
ren Farben für Punktsymbole, die zusätzlich nach Größe und Helligkeitswert va-
riiert werden. Größe und Helligkeitswert dominieren über die anderen Variablen.
- Mit der Form (z.B. Kreis oder Quadrat als Punktsymbol) ist nur eine (Lage-)Ken-
nung von Objekten möglich. Die Form ist (schon) nicht mehr selektiv. Zum Er-
fassen räumlicher Zusammenhänge (Regionalisierung) ist diese Variable kaum
geeignet (vgl. Verteilungen von Punktsymbolen, die sich allein aufgrund der
Form, aber nicht nach z.B. der Größe oder Helligkeit unterscheiden).
- Die Richtung besitzt kaum mehr Fähigkeiten als die Form. Sie bietet nur bei
punkthafter und linienhafter Umsetzung eine Selektivität.
- Mit Hilfe von Farbe ergibt sich eine hohe assoziative Wirkung der Objekte. Das
Wiedererkennen und Strukturieren der Graphik wird erleichtert.
- Farben besitzen zudem gute trennende und selektive Eigenschaften.
- Farben haben streng genommen keine ordnende Wirkung, es sei denn, es liegt
eine Abstufung z.B. von einem dunklen Rot über Rot und Gelb zu einem hellen
Gelb vor, wobei dann eigentlich die Helligkeit die Rangfolge bewirkt. Somit sind
z.B. gleichmäßig abgestufte Grautöne besser geeignet, eine Ordnung anzugeben.
- Mit Farben können keine Quantitäten ausgedrückt werden!
- Durch Form, Richtung oder Farbe lassen sich am besten qualitative Eigenschaften
ausdrücken.
- Zur Wiedergabe von Intensitäten werden Veränderungen der Helligkeit benutzt.
- Bei Punktsignaturen werden zumeist qualitative Unterschiede durch Variation der
Form und quantitative Unterschiede durch Variation der Größe ausgedrückt.
- Die Bedeutung von Linien in einem Netzwerk wird oft durch die Größe bzw.
Breite der Linien wiedergegeben.
- Manche graphische Variablen sind nur für bestimmte graphische Grundelemente
geeignet. So haben bei kleinen Punkten und dünnen Linien, die sich kaum vom
Hintergrund abheben, Farbe oder Helligkeitswert keine visuelle Wirkung. Flä-
chenhafte Darstellungen, soweit die Flächen groß genug sind, lassen Unter-
schiede in Farbe, Helligkeitswert oder Muster eher erkennen.
In seiner graphischen Semiologie gibt Bertin an, wie viele Variationen einer gra-
phischen Variablen unterschieden werden können, wenn die selektive Eigenschaft
im Vordergrund steht. Die menschliche Wahrnehmung ist nur eingeschränkt in der
Lage, in einer graphischen Präsentation wie einer Karte mit vielen nur in der Größe
variierten Punktsymbolen gleiche Objekte allein über die Größe zu erkennen. Wenn
die Darstellung das Ziel hat, verschiedene Objektgruppen erkennbar zu unterschei-
den (selektive Wahrnehmung), so können bei Veränderung (nur) der Größe höchs-
tens vier Punktgrößen deutlich unterschieden werden. Falls weitere Differenzierun-
gen notwendig sein sollten, müssen mehrere Variablen kombiniert werden.
306 Visualisierung raumbezogener Informationen
wird zumeist eine Kombination aus Größe (d.h. Breite), Form und Muster herange-
zogen. Für die Kennzeichnung von punkthaften Objekten sind vor allem Symbole
(d.h. Kombinationen von Form und Muster) relevant. Sämtliche Signaturen können
nach der Farbe differenziert werden.
Oft werden nur wenige Variablen benutzt bzw. variiert. Durch die Kombination
mehrerer Variablen in einer Signatur können mehrere Attribute gleichzeitig darge-
stellt und variiert werden. So können z.B. mit der Kreisgröße die absoluten Einwoh-
nerzahlen und mit der Helligkeit für die Kreisfüllung der prozentuale Anteil der
Ausländer wiedergegeben werden. Häufig werden mehrere Variablen auch mitei-
nander kombiniert, ohne dass sie jeweils ein anderes Attribut darstellen. So werden
in Darstellungen der Bevölkerungsdichten die Dichtewerte oftmals durch eine
Kombination der Variablen Helligkeit und Farbe wiedergegeben (z.B. von Hellgelb
über Orange nach Dunkelrot). Dies sorgt für eine Verstärkung der visuellen Wir-
kung (bei Redundanz der Gestaltungsmittel) und erhöht die selektive Lesbarkeit. Zu
beachten ist dabei, dass die Variable dominiert, die ein höheres Skalenniveau wie-
dergeben kann (also: Quantität vor Ordnung vor Qualität). In diesem Fall ist also
die Helligkeit das entscheidende Mittel zur Unterscheidung zwischen hoher oder
niedriger Bevölkerungsdichte, da sie im Gegensatz zur Farbe eine ordnende Eigen-
schaft besitzt. Neben der höheren Sicherheit bei der Informationsübermittlung kön-
nen jedoch die Komplexität der Signaturen und die graphische Belastung der Prä-
sentation zunehmen.
Grundsätzlich sind graphische Gestaltungsmittel sparsam einzusetzen. Auch die-
ser Grundsatz ist für Präsentationen von Geoinformationssystemen gültig, selbst
wenn die leicht verfügbaren Gestaltungsmittel zum Einsatz anregen (vgl. die vielen
Darstellungsvarianten des Nordpfeils oder Einsatz von Farbe). Eine vielfältige Mi-
schung sprechender und abstrakter Signaturen in bunten Farben, verspielte Linien-
signaturen oder Flächenmuster führen nicht zur besseren Lesbarkeit. Vielmehr ist
durch geschickte Kombination weniger graphischer Variablen ein klares Erschei-
nungsbild zu erreichen, das entscheidend zur schnellen Strukturierung der Inhalte
beitragen kann. So sollte z.B. zur Kennzeichnung des Grads der Schädigung von
Bäumen in einem Baumkataster nicht die Form der Punktsignatur verändert werden:
Die Farbe oder Füllung z.B. des Kreissymbols verdeutlicht den Grad der Schädi-
gung (z.B. von Grün zu Rot). Die Größe des Punktsymbols soll allenfalls noch va-
riiert werden, um die Größe des Baumes umzusetzen. Die anderen graphischen Va-
riablen wie Form, Helligkeit werden nicht berücksichtigt.
Insbesondere muss die inhaltliche Hierarchie der darzustellenden Objekte in eine
adäquate graphische Hierarchie der graphischen Zeichen transformiert werden (z.B.
Erhalt von Größenunterschieden durch entsprechend große und gestufte Punktsig-
naturen). Stets müssen der Adressatenkreis und der Verwendungszweck von gra-
phischen Präsentationen beachtet werden, die wesentlich über die Gestaltung der
Graphik (u.a. Größe und Art der Signaturen) sowie die Inhaltsdichte mitentscheiden
(vgl. Einflussfaktoren der graphischen Kommunikation).
308 Visualisierung raumbezogener Informationen
Der Ansatz von Bertin ist in mehrere Richtungen vielfältig weiterentwickelt wor-
den. In den 1970er Jahren standen die Kombinationsmöglichkeiten der Variablen,
in den 1980er Jahren weitere Differenzierungen und neue Variablen sowie in den
1990er Jahren Untersuchungen im Rahmen der Multimedia-Kartographie im Mit-
telpunkt (vgl. zusammenfassend Koch 2000). Die Theorie von Bertin wurde zwei-
dimensional im Hinblick auf Darstellungen in (analogen) Karten ausgerichtet.
MacEachren hat sich als einer der Ersten mit der digitalen Umsetzung beschäftigt.
Er hat im Hinblick auf digitale Darstellungen, d.h. Visualisierungen am Monitor,
die graphische Variable „clarity“ definiert, die sich aus den (neuen) Variablen „cris-
pness“ (Schärfe), „resolution“ (Auflösung) und „transparency“ (Tranparenz, Klar-
heit) zusammensetzt (vgl. MacEachren 1995 S. 276 u. Koch 2000 S. 76).
Die von Bertin definierten Variablen schließen Bewegung und Zeit aus. Multi-
mediale Kartographie erfordert allerdings Erweiterungen um dynamische Variab-
len. Anfang der 1990er Jahre schienen noch drei weitere fundamentale Variablen
ausreichend (vgl. Koch 2000 S. 78): „duration“ (Dauer eines angezeigten Ereignis-
ses), „rate of change“ (Veränderungsrate, Charakter der Veränderung nach Lage
und/oder Merkmal) und „order“ (Reihenfolge, zeitlich und/oder sachlich).
MacEachren (1995 S. 281 ff.) hat ein sechsteiliges System „syntaktisch-dynami-
scher Variablen“ vorgeschlagen: „display date“ (Zeitpunkt der Anzeige der Verän-
derung eines Objekts oder Sachverhalts), „duration“, „rate of change“, „order“ so-
wie „frequency“ (Häufigkeit, z.B. Blinkfrequenz eines angezeigten Zeichens) und
„synchronization“ (Übereinstimmung von Ereignissen/Sachverhalten). Schließlich
muss darauf hingewiesen werden, dass multimediale Darstellungen am Monitor
nicht nur visuelle, sondern auch auditive Wahrnehmung einschließt.
Die graphische Semiologie hat ihre Anfänge weit vor der Digitalisierung der
Kartographie. Inzwischen nehmen multimediale graphische Darstellungen an einem
Monitor immer stärker zu bzw. dominieren bereits. Der Betrachter wird gegenüber
analogen Karten einer anderen Wahrnehmungs- und Interpretationssituation ausge-
setzt. Jedoch ist die von Bertin begründete graphische Semiologie grundsätzlich ge-
eignet, als Grammatik der graphischen Sprache, als Systematisierung der graphi-
schen Transkriptionsmöglichkeiten von Informationen zu dienen.
7.5.1 Signaturen
d.h. (Karten-)Zeichen, werden abstrahierte Objektbilder (vgl. die Skizze eines Ge-
weihes zur Kennzeichnung eines Forsthauses) oder konventionelle Zeichen verstan-
den, die man in sehr vielfältiger Weise verändern kann. Eine Signatur ist somit eine
abstrakte bis bildhafte Kurzschrift, die im Vergleich zu einer textlichen Erläuterung
in der Graphik weniger (Karten-)Fläche benötigt und insbesondere bei bildhaften
Signaturen unmittelbar das Vorstellungsvermögen anspricht (vgl. Abb. 7.16). Al-
lerdings sind Signaturen nicht immer selbsterklärend, so dass der Gebrauch dieses
Gestaltungsmittels eine besondere Zeichenerklärung (Legende) erfordert.
Abbildung 7.16 systematisiert Formen von Signaturen und zeigt Beispiele. Geoin-
formationssysteme besitzen im Standardfall nur eine geringe Auswahl dieser Dar-
stellungsmöglichkeiten. Signaturenkataloge zur Gestaltung von ansprechenden
Graphiken fehlen zumeist in den Basisversionen, die aber häufig um spezielle Sym-
bolbibliotheken für Fachanwendungen ergänzt werden können:
- Bildhafte (d.h. sprechende) und abstrakte Signaturen besitzen individuelle Ge-
staltungsmöglichkeiten, wobei gerade die geometrischen Signaturen die größten
Variationsmöglichkeiten bieten. Insbesondere haben einzelne Disziplinen oder
Fachanwendungen eindeutig definierte, vielfältige Signaturenkataloge entwickelt
(vgl. Signaturen der amtlichen Topographischen und Geologischen Karten, die
sog. Planzeichenverordnung als Zeichenschlüssel für Bauleitpläne).
- Mit Hilfe von Buchstaben- oder Ziffernsignaturen können umfangreiche Infor-
mationen codiert und sehr platzsparend visualisiert werden (vgl. z.B. Hydrogra-
phische Karten und Wetterkarten). Derartige Darstellungen sind allerdings u.U.
sehr komplex oder zumindest nicht intuitiv lesbar.
Regeln für graphische Mindestgrößen der Signaturen sind schwierig aufzustel-
len. Das menschliche Sehvermögen zeigt absolute Grenzen auf, die nicht unter-
schritten werden dürfen. Da aber das Sehvermögen individuell recht verschieden
310 Visualisierung raumbezogener Informationen
sein kann, können nur grobe, allgemeingültige Richtlinien gegeben werden. Dar-
über hinaus begrenzen vor allem die technischen Möglichkeiten der Ausgabegeräte
die kleinste Schriftgröße oder den feinsten Punktraster.
Tabelle 7.5: Mindestgrößen von Signaturen für Papierkarten (nach Hake u.a. 2002 S. 110).
Mindestgröße Signatur für Papierkarten
Bei diesen Mindestwerten ist eine Graphik gerade noch von einem Betrachter zu
lesen und auszuwerten, der sich allein und von Nahem auf die Darstellungen kon-
zentrieren kann (vgl. Tab. 7.5). Diese Werte sind zudem als Anhaltspunkte zu se-
hen. So wird die Lesbarkeit neben der Größe von weiteren Faktoren wie Helligkeit
oder Kontrast und Form gekennzeichnet. Eine verschnörkelte Schrifttype kann
schon auf einer Verkleinerungsstufe verlaufen, auf der eine serifenlose, schlanke
Schrifttype noch lesbar ist. Gegenüber einer filigranen Atlaskarte in einer wissen-
schaftlichen Landeskunde muss aber eine Graphik, die z.B. als Poster während einer
Bürgeranhörung erläutert werden soll, plakativer sein.
Tabelle 7.6: Mindestgrößen von Kartenelementen für die Bildschirmanzeige (nach Brunner 2001 S.
9 u. Brunner 2000 S. 56 ff.)
Mindestgröße Signatur für Kartenelemente am Monitor
Nach Bertin eignet sich nur die graphische Variable Größe zur Darstellung von
Quantitäten. In der weiteren Differenzierung nach Relativwerten und Absolutzahlen
haben sich in der kartographischen Praxis in Verbindung mit der graphischen Vari-
ablen Helligkeit eindeutige Konventionen zur Umsetzung quantitativer Sachver-
halte herausgebildet, die auch weiterhin bei digitalen Präsentationen gültig sein sol-
len. Dabei kann für punkthafte, linienhafte und flächenhafte Signaturen die Angabe
von Quantitäten jeweils auf mehrere Arten erfolgen (vgl. Abb. 7.17):
- Bei einer stetigen Wiedergabe eines quantitativen Merkmals werden Größe der
Punktsignatur (z.B. Größe des Kreissymbols) oder die Breite einer Linie stetig,
d.h. stufenlos variiert (vgl. Abb. 7.15, vgl. Kap. 7.4.2). Hierbei ist zu beachten,
dass Punktsignaturen wie z.B. Kreissignaturen flächig wahrgenommen werden.
Sollen zwei Werte dargestellt werden, von denen der eine doppelt so groß wie
312 Visualisierung raumbezogener Informationen
der andere Wert ist, so muss die Signaturfläche doppelt so groß gezeichnet wer-
den. Dies bedeutet, dass der Radius nicht mit dem Faktor 2, sondern mit dem
Faktor 2 multipliziert werden muss (vgl. Abb. 7.17):
F1 = S • r12 und F2 = 2 • F1 dann F2 = S • r22 = S • (2 • r1)2 = 2 •S • r12 = 2 • F1
- Das Nichtbeachten dieses Prinzips führt dazu, dass größere Objekte überpropor-
tional betont werden. Selbstverständlich müssen die durch die Signaturen darge-
stellten Werte in einer Legende erläutert werden.
- Bei einer gestuften Wiedergabe eines quantitativen Merkmals werden ebenfalls
Größe der Punkt- bzw. Breite der Liniensignatur verändert. Bei Flächensignatu-
ren wird die graphische Variable Helligkeit eingesetzt. Eine gestufte Differenzie-
rung setzt zuvor eine Klassenbildung des darzustellenden Merkmals voraus. Dazu
muss bei einem stetigen Merkmal eine sinnvolle Klasseneinteilung gefunden wer-
den (vgl. Kap. 7.5.3).
- Flächensignaturen dienen nur zur Umsetzung von Anteilswerten (Relativwerte),
wenn z.B. der Anteil der Waldfläche in einer Gemeinde durch einen entsprechen-
den Helligkeitswert umgesetzt werden soll.
- Eine besondere graphische Herausforderung ist die Wiedergabe eines Absolut-
wertmerkmals. Leider stellt häufig automatisch das Präsentationswerkzeug eines
Geoinformationssystems ein Merkmal aus absoluten Zahlen (z.B. Einwohnerzahl
einer Gemeinde) durch eine flächenhafte Ausfüllung der Gemeindefläche und zu-
dem durch bunte Farben dar. Abbildung 7.9, die das Absolutwertmerkmal
„Wohnfläche in m2“ zeigt, ist ein typisches Beispiel. Diese Abbildung ist aus kar-
tographischer Sicht „doppelt“ falsch. Zum einen werden absolute Zahlen durch
Flächensignaturen wiedergegeben. Zum anderen werden Farben zur Umsetzung
von Größenverhältnissen benutzt. Hingegen drückt eine Flächensignatur über den
Flächenbezug, d.h. über die flächige Wahrnehmung, entweder eine reine Verbrei-
tung (z.B. räumliche Verteilung von Biotoptypen) oder eine Dichte (z.B. Bevöl-
kerungsdichte, d.h. ein Relativwertmerkmal) aus. Erst eine nach Helligkeit abge-
stufte Flächensignatur impliziert Intensität.
- Sollen Absolutwerte bezogen auf eine Flächeneinheit dargestellt werden, z.B.
Zahl der Einwohner oder der zugelassenen Elektroautos in einer Gemeinde, dann
bieten sich vor allem in einem Geoinformationssystem mehrere Möglichkeiten
an:
- In der jeweiligen Fläche wird die Zahl wie ein Name angezeigt. Diese Vari-
ante ist aber nur bedingt geeignet, Strukturen schnell zu erfassen.
- Der Zahlenwert wird durch eine punkthafte, in der Größe zu variierende Sig-
natur oder durch ein Säulendiagramm wiedergegeben, wobei die Größe der
Punktsignatur bzw. die säulenhöhe proportional zum Wert ist.
- Die klassische Kartographie kennt darüber hinaus die Möglichkeit, ein Abso-
lutwertmerkmal durch sog. Werteinheitsignaturen wiederzugeben. Die Zahl
70 wird z.B. durch sieben gleichgroße Punktsymbole oder durch ein größeres
und zwei kleinere Punktsymbole dargestellt. Die zweite Variante wird an-
schaulich auch als Kleingeldmethode zur Präsentation von Absolutwertmerk-
malen bezeichnet. Geoinformationssysteme bieten in der Regel aber keine
derartigen Präsentationsformen.
Graphische Gestaltungsmittel 313
7.5.3 Klasseneinteilungen
Vor einer graphischen Präsentation muss in der Regel ein stetiges Merkmal klassi-
fiziert und dadurch diskretisiert werden. Dies kennzeichnet den Regelfall in einem
Geoinformationssystem. Erst nach einer Klassifizierung, die eine endliche Zahl von
Signaturen impliziert, kann eine einzelne Signatur einer Klasse zugeordnet werden.
Während ein qualitatives Merkmal (z.B. Bodentypen) klar definierte Kategorien be-
sitzt, müssen zur Klasseneinteilung eines stetigen Merkmals mehrere Festlegungen
getroffen werden: Klassenzahl, Klassenbreite und Anfang einer, zumeist der ersten
Klasse. Die statistische und kartographische Methodenlehre liefert hierfür erste An-
haltspunkte (vgl. Kessler - de Vivie 1993, de Lange u. Nipper 2018 S. 341 ff.). An-
gegeben werden drei Formeln zur Abschätzung der Klassenzahl, wobei sich die Re-
gel nach Sturges in der Praxis als Näherung bewährt hat, und zwei Varianten zur
Bestimmung der Klasseneinteilungen:
Maximale Klassenzahl ݇ = ξ݊ (n = Anzahl der Objekte, Formel nach Witt)
Maximale Klassenzahl ݇ = 5 ή log ݊ (n = Anzahl der Objekte, Regel nach Davis)
Klassenzahl ݇ = 1 + 3,32 ή log ݊ (n = Anzahl der Objekte, Regel von Sturges)
Klassenbreite ܾ = (ݔ௫ െ ݔ ) / ݇
Klassengrenzen ݃ଵ = ݔ (erste Klassenuntergrenze)
݃ = ݃ିଵ + ܾ ݂ü = ݅ ݎ2, … , ݇ + 1 (Klassenobergrenzen)
Neben dieser ersten Variante besteht mindestens eine weitere Möglichkeit, bei vor-
gegebener Klassenzahl eine Einteilung in äquidistante Klassenintervalle vorzuneh-
men (vgl. Tab. 7.7):
Klassenbreite ܾ = (ݔ௫ െ ݔ ) / (݇ െ 1)
Klassengrenzen ݃ଵ = ݔ െ ܾ / 2 (erste Klassenuntergrenze)
݃ = ݃ିଵ + ܾ ݂ü = ݅ ݎ2, … , ݇ + 1 (Klassenobergrenzen)
314 Visualisierung raumbezogener Informationen
Neben einer Stufung mit gleichen Klassenbreiten, die die häufigste Klassifizie-
rungsform ausmachen, findet man noch Stufungen, bei denen sich die Klassenbrei-
ten fortschreitend vergrößern. Bei der arithmetischen Progression nimmt die Klas-
senbreite um einen konstanten Wert zu (vgl. Tab. 7.7 Spalte 3, Klassenbreite wird
jeweils um 7,5 größer).
Klassenbreiten ܾ = ܾିଵ + ݍ q = konstanter Faktor (Klassenobergrenzen)
Bei der geometrischen Progression ist der Quotient zweier aufeinanderfolgender
Klassengrenzen konstant (vgl. Tab. 7.7 Spalte 4, Quotient zweier aufeinanderfol-
gender Klassengrenzen ist 2,5, nur falls xmin > 0):
Klassengrenzen ݃ = ݃ିଵ ή ݍ q = konstanter Faktor (Klassenobergrenzen)
0 –12,5 0 1
20 12,5 7,5 2,5
40 37,5 22,5 6,25
60 62,5 55 15,625
80 87,5 85 39,06
100 112,5 122,5 97,6
xmin = 0, xmax = 100, bei geometrischer Progression xmin > 0
7.5.4 Diagrammdarstellungen
Die Kartographie hat ein breites Spektrum von Diagrammformen zum Teil für sehr
spezielle Aussagezwecke entwickelt (vgl. z.B. Bevölkerungspyramiden, Polardia-
gramme zur Darstellung von Windrichtungen, Klimadiagramme, Strukturdreiecke,
Konzentrationskurven vgl. Arnberger 1997 S. 109). Derartige Diagrammformen
sind standardmäßig kaum in Geoinformationssystemen integriert. Zumeist sind nur
einfache Balkendiagramme (Histogramme) oder Kreissektorendiagramme reali-
siert.
In der Abbildung 7.18 sind die Länder Afrikas entsprechend ihrer (absoluten)
Bevölkerungszahl dargestellt. Die drei bevölkerungsreichsten Länder Afrikas Ni-
geria, Äthiopien und Ägypten dominieren. Die Farbabstufung verdeutlicht das jähr-
liche natürliche Bevölkerungswachstum in Prozent. Erst in der Kombination der
verzerrten Flächengröße und des zweiten Merkmals, das üblicherweise zur statisti-
schen Bezugsfläche flächentreu dargestellt wird, ist die Entwicklungsdynamik der
Bevölkerung Afrikas sichtbar. Die bevölkerungsreichsten Länder besitzen nicht
mehr die höchsten natürlichen Wachstumsraten (pro Jahr) in Prozent, was auch auf
einen statistischen Effekt bei großen Bezugsgrößen zurückzuführen ist (Zunahme
von 1.000 zu Basis von 10.000 entspricht 10%, Zunahme von 1.000 zu Basis von
100.000 entspricht 1%). Gleichwohl werden sie größte absolute Zunahmen aufwei-
sen. So wird die höchste jährliche natürliche Wachstumsrate von 3.8% für das rela-
tiv kleine Land Niger nicht zu vergleichbar großen Zuwächsen führen. Somit kön-
nen derartige Cartograms als Ergänzung zu traditionellen Karten und Tabellen viel-
fältige Erkenntnisgewinne und Mehrwerte liefern.
Abb. 7.18: Isodemographische Karte von Afrika: Größe der Bevölkerung und natürliche Wachs-
tumsrate 2018 (Datenquelle: World Population Datasheet 2018)
Maßstabsleiste darf fehlen, eine separate Legende ist nicht notwendig, da sich not-
wendige Informationen mit Hilfe der Werkzeuge eines Geoinformationssystems (Ex-
ploration der zugehörigen Attributtabellen und von Menüoptionen zu Datei- und Kar-
teneigenschaften) ergeben. Soll ein Papierausdruck erzeugt werden (z.B. ein großfor-
matiges Poster), ergeben sich klare und zwingende Gestaltungshinweise:
Eine gedruckte Karte, die „allein“ ohne weiteren Erläuterungstext steht, muss
einen aussagekräftigen Titel und eine Legende aufweisen, die sämtliche verwendete
Signaturen und Symbole erläutert sowie Größenrelationen anführt und ggf. den
Aufbau von Diagrammen erklärt. Zur Legende gehören auch Angaben zum Verfas-
ser und somit zum Verantwortlichen für den Karteninhalt sowie zum Kartographen
oder Ersteller der Graphik. Insbesondere sind Quellenverweise der benutzten Kar-
tengrundlage und der verwendeten Daten anzuführen (vor allem zum Bezugszeit-
punkt der Daten).
Auf die Angabe eines Nordpfeils kann verzichtet werden, falls die Karte nach
Norden ausgerichtet ist. Dieser Regelfall sollte immer angestrebt werden, so dass
die zuweilen in Geoinformationssystemen angebotene Palette von (verspielten und
verschnörkelten) Nordpfeilen fast überflüssig ist.
Unverzichtbar ist die Angabe eines Maßstabs, wobei weniger das Nennen des
Reduktionsmaßstabs in Form eines mathematischen Bruches (z.B. 1:12.375) sinn-
voll ist. Demgegenüber ist eine Maßstabsleiste, die beispielhaft eine Länge wieder-
gibt, wesentlich anschaulicher.
Abbildung 7.19 zeigt Beispiele der äußeren Gestaltung einer Karte, d.h. der Blatt-
aufteilung und der Anordnung von Titel und Legende. Grundsätzlich gilt, dass ein
möglichst ruhiges, klar gegliedertes Erscheinungsbild der gedruckten Karte oder
des Posters zu erreichen ist. Dabei sollte der Blick des Betrachters relativ wenig
zwischen den einzelnen Erläuterungen und dem Karteninhalt hin- und herspringen.
Eine einzige Legende sollte die Erläuterungen strukturieren. Vor dem Hintergrund
dieser Regeln stellen die Karten 1 und 2 optimale Beispiele für Blattaufteilungen
dar. Die Variante 3, d.h. die Aufteilung einer Legende, ist nur bei einer sachlichen
318 Visualisierung raumbezogener Informationen
Trennung sinnvoll. Das vierte Beispiel zeigt eine empfehlenswerte Gestaltung für
eine Inselkarte, bei der die Randbereiche bestmöglich auszunutzen sind. Die weite-
ren Beispiele stellen unausgewogene und nicht sinnvolle Aufteilungen dar.
Die Beliebtheit der Farben erklärt sich neben der besonderen ästhetischen Erschei-
nung vor allem aufgrund der Farbwirkung. Über die Bedeutung einzelner Farben
320 Visualisierung raumbezogener Informationen
wird auf einzelne Sachverhalte geschlossen. Das „richtige“ Erkennen erfolgt zu-
meist intuitiv. Der Farbwirkung liegen dabei zumeist allgemeine Farbempfindun-
gen und -wahrnehmungen zugrunde. Allerdings sind Farbkonventionen durchaus
nicht eindeutig. So bestehen zum Teil divergierende Interpretationen von Farben in
verschiedenen Kulturkreisen (vgl. Schoppmeyer 1993 S. 33).
Hinsichtlich der Farbwirkung wird häufig der naturnahen Farbenwahl eine große
Bedeutung zugemessen, die die Erfahrungen und Anschauungen von realen Objek-
ten umsetzt. Das Wiedererkennen kann das Lesen und Verstehen der Karte verein-
fachen (z.B. Blau für Gewässer, Karminrot für Siedlungen in Anlehnung an rote
Ziegeldächer, Gelbgrün für Wiesen und Grünland, Blaugrün für Wald, Grau für
Schutt oder weitere aus der Naturanschauung abgeleitete Bodenbedeckungsfarben).
Dabei wird aber vorausgesetzt, dass beim Betrachter gleiche Farbempfindungen
vorliegen und ähnliche Erfahrungswerte bestehen. Fehleinschätzungen sind daher
nicht auszuschließen.
Ein treffendes Beispiel für vermeintliche Farbkonventionen und intuitive Wir-
kungen von Farben stellen Höhenschichtenkarten dar, bei denen zumeist ein dunk-
les Grün für Tiefland und Brauntöne für Mittelgebirge bis Hochgebirge verwendet
werden. Diese Farbabstufung ist aber nicht allgemeingültig und standardisiert. So
werden zuweilen Höhenschichtenkarten nicht als solche erkannt, bei denen die Hö-
henabstufungen durch eine mehrstufige Farbskala von einem kräftigen Grün für
Tiefland, helleren Grüntönen für geringe Höhen bis zu Gelb oder Weiß für die
höchsten Erhebungen veranschaulicht werden. Durch diese fehlende Vereinheitli-
chung wird eine Übertragung von Erfahrungswerten erschwert. Problematischer ist
hingegen, dass der Betrachter häufig Weiß mit Schnee, Gelb oder Braun mit Wüsten
oder Grün mit reicher Vegetation verbindet. Vor dem Hintergrund, dass sich Wüs-
ten auch in Flachländern (in einer Höhenschichtenkarte zumeist durch einen Grün-
ton dargestellt) erstrecken oder Weideland in Hochgebieten auftritt, würde von der
Farbe irrtümlich auf die Landnutzung geschlossen werden.
Die Bedeutung der Ampelfarben Rot-Gelb-Grün hat sich eingeprägt: Rot ver-
deutlicht Gefahr, Gelb wird mit Achtung und Grün mit Gefahrlosigkeit verbunden.
Üblich ist die Unterscheidung von warmen und kalten Farben, um z.B. Wärme oder
Kälte oder um z.B. Abstoßung auszudrücken.
7.7.3 Farbabstufungen
Quantitäten und Ordnungen lassen sich streng genommen nicht durch Farben ver-
deutlichen (vgl. Abb. 7.15)! Gelb drückt nicht „weniger“ aus als die Farbe Rot. Eine
Umsetzung einer Klasseneinteilung von Bevölkerungsdichten durch Farben ist auf-
grund der Darstellungsprinzipien der graphischen Semiologie nicht möglich (vgl.
Kap. 7.4.2). Stattdessen wird dann zumeist die Helligkeit variiert (einpolige Skala
von Hell nach Dunkel) oder auch ein Farbtonübergang gewählt (z.B. von Hellgrün-
zu Dunkelblautönen). Von Brewer (1994) wurden an einzelnen Farbbeispielen Vor-
schläge von Farbabstufungen in Abhängigkeit der Skalenniveaus (qualitative, bi-
näre oder sequentielle Stufung eines Merkmals) und der Zahl der Merkmale erar-
beitet. Allerdings gibt es keine einfache, einprägsame oder leicht zu benutzende
Einsatz von Farbe 321
Stufung von Farbtönen. Stets ist die Legende zum Farbabgleich heranzuziehen. Al-
lerdings können wenige einfache Regeln genannt werden, die bei der Umsetzung
von Quantitäten oder Ordnungen zu beachten sind und die auch für Präsentationen
in Geoinformationssystemen gelten:
- Eine Stufung nach den Spektralfarben, deren Helligkeit gerade nicht sequentiell
steigt, ist generell nicht geeignet.
- Gute Resultate verspricht im Allgemeinen eine Helligkeitsstufung eines einzel-
nen Farbtons, die der graphischen Variablen Helligkeit entspricht.
- Für einzelne Fragestellungen ist eine Helligkeitsabstufung mit einem Farbton-
übergang durchaus sinnvoll zu kombinieren (z.B. von tiefen Temperaturen in der
Farbe Blau zu hohen Temperaturen in der Farbe Rot). Häufig wird die Nutzung
einer Helligkeitsabstufung in Kombination mit einem Fartonübergang, z.B. von
Hellgelb über Orange nach Dunkelrot, angewandt.
Bei der technischen Darstellung und Wiedergabe von Farben werden additive und
subtraktive Farbmischung unterschieden. Mit nur jeweils drei Grundfarben können
sämtliche andere Farben dargestellt bzw. zusammengemischt werden (vgl. Abb.
7.21). Die Informatik nutzt die hieraus resultierenden Farbmodelle.
Die additive Farbmischung beruht auf einer Mischung der Farben einer roten,
einer grünen und einer blauen Lichtquelle. Durch die Übereinanderprojektion und
die dabei auftretende additive Mischung dreier Lichtquellen in den drei (additiven)
Grundfarben Rot, Grün und Blau entstehen weitere Farben: Gelb = Rot + Grün,
Purpurrot (d.h. Magenta) = Rot + Blau, Blaugrün (d.h. Cyan) = Grün + Blau. Weiß
entsteht durch Addition der drei Farben, Schwarz durch Fehlen sämtlicher Farben.
Durch entsprechende Tonwertvariation (Helligkeit) der einzelnen Lichtquellen
kann jede bunte Farbe dargestellt werden. Farbbilder können also durch genaue
Überlagerung dreier Bilder aus drei Projektoren erzeugt werden, die jeweils ein Bild
in einer additiven Primärfarbe entwerfen.
sie vom Auge nicht mehr als getrennte Lichtquellen wahrgenommen werden, mi-
schen sich die Farben additiv (im Auge). Dieses Prinzip liegt den Farbmonitoren
zugrunde, bei denen Farben von (leuchtenden) roten, grünen und blauen Phosphor-
punkten gebildet werden.
Farben werden jeweils als Punkte im Farbwürfel codiert. Die Hauptdiagonale prä-
sentiert die Graustufen von Schwarz (0,0,0) zu Weiß (255,255,255). Das RGB-
Farbmodell beruht auf der additiven Farbmischung. Mit den Farben Cyan, Magenta
und Yellow, den Komplementärfarben von Rot, Grün und Blau, kann entsprechend
das CMY-Farbmodell als Farbwürfel dargestellt werden. Das CMY-Farbmodell
liegt der subtraktiven Farbmischung zugrunde.
Die Zusammenhänge zwischen beiden Farbmodellen bzw. den Darstellungen als
Punkte bzw. Vektoren in beiden Farbwürfeln verdeutlichen zwei einfache Glei-
chungen, also z.B. für Cyan: [(255,255,255) – (0,255,255)]RGB = (255,0,0)CMY bzw.
[(255,255,255) – (255,0,0)]CMY = (0,255,255)RGB :
ܥ 255 ܴ ܴ 255 ܥ
൭ܯ൱ = ൭255൱ െ ൭ ܩ൱ und ൭ ܩ൱ = ൭255൱ െ ൭ܯ൱
ܻ 255 ܤ ܤ 255 ܻ
Gegenüber dem RGB- und dem CMY-Farbmodell, die auf die technischen Mög-
lichkeiten der Farbwiedergabe ausgerichtet sind, geht das sog. IHS-Modell (oder
HSV- oder HSI-Modell) von der Farbwahrnehmung aus. So werden nicht Rot-,
Grün- oder Blauanteile wahrgenommen, sondern Farben. Unterschieden werden da-
bei Farben nach dem Farbton (Hue), nach ihrer Sättigung (Saturation) und nach
ihrer Helligkeit (Value oder Intensity). Abbildung 7.23 veranschaulicht das Modell
als sechsseitige Pyramide mit einer üblichen Farbanordnung:
- Beginnend mit der Farbe Rot bei 0° wird der Farbton als Winkel angegeben.
- Das Verhältnis der Reinheit einer Farbe zu ihrer maximalen Reinheit kennzeich-
net die Sättigung S. Sie variiert zwischen S = 0 (an der Pyramidenachse) bis S =
1 (maximale Reinheit).
- Die Helligkeit der Farbe variiert mit der Pyramidenachse. An der Spitze der Py-
ramide ist sie am geringsten (I = 0) und an der Basis am höchsten (I = 1).
- Die reinsten Farben differieren nur im Farbwinkel, für sie gilt I = S = 1. Bei der
Farbwahl wird von den reinen Farben ausgegangen. Anschließend wird Weiß o-
der Schwarz hinzugemischt.
Abb. 7.23: Das IHS-Farbmodell: Darstellung in Farbe und der Variablen IHS
Zur Transformation des RGB-Modells in das IHS- bzw. HSI-Modell (und umge-
kehrt) bestehen mehrere Ansätze, da IHS- bzw. HSI-Modelle nicht allgemeingültig
definiert sind (vgl. Farbanordnungen, Darstellung auch als Kegel). Ausgehend da-
von, dass das IHS- bzw. HSI-Modell auf einer Drehung des RGB-
Koordinatensystems und der Darstellung mit Zylinderkoordinaten beruht, ergeben
324 Visualisierung raumbezogener Informationen
Literatur
Brewer, C.Y. (1994): Color Use Guidelines for Mapping and Visualization. In: MacEachran, A.M.
u. D.R. Taylor (Hrsg.): Visualization in modern Cartography. Modern Cartography, Vol. 2. S.
123–147. Oxford: Pergamon.
Broll, W. (2013): Augmentierte Realität. In: Dörner, R. u.a. (Hrsg.) Virtual and Augmented Reality.
Grundlagen und Methoden der Virtuellen und Augmentierten Realität. Wiesbaden: Springer
Vieweg 2013, S. 241–294.
Brunner, K., (2000): Neue Gestaltungs- und Modellierungsaufgaben für den Kartographen. In:
Kelnhofer, F. u. M. Lechtthaler (Hrsg.): Interaktive Karten (Atlanten) und Multimediaapplikati-
onen. Wien. (= Geowissenschaftliche Mitteilungen, H. 53).
Brunner, K. (2001): Kartengestaltung für elektronische Bildanzeigen. In: Kartographische Bau-
steine, Bd. 19, TU Dresden.
BKG, Bundesamt für Kartographie und Geodäsie (2019): Online Karte API geo.akapi.
http://sgx.geodatenzentrum.de/geo.okapi/ (18.11.2019)
Burgdorf, M.: Verzerrungen von Raum und Wirklichkeit in der Bevölkerungsgeogrphie. In: Karto-
graphische Nachrichten, Heft 5 /08, Kirschbaum Verlag, Bonn 2008, S. 234–242
Coors, C. u.a. (2016): 3D-Stadtmodelle. Konzepte und Anwendungen mit CityGML. Berlin: Wich-
mann.
de Lange, N. u. J. Nipper (2018): Quantitative Methoden in der Geographie. Grundriss Allgemeine
Geographie. Paderborn: Schöningh.
Deutsche Gesellschaft für Kartographie (2019): Kommission und Arbeitskreis 3D-Stadtmodelle.
https://www.3d-stadtmodelle.org/index.php?do=rue (18.11.2019)
DiBiase, D. (1990): Visualization in the Earth Sciences. In: Earth and Mineral Sciences, Bulletin of
the College of Earth and Mineral Sciences. Vol 59, No. 2, S. 13–18.
Dickmann, F. u. S. Dunker (2014): Visualisierung von 3D-Gebäudemodellen – Welche Ansprüche
stellt die Planung an dreidimensionale Stadtansichten? In: Kartographische Nachrichten 1/2014,
S. 10–16.
Dörner, R. u.a. (2013): Einleitung. In: Dörner, R. u.a. (Hrsg.) Virtual and Augmented Reality.
Grundlagen und Methoden der VR und AR. Wiesbaden: Springer Vieweg 2013 S. 1–31.
Dougenik, J.A. u.a. (1985): An Algorithm to construct continuous area cartograms. In: Professional
Geographer, 37(1), S. 75–81.
Edler, D. u.a. (2018a): Virtual Reality (VR) and Open Source Software. In: Kartographische Nach-
richten 1/2018 S. 5–13.
Edler, D. u.a. (2018b): Potenziale der Raumvisualisierung in Virtual Reality (VR) für die sozialkon-
struktivistische Landschaftsforschung. In: Kartographische Nachrichten 5/2018 S. 245–254.
ESRI (2019): ArcGIS. https://www.esri.de/produkte/arcgis-online (18.11.2019)
feelSpace (2019): feelSpace. Taktile Information. https://www.feelspace.de/naviguertel-blinde
(18.11.2019)
Gastner, M.T. und M.E.J. Newman (2004): Diffusion-based method for producing density equaliz-
ing maps. In: Proceedings of the NAS, 101(20), S. 7499–7504.
GISQUICK (2019): Let’s share GIS much quicker. http://gisquick.org/ (18.11.2019)
Hake, G. u.a. (2002): Kartographie. Visualisierung raum-zeitlicher Informationen. Berlin: de Gruy-
ter, 8. Aufl.
Helsinki (2019): Helsinki 3D+. https://kartta.hel.fi/3d/#/ (18.11.2019)
Hexagon (2019): GeoMedia WebMap. https://www.hexagongeospatial.com/products/power-portfo-
lio/geomedia-webmap (18.11.2019)
Hilling F. u. H. Greuler (2015): 3D-Web-GIS: Online-Darstellung eines landesweiten LOD2-
Modells für Rheinland-3IDO],Q$*,7-RXUQDOIU$QJ*HRLQIRUPDWLN-2015, S. 322–327
Hoffmann, K. (2011): Nutzergenerierte Karten und kartographische Kommunikation im Web 2.0.
In: Kartographische Nachrichten, Jg. 61, H. 2, S. 72–78.
International Cartographic Association (2019a): Mission. https://icaci.org/mission/ (18.11.2019)
International Cartographic Association (2019b): Research Agenda. https://icaci.org/research-
agenda/introduction/ (18.11.2019)
326 Visualisierung raumbezogener Informationen
8.1 Datenorganisation
Zahlen oder CHARACTER-Zeichen (vgl. Kap. 3.2.2). Die weitere logische Daten-
organisation ist hierarchisch aufgebaut (vgl. Abb. 8.1 u. Kap. 3.2.5). Einzelne Da-
tenfelder (engl. items), die jeweils Attributwerte enthalten, bauen einen Datensatz
(engl. record) auf. Mehrere logisch zusammengehörige Datenfelder innerhalb eines
Datensatzes werden häufig auch Datensegment (Datengruppe) genannt. Gleichar-
tige und aufgrund inhaltlicher Kriterien zusammengehörige Datensätze werden zu-
sammengestellt als Datei (engl. file) bezeichnet. Mehrere Dateien, zwischen denen
logische Abhängigkeiten oder Beziehungen bestehen, bilden ein Dateisystem oder
sogar eine Datenbank (vgl. Kap. 8.1.3).
Die logische Datenorganisation lässt sich einfach anhand von Tabellen verdeut-
lichen, die zusammen eine Datenbank ausmachen, wobei eine einzelne Tabelle ei-
ner Datei, ein einzelner Datensatz einer Tabellenzeile, ein einzelnes Datenfeld einer
Tabellenspalte und ein einzelner Attributwert einem Datum in der Tabelle entspre-
chen. Die Datenfelder können unterschiedliche Datentypen darstellen, wobei in Da-
tenbanken weitere Datentypen auftreten, die über die klassischen Datentypen der
Informatik (vgl. Kap. 3.2.2) hinausgehen (vgl. Uhrzeit, Währung oder spezielle
Feldtypen zur Einbindung von Objekten wie z.B. Grafiken oder Klänge).
z.B. das Datenfeld „Kostenstelle“ in Abbildung 8.1 ein Schlüsselfeld einer anderen
Datei mit Abrechnungsdaten sein. Derartige Felder werden als Fremdschlüssel be-
zeichnet.
Als Schlüsselfelder werden zumeist eigene numerische Attribute verwendet, die
als Identifikationsnummern (Identifikationsschlüssel) z.B. Artikel- oder Kunden-
nummern darstellen. Derartige Nummern (sog. „IDs“) werden den aufgrund der
Fragestellung vorgegebenen Attributen vorangestellt. Die Verwendung numeri-
scher Schlüssel ist jedoch nicht zwangsläufig (vgl. Autokennzeichen als Buchsta-
ben- und Ziffernkombination). So können aus den inhaltlich vorgegebenen Daten-
feldern Schlüsselfelder gebildet werden (z.B. aus Name und Geburtsdatum), jedoch
sind in der Regel eigene numerische Schlüsselfelder übersichtlicher und ermögli-
chen einen schnelleren Datenzugriff. So kann eine Sortierung nach einem numeri-
schen Feld schneller als nach einem (längeren) Textfeld erfolgen, ebenso ist eine
Verknüpfung zweier Tabellen aufgrund identischer Werte in einem numerischen
Datenfeld schneller.
8.1.2 Dateisysteme
Dateisysteme stellen Vorläufer der Datenbanksysteme dar. Zumeist reichte aber zur
Auswertung der Datenbestände in den Dateien das Dateiverwaltungssystem des Be-
triebssystems nicht aus. Daher wurden eigene Programme in einer (höheren) Pro-
grammiersprache zur Analyse der Daten entwickelt, die auf die Dateien zugriffen
und die Informationsverarbeitung leisteten. Das wesentliche Kennzeichen derarti-
ger Dateisysteme, die durch Nutzerprogramme ausgewertet werden müssen, ist die
statische Zuordnung von Verarbeitungsprogrammen zu den Daten. Jedes dieser
Nutzerprogramme enthält eine eigene Beschreibung der Datei, die ausschließlich
durch die Verarbeitung der Daten in dem jeweiligen Programm bestimmt wird. Die
enge Bindung ermöglicht sehr individuelle und effiziente Auswerteprogramme. Die
Programme sind aber nur für diese Daten und für genau diesen Einsatz geeignet.
Die Programmpflege bei geänderten Anforderungen ist aufwendig.
Anhand einer Pflichtaufgabe in einer Umweltbehörde, die auf viele ähnliche
Problemstellungen zu übertragen ist, soll deutlich werden, dass Dateisysteme letzt-
lich kaum geeignet sind, fachlich differenzierte Datenbestände zu verwalten, zu be-
arbeiten und auszuwerten (vgl. Abb. 8.2). In einer Kommune sollen in einem Ka-
taster u.a. Anlagen zum Lagern, Abfüllen, Herstellen und Behandeln wassergefähr-
dender Stoffe geführt und kontrolliert werden (z.B. Tankstellen oder Heizölbehäl-
teranlagen). Der Betreiber ist verpflichtet, z.B. einen Lagerbehälter mit wasserge-
fährdenden Stoffen spätestens alle fünf Jahre – bzw. bei unterirdischer Lagerung in
Schutzgebieten alle zweieinhalb Jahre – durch einen Sachverständigen auf den ord-
nungsgemäßen Zustand hin überprüfen zu lassen (nach Anlagen 5/6 zum Umgang
mit wassergefährdenden Stoffen zu § 46 der Bundesrechtsverordnung über Anlagen
zum Umgang mit wassergefährdenden Stoffen von 2017 nach § 62 Wasserhaus-
haltsgesetz). Die untere Wasserbehörde führt die Daten der einzelnen prüfpflichti-
gen Lagerbehälter, die Daten der Untersuchungsergebnisse sowie die relevanten
330 Datenorganisation und Datenbanksysteme
Die Dateien 1 und 2 werden in diesem Beispiel als Stammdateien geführt, die nur
selten verändert werden müssen (vgl. Abb. 8.3). Die Angaben zu den Anlagen und
den Betreibern werden dabei in getrennten Dateien gehalten. Hierdurch sind bereits
einige Forderungen an höhere Datenbanksysteme erfüllt. So werden nur einmal in
der Datei 2 der (ausführliche) Name und die Adresse der Betreiber gespeichert, was
eine größere Redundanzfreiheit des Systems bedeutet. Falls ein Betreiber für meh-
rere Anlagen verantwortlich ist, kann somit eine leichtere Aktualisierung von Be-
treiberdaten erfolgen. Die dritte Datei enthält die wesentlichen Bewegungsdaten. So
werden hier u.a. die Angaben gespeichert, welche Anlagen zu einer Überprüfung
anstehen (z.B. nach Ablauf des fälligen Untersuchungstermins) und welche Ergeb-
nisse vorliegen.
Die Bearbeitung dieses Dateisystems erfolgt durch Programme einer höheren
Programmiersprache. Die Programme 1 und 2 aktualisieren die Stammdaten. Das
Programm 3 errechnet aus dem Datum der letzten Überprüfung in Datei 1, wann
eine erneute Kontrolle notwendig ist. Die Daten werden dann in die Datei 3 ge-
schrieben (vgl. Abb. 8.3), die u.a. auch den Stand der Überprüfung vermerkt. Das
Programm 4 kontrolliert den Stand der Überprüfung und der ggf. notwendigen Män-
gelbeseitigung. So werden z.B. dem Betreiber der ordnungsgemäße Abschluss der
Kontrolle oder eine Mahnung mit erneuter Fristsetzung mitgeteilt. Nach Abschluss
der Überprüfung der Anlage wird das neue Prüfdatum in die Datei 1 geschrieben.
Erweiterungen dieses Ansatzes sind denkbar: Datei 1 könnte einen Verweis auf eine
Prüfakte mit dem analogen Prüfbericht aufnehmen. In einem späteren Entwick-
lungsstadium des Systems könnte eine Verbindung zu dem digitalen Prüfbericht
vorliegen. So entsteht ein zeitlich mit den Aufgaben gewachsenes Dateisystem mit
einem gekoppelten Programmsystem.
Datenorganisation 331
Zwar liegt in Teilen ein durchaus sinnvoller Ansatz vor, allerdings enthält das Ge-
samtsystem Schwachstellen. So kann sich die Wartung und Mängelbeseitigung ei-
ner Anlage über einen längeren Zeitraum erstrecken, während dem sich der Betrei-
ber oder auch nur seine Anschrift verändert hat. Dann kann in der Wartungsdatei
noch auf den alten Betreiber einer Anlage verwiesen werden, während das Pro-
gramm 2 schon den Neubetreiber erfasst und den Altbetreiber gelöscht hat. Derar-
tige Probleme sind durch geschickte Programmierung bzw. Aufnahme weiterer Be-
treibercodes in der Datei 1 zu lösen. Größere Probleme können sich dadurch erge-
ben, dass die Programme zu unterschiedlichen Zeiten und von verschiedenen Pro-
grammierern erstellt wurden (mit hoffentlich ausreichender Dokumentation). Beim
Aufbau der einzelnen Datenbestände wurde bzw. konnte nicht unbedingt auf eine
einheitliche Formatierung geachtet werden. Jeder Programmierer wird die für ihn
geeignete Formatierung gewählt haben. Eine hinreichende Abstimmung konnte
nicht erfolgen.
Aus einer derartigen Organisationsform ergeben sich mehrere Probleme, die für
ein Dateisystem charakteristisch sind (vgl. Vossen 2008 S. 9):
- Zwischen den einzelnen Dateien kann sich eine hohe Redundanz ergeben, die sich
aus der Mehrfachspeicherung gleicher Daten ergibt (parallele Datenbestände). Im
obigen Beispiel ist der Standort der Anlagen sowohl in Datei 1 als auch in Datei
3 gespeichert.
- Da kein Vielfach- bzw. Mehrbenutzerzugriff auf eine einzelne Datei möglich ist,
besteht die Gefahr der Inkonsistenz bei der Verarbeitung „gleicher“ Datenbe-
stände. So können einzelne Programme Dateien verändern, ohne dass diese Ver-
änderungen von allen Programmen berücksichtigt werden. In dem obigen Bei-
spiel verändert bei einem Betreiberwechsel einer Anlage das Programm 2 die Da-
tei 1. Die Veränderungen werden aber nicht in die Wartungsdatei übernommen.
Der ehemalige und nicht der aktuelle Betreiber erhält ggf. eine Mahnung. Das
Arbeiten mit Duplikaten bedingt häufig, dass nicht immer aktuelle Dateien aus-
gewertet werden. Falls hingegen nur auf eine Datei zugegriffen wird, können bei
gleichzeitiger Bearbeitung die Änderungen des ersten Benutzers vom zweiten Be-
nutzer überschrieben werden, der zuletzt die Daten eingibt.
- Der Verbund von Programm- und Dateisystem besitzt gegenüber veränderten An-
forderungen und Anwendungen eine relativ große Inflexibilität. Hieraus resultie-
ren recht hohe Entwicklungskosten. So sind neue Anforderungen, wie z.B. im
332 Datenorganisation und Datenbanksysteme
obigen Beispiel die Umsetzung neuer Verwaltungsvorschriften, nur mit recht gro-
ßem Aufwand zu realisieren. Häufig ist selbst bei geringfügigen Unterschieden
ein neues Programm mit neuer Datei zu entwickeln, das nicht unbedingt direkt
aus dem alten Programm abzuleiten ist.
- Die geringe Strukturflexibilität zeigt sich auch in einer aufwendigen Programm-
wartung. So müssen bei Veränderungen an den bestehenden Dateien alle betref-
fenden Anwenderprogramme geändert werden (vgl. Umstellung von vier- auf
fünfstellige Postleitzahlen, sonstige Veränderungen von Namen oder Formaten).
Neben einer ausführlichen Softwaredokumentation wird eine höhere Einarbei-
tungszeit der Programmierer notwendig.
- Der Zugriff auf die einzelnen Dateien kann nicht adäquat überwacht werden. So
können sich gerade im Umgang mit sensiblen Daten (erhebliche) Datenschutz-
probleme ergeben. Abgestufte Zugriffsrechte können nur schwer und aufwendig
implementiert werden.
- Eine besondere Bedeutung spielt die Datensicherheit. Dateisysteme bieten allen-
falls die Möglichkeit, in mehr oder weniger regelmäßigen Abständen die gesam-
ten Daten zu archivieren. Im Fehlerfall kann dann eine Situation wiederhergestellt
werden, die einen zurückliegenden Zustand rekonstruiert. Veränderungen, die seit
der letzten Sicherung eingetreten sind, werden somit nicht berücksichtigt. Daher
können Datenverluste nicht ausgeschlossen werden.
- Letztlich stellt sich die Frage der Durchsetzung und Einhaltung von Standards.
So sind einheitliche Datenformate gerade für den Datenaustausch z.B. zwischen
verschiedenen Behörden und Rechnersystemen wesentlich.
Die Dateistruktur und die zugehörigen Programme sind in einem Anwendungsfall
sicher noch zu optimieren. Aufgezeigt wurden hier grundsätzliche Probleme, die
fast zwangsläufig zur Entwicklung von Datenbanksystemen führten.
8.1.3 Datenbanksysteme
Eine Datenbank ist eine strukturierte Sammlung von Daten, die einen speziellen
Ausschnitt der realen Welt vereinfacht und schematisiert repräsentiert. Die Daten
stehen dabei unter logischen Gesichtspunkten miteinander in Beziehung. Zumeist
umfasst die Datenbank (Datenbasis) daher mehrere miteinander verknüpfte Da-
teien.
Aus den Unzulänglichkeiten der Dateisysteme ergeben sich fast direkt die Ziel-
vorgaben für die zu fordernden Eigenschaften von Datenbanksystemen. Generell
müssen sämtliche Daten nach beliebigen Merkmalen oder Merkmalskombinationen
ausgewertet werden können, wobei relativ einfache Abfragemöglichkeiten mit
günstigen Auswertezeiten bestehen sollten. Ebenso gilt grundsätzlich, dass einzel-
nen Benutzergruppen unterschiedliche Nutzungsrechte eingeräumt werden können,
so dass einzelne Datenbestände nicht sämtlichen Nutzern zugänglich sein müssen.
Die weiteren Anforderungen an ein Datenbanksystem sind im Einzelnen:
- Unabhängigkeit der Daten: In einem Datenbanksystem muss die enge Verknüp-
fung und Abhängigkeit zwischen den Daten und den Anwenderprogrammen auf-
gelöst werden. Dies ist ein wesentlicher Unterschied zu einem Dateisystem. Fer-
ner ist die logische von der physischen Datenorganisation zu trennen. Dem An-
wender müssen lediglich die logischen Datenstrukturen bekannt sein. Das Ver-
waltungssystem organisiert das Hinzufügen, das Löschen, das Ändern oder das
Suchen von Datensätzen. Schließlich muss eine Unabhängigkeit von den Daten
bzw. Informationen auf der Ebene des Computersystems bestehen. So muss das
Verwaltungssystem zusammen mit dem Betriebssystem vor allem die Verwal-
tung der Peripheriegeräte und der physischen Speicher steuern.
- Redundanzfreiheit der Daten: Sämtliche Informationen sollten möglichst nur ein-
mal gespeichert werden. So wird ein optimaler Einsatz der Hardwareressourcen
gewährleistet. Vor allem wird aber die Datenpflege erleichtert, so dass die Gefahr
von Dateninkonsistenzen verringert wird.
- Optimierung der Benutzerschnittstelle: Eine leistungsfähige Benutzerschnittstelle
und optimale Werkzeuge sollen eine einfache, aber auch umfassende Handha-
bung der Datenbestände und deren Auswertung ermöglichen. Dies beinhaltet vor
allem die Benutzung im interaktiven Betrieb auf der Basis einer einfachen Pro-
grammsteuerung (z.B. Menüsteuerung, Dateneingabe über Masken mit Überprü-
fung von Eingabefehlern, Assistenten zur Erstellung von Eingabemasken und
Auswerteprogrammen). Ferner sind leistungsfähige Auswertewerkzeuge (z.B.
Such- und Sortierverfahren) zu fordern.
334 Datenorganisation und Datenbanksysteme
Die externe Ebene bzw. Sicht (Benutzersicht) umfasst sämtliche individuelle Sich-
ten der Anwender auf die Daten. Dabei werden diese Sichten jeweils durch eine
eigene Datenstruktur (externes Datenschema) beschrieben, die genau den Teil der
(Gesamt-)Sicht umfasst, den ein Anwender benötigt oder auf den er einen Zugriff
haben soll. Das Datenbankmanagementsystem stellt Funktionen zur Auswertung
dieses Ausschnitts aus dem Gesamtdatenbestand bereit. Die Anwender kennen in
der Regel weder die logische Struktur des Datenbestandes noch die technische Re-
alisation der Datenspeicherung. Die Benutzersicht muss dabei zwei Blickrichtungen
berücksichtigen. Zum einen ist festzulegen, welche Daten in welcher Skalierung
und Genauigkeit für eine fachliche Fragestellung benötigt werden. Zum anderen
benötigt der Anwender je nach Fragestellung und Anwendung spezifische Zugangs-
berechtigungen und Auswertemöglichkeiten.
Die konzeptuelle Ebene bzw. Sicht entwickelt für den betrachteten Ausschnitt der
realen Welt und für die zu lösende Fragestellung eine logische Datenorganisation,
die unabhängig von Hard- und Software und insbesondere von physikalischen Spei-
chermethoden ist. Die Hauptaufgabe ist, den Datenbestand zu strukturieren und zu
336 Datenorganisation und Datenbanksysteme
8.1.5 Datenmodelle
Für den Entwurf eines Datenbanksystems sind die konzeptuelle Ebene und die Ent-
wicklung eines konzeptuellen Datenschemas wesentlich. Hierdurch werden je nach
Fragestellung die benötigte Informationsmenge des betrachteten Ausschnitts der re-
alen Welt sowie die logische Datenstruktur des Datenbanksystems beschrieben. Zur
Umsetzung des konzeptuellen Schemas bestehen mehrere konkrete Datenmodelle,
für die Datenbanksysteme, d.h. Softwarelösungen, verfügbar sind:
Das hierarchische Datenmodell (z.B. IMS/DB von IBM) und das Netzwerkda-
tenmodell (z.B. UDS (Universal Datenbank System) von Siemens) werden auch als
datensatzorientierte (Record-orientierte) Datenmodelle bezeichnet. Sie haben allge-
mein nur historische und in der Geoinformatik keine Bedeutung und bleiben hier
unberücksichtigt, wohingegen relationale Datenmodelle derzeit die wichtigste
Form in kommerziellen und auch freien Datenbanksystemen (z.B. Access von
Microsoft, DB2 und Informix von IBM, Oracle Database von Oracle Corporation
bzw. Ingres, MariaDB bzw. MySQL oder SQLite) bilden.
Objektorientierte bzw. objektrelationale Datenmodelle haben in der Geoinfor-
matik vielfältige Bedeutung, da sie Geometrie- wie auch Sachdaten speichern und
insbesondere verarbeiten können. Sie erweitern sachdatenbezogene Datenbanksys-
teme durch ihre Analysefunktionen von Geometriedaten hin zu Geoinformations-
systemen (vgl. Oracle Spatial von Oracle Corporation bzw. als freie Systeme die
objektrelationale Datenbank PostgreSQL mit der Erweiterung PostGIS zur Verwal-
tung und Analyse von Geodaten, vgl. Kap. 8.7).
8.2.1 Modellierungskonzepte
Entities (engl. Wesen, Ding) sind wohlunterscheidbare Objekte der realen Welt
(z.B. Geoobjekte wie ein konkreter Trinkwasserbrunnen oder die Messstation So-
estwarte, aber auch z.B. die Person Herr Müller). Die einzelnen Entities, die ähnlich,
vergleichbar oder zusammengehörig sind (z.B. alle Trinkwasserbrunnen einer Ge-
meinde), werden zu einem Entity-Typ (auch Entity-Set) zusammengefasst.
Entities besitzen Eigenschaften oder Attribute (z.B. Name eines Gewerbegebie-
tes, Nitratgehalt einer Wasserprobe), wobei die konkreten Merkmalsausprägungen
als Attributwerte (kurz Werte, engl. values) bezeichnet werden. Der Wertebereich
oder die Domäne (engl. domain oder value-set) umfasst sämtliche mögliche oder
zugelassene Merkmalsausprägungen.
Die Gegenstände der Beispielaufgabe lassen sich dann mit Hilfe der Datenbank-
terminologie beschreiben:
Entity-Typ Trinkwasserbrunnen der Gemeinde A
Entities Brunnen im Geisterholz, Brunnen von Landwirt L
Attribute BrunnenName, x-Koordinate, Nitratgehalt in mg
Domain Integerzahlen der Länge 5, String der Länge 20
Attributwerte 12345, Geisterholzbrunnen
338 Datenorganisation und Datenbanksysteme
Der Name eines Entity-Typs sowie die zugehörigen Attribute sind zeitinvariant.
Demgegenüber sind der Inhalt eines Entity-Typs und die einzelnen Attributwerte
zeitabhängig. Attribute können einwertig, mehrwertig sowie zusammengesetzt sein.
Anstelle von einwertigen spricht man auch von atomaren Attributen, die nicht wei-
ter zerlegbare Werte besitzen. So kann im vorliegenden Beispiel ein Brunnen meh-
rere Besitzer aufweisen (mehrwertiges Attribut). Auch die Adresse ist im Normal-
fall ein zusammengesetztes Attribut aus z.B. dem Namen der Stadt, der Straße, der
Hausnummer sowie der Postleitzahl.
8.2.3 Relationships
1:1–Typ: one-to-one-Relationship
Zu jedem a aus A gibt es genau ein b aus B mit R(a,b) (und umgekehrt).
Beispiel: Flurstücke in einem Gewerbeflächenkataster (Entity-Typ A)
und Bewertungen Merkmale (Entity-Typ B), jedes Flurstück hat einer-
seits Angaben zur Flur wie Flurname, Größe und Umfang sowie ande-
rerseits Angaben wie Grundsteuer oder Pachtzins. Beide Entity-Typen
könnten redundanzfrei zusammengefasst werden.
n:1–Typ: many-to-one-Relationship
Zu jedem b aus B gibt es ein oder mehrere ai aus A mit R(ai,b).
Beispiel: n verschiedene Flurstücke (Entity-Typ A) und Ausweisung
nach der Baunutzungsverordnung (BauNVO) im Flächennutzungsplan
(Entity-Typ B), jedes Flurstück ist nur genau einer Kategorie der
BauNVO als z.B. GE- oder SO-Gebiet zugeordnet. Der Entity-Typ B
„erläutert“ einige Attributwerte des Entity-Typen A. Diese Relation kann
als Bildung einer Legende verstanden werden.
n:m–Typ: many-to-many-Relationship
Zu jedem a aus A gibt es ein oder mehrere bi aus B mit R(a,bi) und
zu jedem b aus B gibt es ein oder mehrere aj aus B mit R(aj,b).
Beispiel: Flurstücke (Entity-Typ A) und Besitzer (Entity-Typ B), jedes
Flurstück kann einem oder mehreren Besitzern gehören, ein Besitzer
kann eines oder mehrere Flurstücke besitzen.
Der Beziehungstyp bzw. die Komplexität oder Kardinalität der Beziehung gibt an,
wie viele Entities des zweiten Entity-Sets mit einer bestimmten Entity des ersten
Entity-Sets in Beziehung stehen können (bzw. dürfen oder müssen).
Beziehungen können auch eigene Attribute besitzen, die Eigenschaften der Bezie-
hung ausdrücken. In dem Anwendungsbeispiel (vgl. Kap. 8.2.5 u. Abb. 8.10) sollen
die Brunnen von Laboren überprüft werden, wobei die Beziehung „prüfen“ z.B.
340 Datenorganisation und Datenbanksysteme
durch den Zeitraum der Zuständigkeit näher beschrieben werden kann. Beziehun-
gen können mehr als zweistellig sein. So wäre z.B. die dreistellige Beziehung „lie-
fern“ zwischen Probennehmer, Proben und Labor denkbar. Probennehmer nehmen
Proben von einem Brunnen und liefern sie an ein Labor. Zugelassen werden müsste,
dass ein Probennehmer mehrere Proben (eines Brunnens) an verschiedene Labore
ausliefert, die sich auf besondere Analyseverfahren spezialisiert haben. Dieser kom-
plexere Fall bleibt aber zumeist aus Vereinfachungsgründen ausgeklammert. Somit
erfolgt in der Regel eine Beschränkung auf die besonders wichtigen zweistelligen
Beziehungen, mit denen sich im Übrigen mehrstellige Beziehungen auflösen lassen.
8.2.4 Entity-Relationship-Diagramme
Zur graphischen Umsetzung von Entity-Typen und vor allem der zugehörigen Be-
ziehungstypen werden besondere Diagrammtypen verwendet. Diese Entity-Relati-
onship-Diagramme (ER-Diagramme) sind die graphische Darstellung der konzep-
tuellen Datenmodellierung. Sie beschreiben einen Ausschnitt der realen Welt. Der-
zeit bestehen verschiedene Darstellungsformen, wobei trotz einzelner graphischer
Unterschiede die Kernaussagen fast identisch sind. Abbildung 8.9 modelliert bzw.
veranschaulicht graphisch die Situation, dass ein Flurstück in genau einer Gemeinde
liegt, wobei eine Gemeinde mehrere Flurstücke besitzt.
Sehr häufig ist die sog. Chen-Notation (benannt nach dem Entwickler der ER-
Diagramme) bzw. die Modifizierte Chen-Notation (Erweiterung um die Darstellung
von Attributen) anzutreffen. In dieser Darstellungsvariante werden der Name eines
Entity-Typs als Rechteck sowie die Attribute als Kreise oder Ellipsen dargestellt,
Datenbankentwurf mit ER-Modellierung 341
die durch ungerichtete Kanten mit dem zugehörigen Rechteck verbunden werden.
Doppelkreise bzw. Doppelellipsen kennzeichnen mehrwertige Attribute, ungerich-
tete Kanten verbinden zusammengesetzte Attribute mit ihren Komponenten. Eine
Beziehung wird durch eine Raute dargestellt, die durch Kanten mit den zugehörigen
Entity-Typen verbunden ist (vgl. Abb. 8.7 u. 8.9). Entsprechende Beschriftungen
verdeutlichen den Beziehungstyp.
Die IDEF1X-Notation kennzeichnet einen langjährigen Standard der US-
Behörden. Die Bachman-Notation geht auf einen Pionier von Datenbanksystemen
zurück, d.h. vor allem des Netzwerkdatenmodells. Verfügbar sind viele graphische
Werkzeuge (d.h. Programme) zur Erstellung von ER-Diagrammen, die häufig in
Programmsystemen zur Entwicklung von Datenbanken integriert sind (vgl. z.B. die
Freie Software MySQL-Workbench vgl. Abb. 8.11). Inzwischen hat sich UML
(Unified Modeling Language) zu einem Standard für die Modellierung von Soft-
waresystemen, d.h. zur objektorientierten Modellierung, entwickelt. Hierbei umfas-
sen die sog. Klassen den eigentlichen Kern der Modellierungssprache. Dementspre-
chend werden Datenbankmodelle durch Klassendiagramme dargestellt, wobei wei-
tergehende Konzepte der Datenmodellierung bestehen (vgl. z.B. Spezialisierung).
Im Unterschied zu den anderen Formen werden Attribute (und Methoden, hier Ope-
rationen genannt) innerhalb des Klassenkastens angefügt (vgl. Abb. 8.9 ohne Me-
thoden, zu UML vgl. Gumm u. Sommer 2013 S. 840 ff.).
Das relationale Datenmodell, das auf einem theoretischen Fundament von Codd
(vgl. Codd 1970, 1990) aufbaut, ist seit Mitte der 80er Jahre zum Standard kom-
merzieller Datenbankverwaltungssysteme geworden. Grundlegend ist die Umset-
zung einer Relation, die hier die einzig mögliche Datenstruktur liefert. Formal ist
eine n-stellige Relation R eine Teilmenge der Produktmenge A1 x A2 x ... x An (hier:
A1, ..., An Attribute). Dabei wird einem Datenbanksystem nur die Produktmenge
der Wertebereiche der n verschiedenen Attribute zugrunde gelegt:
R = { (a1,a2, ..., an) | a1 A1, a2 A2, ..., an An} A1 x A2 x A3 x ... x An
Ein Tupel (b1,b2, ..., bn) von n Attributwerten beschreibt genau ein Entity.
Eine derartige Relation kann anschaulich durch eine zweidimensionale Tabelle dar-
gestellt werden. Beim relationalen Datenmodell wird also der gesamte Datenbe-
stand durch einfache Tabellen verwaltet. Hierbei entspricht eine Relation bzw. eine
Tabelle einem Entity-Typ, eine Spalte einer Tabelle definiert ein Attribut, eine Zeile
einer Tabelle beschreibt ein Entity und entspricht einem logischen Datensatz. Ein
Attribut oder eine Attributkombination dient zur eindeutigen Identifizierung eines
Entities, so dass niemals zwei identische Reihen bestehen können. Die Reihenfolge
der Zeilen und Spalten ist beliebig.
Die Tabellen 8.1 und 8.2 verdeutlichen die Prinzipien. Die Tabellen beschreiben
die Lage und Anschrift der Brunnen und der Labore. Ferner enthält die Tabelle 8.1
Informationen, welches der Labore für die Brunnen zuständig ist. Allerdings muss
344 Datenorganisation und Datenbanksysteme
schon jetzt darauf hingewiesen werden, dass der Aufbau der Tabelle 8.1. nicht op-
timal ist (vgl. Wiederholungen der Labornamen und Telefonnummern in Abhän-
gigkeit der Labornummer, zur Bewertung von Optimalität vgl. Kap. 8.3.2).
Die Beispieltabellen benötigen Schlüsselfelder (vgl. Kap. 8.1.1). So müssen sich
unter den Attributen besondere Merkmale befinden, die einzeln oder in Kombina-
tion miteinander eindeutig genau ein Entity, d.h. beim relationalen Datenmodell
eine Tabellenzeile kennzeichnen. Identifikationsschlüssel sind das Attribut „B-Nr.“
in Tabelle 8.1 sowie das Attribut „L-ID“ in Tabelle 8.2. Das Attribut „Labor-Nr.“
ist ein Fremdschlüssel in Tabelle 8.1 (zugehörig zum Identifikationsschlüssel in
Tab. 8.2).
Die Verwendung von Tabellen oder das Denken in Tabellen ist die weitgehend üb-
liche Form des Arbeitens mit Daten. Die Verknüpfung von Tabellen über Schlüs-
selfelder sowie auch das Einhalten von Normalformen (vgl. Kap. 8.3.2) erfolgen
fast intuitiv oder sind rasch erlernbar. Insbesondere kann ein Entity-Relationship-
Diagramm direkt in das Relationenmodell transformiert werden (vgl. Kap. 8.3.3).
Somit besteht eine enge Verzahnung zwischen dem konzeptuellen Datenbankent-
wurf und der programmtechnischen Umsetzung. Ferner hat sich für relationale Da-
tenbankverwaltungssysteme eine Standarddatenbanksprache etabliert (SQL =
Structured Query Language, vgl. Kap. 8.4.3). Insbesondere liegen für verschiedene
Hardwareplattformen sehr viele kommerzielle und auch proprietäre Datenbanksys-
teme vor, die sämtlich als technisch ausgereift gelten können.
8.3.2 Normalformen
Die Tabellen 8.1 und 8.2 verdeutlichen zwar schon Relationen und zeigen das Prin-
zip, wie Verknüpfungen zwischen Tabellen dargestellt werden können. Allerdings
ist die Tabellenstruktur noch nicht optimal. Im Anwendungsfall ist eine Vermeidung
von Datenredundanzen anzustreben. So entstehen durch mehrfache Speicherung oder
suboptimale Strukturierung ein hoher Speicherbedarf sowie ein langsamerer Zugriff
auf die Daten oder Auswertemöglichkeiten. Insbesondere können Probleme bei der
Datenpflege auftreten (mehrfaches Update, Konsistenthalten der Daten). Da in beiden
Tabellen die Namen der Labore und die Telefonnummern vorgehalten werden, tre-
ten Redundanzen auf. Kritisch ist vor allem der Aufbau der Tabelle 8.1. Die Angabe
der Anschlussnummer muss für ein Labor jeweils identisch sein. Bei einer Ände-
rung der Telefonverbindung eines Labors müsste die Aktualisierung mehrmals
durchgeführt werden. In beiden Fällen bestehen erhebliche Fehlerquellen. Dabei
sind in der Tabelle 8.1 der Laborname und die Telefonnummer überflüssig, die über
eine Verknüpfung mit der Tabelle 8.2 zu erhalten sind. Häufig sind aber viel mehr
Merkmale redundant vorhanden. Vor dem Hintergrund derartiger Strukturierungs-
probleme wurde das Konzept der Normalformen entwickelt, die als Optimierungs-
kriterien für relationale Datenbanken zu benutzen sind. Ein Hauptanliegen beim
Entwurf einer relationalen Datenbank ist, die Tabellen zu normalisieren und
dadurch Redundanzen zu verringern.
Tabelle 8.3 verdeutlicht eine Relation, wie sie leider häufig anzutreffen ist, die
aber aus der Sicht der Datenmodellierung von relationalen Datenbanken völlig un-
sinnig ist! Sie zeigt die Analysewerte für die verschiedenen Brunnen, jede Analyse
wird durch ein Attribut wiedergegeben. Hierbei bleiben manche Zellen in der Ta-
belle leer, da nicht immer sämtliche Analyseverfahren durchgeführt werden und für
verschiedene Brunnen der jeweilige Untersuchungsumfang recht unterschiedlich
ist. Ferner sind nur wenige Attribute zur Speicherung der Analysewerte vorgesehen.
Sind an einem Brunnen weitere Parameter zu analysieren, muss das Datenmodell
geändert werden. Auch wird Speicherplatz verschenkt, wenn für viele Brunnen nur
wenige Parameter zu messen sind. Die Probleme vervielfachen sich, wenn Analy-
sewerte aus mehreren Analysekampagnen zu speichern sind. Die unterschiedlichen
Messreihen durch Datumsangaben in den Attributnamen zu verdeutlichen, stellt
346 Datenorganisation und Datenbanksysteme
keine Lösung dar (Verquickung von Datenstruktur und Inhalt). Vor allem kann eine
Tabelle in Datenbankmanagementsystemen nicht um beliebig viele Attribute nach
rechts erweitert werden. Zudem sind Datenbankabfragen umständlich zu realisie-
ren. Falls z.B. ermittelt werden soll, ob an einem bestimmten Brunnen ein Parameter
erhoben wird, müssen jeweils sämtliche (Attribut-)Felder der Datenbank nach Wer-
ten durchsucht werden.
Eine derartige Tabelle ist in der Regel nicht das Ergebnis einer konzeptuellen Da-
tenmodellierung mit einem Entity-Relationship-Diagramm. Das Konzept der Nor-
malformen hilft, derartige Fehler auszuschließen.
Eine Relation befindet sich in erster Normalform, wenn jedes Attribut elementar
oder atomar, d.h. unzerlegbar ist. Die Relationen bzw. Tabellen 8.1 und 8.2 befin-
den sich nicht in der ersten Normalform. Die Attribute „Lage“ und „B-Adresse“
sowie „L-Adresse“ sind nicht atomar. Stattdessen liegen Wertelisten vor, die z.B.
aus den Bestandteilen „Geogr. Länge“ und „Geogr. Breite“ bestehen. Sinnvoller-
weise werden die Attribute atomisiert, so dass dann z.B. eine Sortierung nach der
Geographischen Länge möglich ist (vgl. Tab. 8.4).
Eine Relation befindet sich in zweiter Normalform, wenn sie die erste Normal-
form besitzt und zusätzlich jedes Attribut, das nicht selbst zum Identifikations-
schlüssel gehört, voll funktional vom gesamten Identifikationsschlüssel abhängig
ist. Tabelle 8.5, die die Analysewerte der Brunnen mit den zugehörigen Erläuterun-
gen der Werte enthält, befindet sich zwar in erster, aber nicht in zweiter Normal-
form. Hier liegt ein zusammengesetzter Identifikationsschlüssel vor, der aus den
Attributen „B-Nr.“, „Datum“ und „ParameterName“ besteht. In dieser Relation sind
die Attribute „Messeinheit“ (Maßeinheit des gemessenen Parameters) und „Grenz-
wert“ jeweils Nicht-Schlüsselattribute, die aber nur von dem Attribut „Parameter-
Name“ abhängen. Diese Attribute sind somit nicht voll funktional abhängig vom
(gesamten) Identifikationsschlüssel. Um die zweite Normalform zu erreichen, muss
die Tabelle weiter zerlegt werden (vgl. Tab 8.6 u. 8.7).
Das relationale Datenmodell 347
Tabelle 8.5: Beispiel einer Relation in erster, aber nicht in zweiter Normalform
B-Nr. Datum Wert ParameterName Analyseverfahren Messeinheit Grenzwert
Nitrat mg/l 50
Nitrit mg/l 0,1
Cadmium mg/l 0,005
CKW mg/l Organische 0,01 Grenzwert für sämtliche Verbindungen,
Chlorverbindungen Tetrachlormethan max. 0,003 mg/l
PAK mg/l Polycycl. aromatische 0,0002
Kohlenwasserstoffe
Eine Relation befindet sich in dritter Normalform, wenn sie die zweite Normalform
besitzt und zusätzlich kein Attribut (außerhalb des Identifikationsschlüssels) transi-
tiv von einem Identifikationsschlüssel abhängig ist. Hierdurch wird nicht zugelas-
sen, dass lediglich indirekte oder übertragene (d.h. transitive) Abhängigkeiten eines
348 Datenorganisation und Datenbanksysteme
Attributs vom Primärschlüssel bestehen. So befindet sich die Tabelle 8.1 nicht in
der 3. Normalform. Das Attribut „L-Name“ gehört nicht zum Identifikationsschlüs-
sel der Relation. Der Laborname ist nur von dem Attribut „Labor-Nr.“ abhängig,
erst dieses Attribut ist vom Identifikationsschlüssel (B-Nr.) abhängig. Somit liegt
eine transitive Abhängigkeit von einem Identifikationsschlüssel vor. Bei gleicher
Zugehörigkeit mehrerer Brunnen zu einem Labor werden die Bezeichnungen wie-
derholt. Die transitive Abhängigkeit weist also auf Redundanzen hin. Um die Tabelle
8.1 zu optimieren und die dritte Normalform zu erreichen, muss sie neben der Atomi-
sierung der Attribute weiter zerlegt werden. Die Lösung liefert bereits die Tabelle 8.2
(bis auf die Atomisierung der Adresse), wobei aus der Tabelle 8.1 die Attribute „L-
Name“ und „Telefon“ herausgenommen werden. Tabellen 8.6 und 8.7 normalisieren
Tabelle 8.5.
Über die dritte Normalform, deren Vorliegen anzustreben ist (vgl. Saake u.a.
2018 S. 179 ff.), bestehen weitere Normalformen. Zusammenfassend gilt eine Kette
von Inklusionen, wobei mit BCNF die Boyce-Codd-Normalform bezeichnet wird.
5. NF 4. NF BCNF 3. NF 2. NF 1. NF
Hohe praktische Bedeutung hat die Bedingung, die das Vorliegen der 5. Normal-
form garantiert (vgl. Vossen 2008 S. 274): Ist eine Relation in der 3. Normalform
und ist jeder Schlüssel einfach (d.h. er besteht nur aus einem Attribut), dann befindet
sich diese Relation in der 5. Normalform. Somit werden in der Praxis bei einfachen
numerischen IDs nur die ersten drei Normalformen beachtet.
Insgesamt stellen die Normalformen Kriterien dar, die zur Beurteilung eines re-
lationalen Datenbanksystems herangezogen werden können. Allerdings entstehen
durch die Auftrennungen viele kleine Tabellen, so dass letztlich das Datenmodell
recht unübersichtlich werden kann. Der Anwender sollte aber gar nicht auf die Ta-
belle selbst schauen müssen. Ein Zugriff bzw. eine Auswertung sollte mit Hilfe ei-
ner komfortablen Abfragesprache erfolgen, so dass die Art der Speicherung für den
Anwender unerheblich sein sollte (vgl. Kap. 8.4.3).
über das Attribut „B-Nr.“. Zwar könnte das Ziel auch dadurch erreicht werden, dass
die Tabelle „Brunnen“ direkt um zusätzliche Attribute ergänzt wird. Auf der kon-
zeptuellen Seite des Datenbankentwurfs ist aber zu überlegen, ob zeitabhängige von
den zeitunabhängigen Merkmalen wie z.B. der Standortdefinition zu trennen und in
verschiedenen Tabellen vorzuhalten sind.
Im vorliegenden Anwendungsbeispiel kommt der 1:n-Beziehung „besitzen“ zwi-
schen den Entity-Typen „Brunnen“ und „Analysewerte“ eine zentrale Bedeutung
zu. Jeder Brunnen hat eine unterschiedliche Anzahl von Analyseergebnissen. Eine
Umsetzung, bei der genau eine Zeile für jeden Brunnen steht und bei der die Spalten
die Analysewerte aufnehmen, stellt keine Lösung dar (vgl. Tab. 8.3). Dies ist vor
allem darauf zurückzuführen, dass völlig unklar ist, wie viele Analyseereignisse er-
wartet werden. Daher wird im vorliegenden Anwendungsbeispiel der Entity-Typ
„Analysewerte“ einzig sinnvoll in eine Tabelle umgesetzt, die nach „unten“ unbe-
grenzt ist (vgl. Tab. 8.8)! Durch das Attribut „B-Nr.“ wird die Beziehung „besitzen“
zwischen den Entity-Typen „Brunnen“ und „Analysewerte“ realisiert (Verknüpfung
zwischen Tab. 8.1 bzw. deren normalisierte Form u. 8.8). Durch die zusätzliche Ein-
führung des eindeutigen Attributs „Kennnummer“ besitzt Tabelle 8.8 einen eigenen
Primärschlüssel.
Tabelle 8.8: Darstellung einer 1:n-Relation in dritter Normalform für den Entity-Typ Analysewerte
der Beispielaufgabe aus Kapitel 8.2.5
Kennnummer B-Nr. Datum ParameterName Wert
... ... ... ... ...
51 2 27.01.96 Nitrat 52
52 2 27.01.96 Nitrit 0,05
53 2 27.01.96 Cadmium 0,006
... ... ... ... ...
70 2 10.10.96 PAK 0,00017
71 2 08.12.96 Nitrat 54
Tabelle 8.9: Darstellung einer 1:n-Relation in dritter Normalform für den Entity-Typ Parameter der
Beispielaufgabe aus Kapitel 8.2.5
B-Nr. ParameterName Messeinheit Bezeichnung Grenzwert
Tabelle 8.10: Darstellung einer Matching-Tabelle zur Umsetzung einer n:m-Beziehung (Entity-Typ
prüfen der Beispielaufgabe aus Kapitel 8.2.5)
B-Nr. LaborID von bis
1 10 01.01.96 31.12.97
2 10 01.01.96 31.12.96
2 30 01.01.97 31.12.97
3 30 01.01.96 31.12.97
4 20 01.01.96 31.12.97
5 20 01.01.96 31.12.96
6 10 01.01.96 31.12.96
6 20 01.01.97 31.12.97
7 30 01.01.96 31.12.97
Zwischen den verknüpften Dateien und insbesondere zwischen den die Verknüp-
fung realisierenden Schlüsselfeldern muss eine logische Datenkonsistenz bestehen!
So muss verhindert werden, dass z.B. in Tabelle 8.2 das Labor mit der ID 10 ge-
löscht wird, solange noch in Tabelle 8.10 der Zuständigkeiten auf dieses Labor ver-
wiesen wird. Diese Eigenschaft wird als referentielle Integrität bezeichnet (vgl.
Kap. 8.5.2).
Die vorliegende Modellierung (vgl. Abb. 8.10 u. 8.11) ist hinreichend. Eine Aus-
wertung vieler Fragestellungen ist mit der Datenbankabfragesprache SQL möglich
(vgl. Beispiele in Kap. 8.4.4). Die Modellierung ist hier aber bewusst minimalistisch
angelegt, um die Leistungsfähigkeit der Modellierung und Auswertung zu zeigen.
So sind über den „Umweg“ der Relation, die die Zuständigkeiten modelliert, die
Informationen enthalten, welches Labor einen bestimmten Analysewert eines Brun-
nens bestimmt hat (zur Umsetzung in der Praxis und Ergänzung des Analysewertes
um die ID des zugöhrigen Labores vgl. Kap. 8.4.4).
Zur Auswertung einer Datenbank ist der mächtige SELECT-Befehl von Bedeu-
tung, der mit bis zu sechs Komponenten angegeben werden kann. Die allgemeine
Syntax lautet:
SELECT [ALL | DISTINCT] {spalten | *}
FROM tabelle [alias] [tabelle [alias]] ...
WHERE {bedingung | unterabfrage}
GROUP BY spalten [HAVING {bedingung | unterabfrage}]
ORDER BY spalten [ASC | DESC]...;
Kapitel 8.4.4 zeigt anhand des bereits erarbeiteten relationalen Datenbanksys-
tems eines Brunnenkatasters (vgl. Abb. 8.10 bzw. 8.11) mehrere Auswertungsbei-
spiele zum SELECT-Befehl.
Suche alle Brunnen, deren Wasserproben einen Nitratgehalt > 50 mg/l aufweisen.
SELECT "P_BrunnenID","P_BrunnenName","Werte_ID","Werte"
FROM public."PSQL_Brunnen"
Inner Join public."PSQL_Werte" on "P_BrunnenID" = "Brunnen_ID"
WHERE (("Parameter" = 'Nitrat') AND ("Werte" > 50))
Suche alle Brunnen, deren Wasserproben einen Nitratgehalt > 50 mg/l aufweisen
und die zwischen 3.1.1996 und 28.2.1997 erhoben worden sind:
SELECT "P_BrunnenID","P_BrunnenName","Werte_ID","Werte","Datum"
FROM public."PSQL_Brunnen"
Inner Join public."PSQL_Werte" on "P_BrunnenID" = "Brunnen_ID"
WHERE ("Datum" > '3.1.1996' ) AND ("Datum" < '28.2.1997') AND("Parameter" =
'Nitrat') AND ("Werte" > 50)
Suche alle Brunnen, deren Wasserproben einen Nitratgehalt > 50 mg/l aufweisen
und die zwischen 3.1.1996 und 28.2.1997 erhoben worden sind, mit den
zugehörigen Laboren:
SELECT "P_BrunnenID", "P_BrunnenName", "LaborName",
"Parameter","Werte","von","bis"
FROM (public."PSQL_Brunnen" Inner Join public."PSQL_Werte" on
"P_BrunnenID" = "Brunnen_ID")
Inner Join (public."PSQL_Labore" inner Join "PSQL_Betreuung" on
"LLabor_ID" = "BLabor_ID") on "P_BrunnenID"="BBrunnen_ID"
WHERE ("Datum" > '3.1.1996' ) AND ("Datum" < '28.2.1997') AND ("Parameter" =
'Nitrat') AND ("Werte" > 50)
356 Datenorganisation und Datenbanksysteme
Das letzte Beispiel zeigt, wie komplexe Abfragen über mehrere Relationen durch
die Datenmanipulationssprache SQL gestaltet werden können. Notwendig wird eine
Abfrage über mehrere Relationen (Verknüpfung mit JOIN und anschließender Se-
lektion). Etwas überraschend mag das Ergebnis sein, dass Abfragen z.B. zwischen
Laboren und Analysewerten möglich sind, obschon keine direkte Beziehung zwi-
schen diesen Entities aufgebaut wurde. Dies zeigt die Leistungsfähigkeit von SQL.
In der Praxis wird man aus Vereinfachungsgründen aber zusätzlich zu den Angaben
in der Tabelle der Analysewerte auch die Identifikationsnummer des zugehörigen
Labores angeben (vgl. Kap. 8.3.3).
Basisdaten Steuermerkmale
P_ID P_Groesse … S_ID P_ID …
… …
113 3.000 03409 113
… …
184 4.000 03333 184
… … …
Zu jeder Parzelle gehört die Ausweisung nach der Baunutzungsverordnung, die z.B.
die Kennzeichnung M für Mischgebiet, GE für Gewerbegebiet und GI für Indust-
riegebiet vorsieht. Dann liegt zwischen den Geoobjekten und der Tabelle BauNVO
eine n:1-Relation vor, die vereinfacht gesprochen die Abkürzungen erklärt (sog.
Legendentyp, vgl. Abb. 8.13).
Basisdaten BauNVO
P_ID P_Groesse P_B B_ID P_B B_Name
… …
113 3.000 GE 11 GE Gewerbegebiet
127 5.000 GE 12 GI Industriegebiet
184 4.000 GE 20 MI Mischgebiet
155 2.500 MI 30 WA Allg. Wohngeb.
221 5.000 MI 40 SO Sondergebiet
222 1.000 WA 50
… …
Abb. 8.13: Beispiel einer n:1 Relation
Beide Tabellen können mit dem Join-Operator zu einer einzigen Tabelle vereinigt
werden, die nur während der Bearbeitung vorliegt. Das Geoinformationssystem ver-
vielfacht (temporär) die Einträge (vgl. Abb. 8.14).
358 Datenorganisation und Datenbanksysteme
Basisdaten_BauNVO
P_ID P_Groesse P_B B_Name
…
113 3.000 GE Gewerbegebiet
127 5.000 GE Gewerbegebiet
184 4.000 GE Gewerbegebiet
155 2.500 MI Mischgebiet
221 5.000 MI Mischgebiet
222 1.000 WA Allg. Wohngebiet
Abb. 8.14: Beispiel einer durch den Join-Operator aufgelösten n:1 Relation
Zwischen den Flurstücken und den Parzellen liegt eine 1:n Beziehung vor (vgl. Abb.
8.15). Jedes Flurstück gehört zu genau einer Nutzungsparzelle, wobei eine Parzelle
sich aus mehreren Flurstücken zusammensetzen kann. Somit könnte mit dem Join-
Operator eine Relation aufgebaut werden. Mit jedem Flurstück wird die zugehörige
Tabelle der Nutzungsparzellen verbunden (sog. Legendentyp).
Basisdaten Flurstücke
P_ID P_Groesse … F_ID F_Groesse …
… …
113 3.000 03119 3.000
03127 2.000
184 4.000 03028 1.500
… 03029 500
221 5.000 03050 2.000
222 1.000 03051 3.000
375 2.500 03965 2.500
… … … …
Abb. 8.15: Beispiel einer 1:n Relation
Noch etwas komplexer ist die Modellierung der n:m-Beziehung zwischen den
Nutzungsparzellen und den Unternehmen. Beide Tabellen können im Relationen-
modell nicht direkt, sondern nur über eine sog. Matchingtabelle aufeinander bezo-
gen werden. Auch hier kommt in einem Geoinformationssystem der Relate-Opera-
tor zum Einsatz (vgl. Abb. 8.16).
Ein einzelnes Geoobjekt wird mit genau einer Zeile einer derartigen Attributtabelle
referenziert. Das Geoobjekt wird über ein Schlüsselattribut bzw. einen Schlüssel-
attributwert identifiziert.
Die aufgezeigten relationalen Datenstrukturen, die über Verknüpfungen mehre-
rer Tabellen realisiert werden, sind auch in Geoinformationssystemen darzustellen.
Dieses Vorgehen scheint auf den ersten Blick umständlich zu sein. Der Aufbau re-
lationaler Datenstrukturen dient aber der effizienten Verwaltung der zu den Geoob-
jekten zugehörigen Datenstrukturen, vermeidet Redundanzen und Dateninkonsis-
tenzen (vgl. Kap. 8.5).
360 Datenorganisation und Datenbanksysteme
8.5 Datenkonsistenzen
Die referentielle Integrität stellt sicher, dass eine Datenkonsistenz zwischen zwei
verknüpften, d.h. referenzierten Relationen (Tabellen) besteht und beim Einfügen,
Löschen oder Verändern erhalten bleibt. Die referentielle Integrität kennzeichnet
eine Eigenschaft der Beziehung zwischen dem Primärschlüssel einer Relation (Ta-
belle) R1 und dem Fremdschlüssel in einer weiteren Relation (Tabelle) R2. Der
Fremdschlüssel von R2 besitzt die gleiche Anzahl von Attributen wie der Primär-
schlüssel der Relation R1, auf die der Fremdschlüssel verweist. Im Beispiel des
Brunnenkatasters besteht zwischen der Tabelle „Analysewerte“ mit dem Fremd-
schlüssel „Laborkennung“ und der Tabelle „Labore“ mit dem Primärschlüssel „La-
borID“ referentielle Integrität, wenn sämtliche Attributwerte des Fremdschlüssels
der Tabelle „Analysewerte“ als Primärschlüssel in der Tabelle „Labore“ vorkom-
men. Durch Beachtung der referentiellen Integrität wird hier gewährleistet, dass
beim Einfügen einer neuen oder beim Ändern einer bestehenden Zeile in der Tabelle
„Analysewerte“ der Fremdschlüssel auf eine existierende Laborkennung in der Ta-
belle „Labore“ verweisen muss. Eine Änderung eines Primärschlüssels ist nur zu-
lässig, falls kein Fremdschlüssel auf ihn verwiesen hat. Hierzu gehört auch ein Lö-
schen einer Zeile in der Tabelle „Labore“.
8.5.3 Trigger
Ein Trigger ist eine Prozedur (d.h. ein Programm), die vom Anwender definiert und
entwickelt und die automatisch vom Datenbankmanagementsystem gestartet wird,
falls eine bestimmte Bedingung erfüllt ist. Trigger werden vor allem dann sinnvoll
eingesetzt, wenn bereits gespeicherte Daten nachträglich verändert werden sollen.
So kann im Beispiel des Brunnenkatasters verhindert werden, dass bei Änderung
des Analyseumfangs für einen Brunnen die Bestimmung des pH-Wertes (versehent-
lich) herausgenommen wird, wenn gerade die pH-Bestimmung des Wassers für alle
Brunnen zwingend vorgeschrieben ist. Durch einen Trigger wäre auch zu gewähr-
leisten, dass Eintragungen in die Tabelle „Analysewerte“ nur mit Datumsangaben
möglich sind, die aktueller als die bisher gespeicherten Werte bzw. deren Datums-
angaben sind. Hierdurch könnte verhindert werden, dass zwar ein allgemein gülti-
ges Datum wie z.B. 25.06.2010 eingegeben wird, das aber (wahrscheinlich) falsch
ist, da auch schon Analysewerte für 2012 abgespeichert sind. Dieses Problem
könnte durch Einschränkung des Wertebereichs, der bei jeder Eingabe neu zu defi-
nieren wäre, nicht gelöst werden.
8.5.4 Transaktionen
8.6 Erweiterungen
Das einfache Entity-Relationship-Modell geht davon aus, dass die Entities selbst-
ständig sind, zwar in Beziehung stehen, aber nicht voneinander abhängig und in der
Entitymenge über Schlüsselattribute eindeutig identifizierbar sind. Die Modellie-
rung der Realität und insbesondere vieler Geoobjekte zeigt aber, dass abhängige
oder schwache Entities vorliegen können, deren Bestehen von einem anderen, über-
geordneten Entity abhängig ist und die nur in Kombination mit dem Schlüssel des
übergeordneten Entities eindeutig identifizierbar sind. Das klassische Beispiel sind
Räume in Gebäuden. So liegen in der Regel gleiche Raumnummern in mehreren
Erweiterungen 363
Gebäuden vor, die eindeutige Identifizierung ist nur durch Kombination von Ge-
bäude und Raumnummer möglich wie z.B. in der Universität Osnabrück, wo durch
die Kennung 11/E04 die Aula gekennzeichnet ist. Falls ein Gebäude abgerissen
wird, verschwinden die Räume ebenfalls. Ein Beispiel aus einem Anwendungsbe-
reich der Geoinformatik verdeutlicht die abstrakte Formulierung. So sollen schüt-
zenswerte Biotope ausgewiesen werden, die in größeren Einheiten, d.h. in Land-
schaftsschutzgebieten vorliegen. Innerhalb dieser Landschaftsschutzgebiete haben
die Biotope eine eindeutige Kennung, verschiedene Landschaftsschutzgebiete kön-
nen aber durchaus mehrere Biotope mit derselben Kennung aufweisen. Falls ein
Landschaftsschutzgebiet planerisch umgewidmet wird, verschwinden die Biotope.
Die Biotope treten in diesem Beispiel in ihrer Existenz nur abhängig von einem
übergeordneten Landschaftsschutzgebiet (LSG) auf. Global ist ein einzelnes Biotop
nur durch die Schlüsselnummer des LSG und des Schlüssels des Biotops identifi-
zierbar.
Abhängige Entities werden im ER-Diagramm durch doppelt umrandete Recht-
ecke markiert. Durch eine doppelt umrandete Raute wird die Beziehung dargestellt.
Die Attribute werden gestrichelt unterstrichen.
Das Konzept der abhängigen Entity-Typen verfeinert und präzisiert die ER-
Modellierung. Die Umsetzung erfolgt wie üblich durch Tabellen und durch zusam-
mengesetzte Schlüssel (bzw. durch neue Schlüssel, die eine Kombination beider
Schlüsselfelder darstellen).
Koordinaten
Name Adresse
Brunnen
ist
Städtischer Privater
Brunnen Brunnen
gebracht. Zentrale Konzepte wie die Verwendung von Relationen und die Daten-
bankabfragesprache SQL bleiben erhalten (vgl. Kemper Eickler 2015 S. 401 ff. u.
S. 439 ff.).
Der SQL-Standard SQL:2016 dokumentiert diese Entwicklungen. Der Standard
besteht insgesamt aus neun Publikationen und wird durch ebenfalls standardisierte
SQL multimedia and application packages ergänzt. Für die Geoinformatik ist vor
allem der dritte Teil wichtig, häufig SQL-MM 3 abgekürzt, der benutzerdefinierte
räumliche Datentypen und die dazugehörigen Routinen definiert (vgl. ISO/IEC
9075-1:2016 u. ISO/IEC 13249-3:2016).
8.7 Geodatenbanken
Eine zentrale Aufgabe der Geoinformatik besteht darin, dass neben nicht-geometri-
schen Attributen, die die Thematik eines Geoobjektes beschreiben, vor allem geo-
metrische Daten gespeichert, verwaltet, analysiert und präsentiert werden müssen.
Die Darstellung der zunächst sehr einfach klingenden Aufgabe, die Grenzen (und
Flächen) der Bundesrepublik Deutschland darzustellen, scheitert aber mit einem re-
lationalen Datenbanksystem, das u.a. atomare Attribute verlangt. Kein Attribut darf
eine Menge oder Liste von Daten enthalten. Die Geometrien von Geodaten, d.h.
z.B. die Grenzen des Bundeslands Brandenburg, bestehen aus vielen Attributen,
wobei die Grenzen des Bundeslands Hessen eine dazu unterschiedliche Anzahl auf-
weisen. Das Bundesland Brandenburg ist ein Polygon mit der Aussparung für Berlin
(sog. Donut). Das Bundesland Schleswig-Holstein ist ein mehrteiliges Polygon, das
Festland und Inseln beschreibt. Derartige Multipolygone können nur sehr umständ-
lich in einem relationalen Datenbanksystem gespeichert werden. So ist eine Auftei-
lung der Multipolygone auf mehrere Tabellen sehr ineffizient (zu einem Lösungs-
ansatz vgl. Brinkhoff 2013 S. 28).
Lange Zeit war die Norm, Geometrien und Sachdaten getrennt zu speichern (vgl.
den heute noch gültigen Industriestandard das Shape-Datenformat der Firma ESRI,
vgl. Kap. 9.3.3). Die Geometrien werden in einem (hersteller-)spezifischen Format
gespeichert. Für die Darstellung der Sachdaten wird zumeist eine kommerzielle re-
lationale Datenbank benutzt (vgl. z.B. das dBASE-Datenformat im proprietären
Shape-Datenformat, vgl. Kap. 9.3.3)). Eine Software, d.h. in der Regel ein Geoin-
formationssystem, führt beide Attributarten zusammen. Die Kopplung beider Da-
tenmengen erfolgt über gemeinsame Schlüssel. Dieses Vorgehen hat mehrere ge-
wichtige Nachteile. Das proprietäre Datenformat kann sich bei einem Versions-
wechsel ändern. Die Geometrien können in der Regel nicht ohne das Geoinforma-
tionssystem oder erst nach aufwendiger Erstellung von benutzereigenen Program-
men benutzt werden. Eine einfache Interoperabilität besteht nicht. Abgesehen von
herstellerdefinierten Industriestandards bestehen keine allgemeinen, offenen Stan-
dards.
Geodatenbanken 367
8.7.3 PostgreSQL/PostGIS
pen (wie Bestimmen von Flächeninhalten, Längen oder von Schnittpunkten) erfol-
gen auf der Kugeloberfläche, wobei die Versionen PostGIS 2.2 und höher beliebig
definierte Ellipsoide unterstützen (vgl. PostGIS 2019b). Das neueste Mitglied der
räumlichen PostGIS-Typenfamilie ist „raster“ zum Speichern und Analysieren von
Rasterdaten (vgl. PostGIS 2019b Chapter 10).
In der Geoinformatik hat PostGIS als Erweiterung von PostgreSQL eine große
Bedeutung und entsprechend große Verbreitung. Die Datenbank PostgreSQL kann
zunächst nur als Datencontainer zur Speicherung von Geodaten dienen. Viele Open-
Source-Geoinformationssysteme können auf die Datenbank zugreifen. Auch Ar-
cGIS, das proprietäre Geoinformationssystem der Firma ESRI, bietet eine Anbin-
dung an PostgreSQL. Somit kann eine Datenhaltung in einem Geoinformationssys-
tem unabhängig von Vorgaben und proprietären Datenformaten von Softwareher-
stellern erfolgen. Darüber hinaus können mit Hilfe von PostgreSQL/PostGIS selbst
auf der Basis von SQL-Abfragen räumliche Analysen durchgeführt werden. Somit
können GIS-Operationen direkt aus der Datenbank erfolgen (vgl. Kap. 8.7.4). Mit
der Erweiterung „pgRouting“ sind zudem Routenberechnungen auf Netzwerken
möglich. Derartige Funktionen sind zumeist nur Geoinformationssystemen vorbe-
halten.
PostgreSQL ist eine Geodatenbank, die auch in ein Geoinformationssystem ein-
gebunden werden kann wie z.B. in QGIS und ArcGIS, wobei dies in QGIS recht
einfach möglich ist. Werden in QGIS Veränderungen an den Geodaten vorgenom-
men, wie z.B. ein Attribut hinzufügen oder zu ändern, und werden die Änderungen
gespeichert, dann werden die Daten in der PostgreSQL/PostGIS-Datenbank auch
übernommen. Auch der Mapserver kann direkt mit PostGIS zusammenarbeiten.
Ebenso bieten weitere OpenSource-Geoinformationssysteme (z.B. GRASS, Open-
JUMP, QGIS oder uDIG) in der Regel komfortable Schnittstellen, um eine Post-
greSQL/PostGIS-Datenbank einzubinden.
Insbesondere kann eine größere Unabhängigkeit von GIS-Software erreicht wer-
den. Allerdings ist eine völlige Selbstständigkeit nicht sinnvoll. Die geometrische
Erfassung von Geoobjekten sowie die Visualisierung der Geodaten und das Erstel-
len von Views am Monitor oder von Karten über ein graphisches Ausgabegerät sind
mit Hilfe von GIS-Software einfacher und häufig intuitiver möglich. Somit ist ein
Verbund einer PostgreSQL/PostGIS-Datenbank mit einem Geoinformationssystem
gerade bei größeren Projekten sehr sinnvoll.
Anhand weniger Beispiele soll die große Leistungs- und Einsatzfähigkeit von Post-
greSQL/PostGIS in der Geoinformatik angerissen werden. Geodatenbanken sind
allerdings keine Geoinformationssysteme, da ihnen (effiziente) Werkzeuge zur Er-
fassung von Geodaten fehlen (zum EVAP-Modell vgl. Kap. 9.1.2 u. 9.1.4). Zu-
grunde liegt eine Standardanwendung aus Kapitel 9, die dort im Zusammenhang
mit Werkzeugen eines Geoinformationssystems gelöst wird. Hier wird ein Vorge-
hen vorgestellt, das unabhängig von einem Geoinformationssystem mit Methoden
370 Datenorganisation und Datenbanksysteme
einer Geodatenbank arbeitet. Die Befehlsfolgen beziehen sich auf pgAdmin4 und
postgreSQL 11.2-2, Grundlage ist SQL/MM 3: 6.1.8.
Im Mittelpunkt stehen wie bei jeder relationalen Datenbank Tabellen, die jetzt
Sachdaten und Geometriedaten enthalten können. Die Spalten für Sachdaten wer-
den mit SQL durch die übliche CREATE Anweisung definiert und erstellt. Aller-
dings besteht nur eine einzige Spalte pro Tabelle für die Geometriedaten:
CREATE TABLE public.strassenlaternen (id_lampe integer, lname character vary-
ing(10), geom geometry)
Auswahl sämtlicher Flächen der Tabelle „biotopeutm32“, die größer als 200.000
m2 sind. Das Ergebnis zeigt Abbildung 8.18.
SELECT gid, b_code, ST_area(geom), geom
FROM public.biotopeutm32
WHERE st_area(geom) > 200000
Die Abfrageergebnisse werden zunächst nicht graphisch in einer Karte visualisiert.
Mit Hilfe des „Geometry Viewer“ ist aber eine sehr rudimentäre räumliche Veran-
schaulichung möglich (Button oberhalb der Spalte „geom“ in Abb. 8.18, vgl. Abb.
8.19).
Geodatenbanken 371
Erstellen einer Pufferzone mit Abstand von 200 m um die geplante Umgehungs-
straße, die als eine Belastungszone verstanden werden kann, und Erstellen einer
neuen Tabelle mit dem Ergebnis:
CREATE TABLE bufferwest200 AS SELECT ST_buffer (geom, 200)
FROM umgehungwestutm32
Literatur
9.1.1 Informationssysteme
Ein System, das auf einen Datenbestand zurückgreift und Auswertungen dieser Da-
ten zulässt, so dass Informationen abgeleitet und wiedergegeben werden können,
kann allgemein als ein Informationssystem bezeichnet werden. In dieser ersten De-
finition kommt zwar schon die Gesamtheit von Daten und Verarbeitung der Daten
zum Ausdruck, allerdings werden Datenspeicherung und vor allem Datenerfassung
noch nicht näher thematisiert bzw. eingeschlossen. So werden reine Auskunftssys-
teme, die nur eine (u.U. auch komplexe) Verarbeitung von bereits vorhandenen Da-
ten zulassen, hier nicht zu den Informationssystemen gerechnet, die auch eine Da-
tenaufnahme, d.h. Neuaufnahme und Aktualisierung, gestatten müssen. Somit ge-
hören zu einem Informationssystem Aufnahme, Speicherung, Aktualisierung, Ver-
arbeitung und Auswertung von Informationen sowie deren Wiedergabe.
Diese sehr umfassende Begriffsbildung schließt auch analoge Informationssys-
teme ein. Nach der Art der (irgendwie) gespeicherten Informationen, die dann auch
spezielle Verarbeitungsmethoden bedingen, können Informationssysteme (al-
pha-)numerischer, textlicher, bildhafter oder multimedialer Art unterschieden wer-
den. Hierfür lassen sich vielfältige Beispiele angeben: Informationssysteme in Ban-
ken (u.a. Verwaltung von Kundenstamm und Kontenführung), in Reisebüros (u.a. In-
formationen über Verkehrsverbindungen, Hotelbelegungen, Buchungen) oder in Bib-
liotheken (u.a. Verwaltung von Benutzerdaten, Buchreservierungen, Suchoptionen im
Bibliotheksbestand).
Im Mittelpunkt der Geoinformatik stehen mit den Geoinformationssystemen
raumbezogene Informationssysteme, die im Gegensatz zu den übrigen Informati-
onssystemen Geoobjekte der realen Welt modellieren und diese in ein digitales In-
formationssystem abbilden (vgl. Kap. 9.3). Die Gegenstände eines Geoinformati-
onssystems besitzen wie auch bei allen anderen Informationssystemen eine Thema-
tik (und Dynamik). Das Besondere bei Geoinformationssystemen ist, dass Geoob-
jekte darüber hinaus Geometrie und Topologie als implizite Bestandteile aufweisen!
Die Verarbeitung derartiger raumbezogener Informationen erfordert spezielle
Werkzeuge bzw. Funktionen, die von den übrigen Informationssystemen nicht be-
reitgestellt werden (vgl. Kap. 9.4 u. 9.5).
Bereits die sehr allgemeine Begriffsbildung enthält die beiden fundamentalen Sicht-
weisen, nach denen ein Informationssystem unter strukturellen und unter funktio-
nalen Gesichtspunkten zu betrachten ist. Nach strukturellen Aspekten sind die Art
und (physikalische) Beschaffenheit des Systems und der Speichermedien, die Ver-
arbeitungsmöglichkeiten, die vorhandenen und in irgendeiner Form gespeicherten
Informationen oder Daten sowie die Anwendungen, Einsatzbereiche und die Nutzer
zu unterscheiden. Werden diese Sichtweisen auf digitale Informationssysteme ein-
geengt, so ergeben sich vier strukturelle Komponenten:
Hardware – Computersystem einschl. Prozessor, Speichermedien, Peripherie-
geräte und Vernetzung
Software – Programmsysteme einschl. Softwarewerkzeuge zur Erfassung,
Verwaltung, Analyse und Präsentation der Informationen
Daten – quantitative und qualitative Informationen, die zusammen einen
(fachbezogenen) Ausschnitt der realen Welt darstellen
Anwender – Benutzer mit ihren Anforderungen und Fragestellungen bzw. An-
wendungen und Einsatzmöglichkeiten
Nach funktionalen Aspekten sind vier Funktionen zu unterscheiden:
Erfassung – Daten- oder Informationserfassung und -speicherung (d.h. Input)
Verwaltung – Datenverwaltung (d.h. Management)
Analyse – Datenauswertung und Datenanalyse (d.h. Analysis)
Präsentation – Wiedergabe der Information (d.h. Output bzw. Presentation)
Dabei sind einzelne Funktionsgruppen verschieden umfangreich ausgeprägt und vor
allem nicht scharf voneinander zu trennen. So kann die Datenverwaltung auch eine
Aktualisierung u.a. mit einer Ergänzung oder Neuerfassung von Daten bedeuten.
Das Sortieren oder Selektieren von Datensätzen kann als Verwaltungsfunktion, aber
auch schon als Auswertefunktion gesehen werden, die eigentlich erst mit der Aus-
wertung bzw. mit der Analyse der Informationen einsetzt.
Die vier strukturellen bzw. die vier funktionalen Komponenten definieren das
HSDA- bzw. das EVAP-Modell. Dabei bestimmt vor allem die Software den Funk-
tionsumfang, d.h. sämtliche EVAP-Komponenten. In dieser strengen Definition, die
beim Begriff Geoinformationssystem angewendet wird, ist die Analyse der Daten
ein unverzichtbares, konstituierendes Merkmal eines Informationssystems. Viele
Datenportale und Systeme im Internet, die Daten bzw. Informationen anbieten und
die häufig als Informationssysteme bezeichnet werden, sind in diesem strengen Sinn
nur Auskunftssysteme, da zumeist die Erfassung und Speicherung eigener benut-
zerspezifischer Daten oder die Analyse der Daten fehlen.
Konzepte digitaler Informationssysteme und Geoinformationssysteme 375
Aus struktureller Sicht besteht ein Geoinformationssystem wie jedes andere Infor-
mationssystem aus den vier Komponenten Hardware, Software, Daten und Anwen-
dern (HSDA-Modell):
An Hardwareausstattung sind keine besonderen Anforderungen mehr an die
Computersysteme zu stellen, die inzwischen allgemein eine hohe Leistung erreicht
haben, so dass ein Geoinformationssystem auch auf mobilen Endgeräten eingesetzt
werden kann. Jedoch kommt den graphischen Peripheriegeräten eine zentrale Be-
deutung zu. Hierzu zählen die graphischen Eingabegeräte wie Scanner und die gra-
phischen Ausgabegeräte wie vor allem großformatige Plotter. In einer längerfristi-
gen und umfassenden Bilanz, die sämtliche Komponenten berücksichtigt, ist die
Hardware der weniger kostenintensive Bestandteil eines Informationssystems.
Die Software muss als generelle Aufgabe gewährleisten, die Geoobjekte der re-
alen Welt in ein digitales Informationssystem abzubilden. Insbesondere muss die
Software die vier Funktionsbereiche Datenerfassung, Verwaltung, Analyse und Prä-
sentation von Geoobjekten abdecken. Insgesamt stellen Geoinformationssysteme
sehr komplexe Softwareprodukte dar, die inzwischen deutlich mehr als die Hardware
kosten. Allerdings liegen neben proprietärer Software inzwischen auch leistungsfä-
hige Open Source und Freie Software vor, die in einem Wettbewerb mit den etablier-
ten Marktführern stehen. Häufig wird durch Einführung einer Software eine langfris-
tige Systementscheidung getroffen.
Die digital erfassten und zu pflegenden Daten (Geometrie-, Topologie- und
Sachdaten) machen den eigentlich wertvollen Bestandteil eines Informationssys-
tems aus! Der Aufbau eines Informationssystems führt u.a. dazu, die bisher ver-
streut oder sogar nur unvollständig vorliegenden Daten zu systematisieren, zu ver-
vollständigen und sie einer größeren Zahl von Nutzern (erstmalig) zur Verfügung
zu stellen. Die Daten können mehrere Generationen von Software wie auch von
Mitarbeitern überdauern. Hieraus ergibt sich die zwingende, aber leider häufig nicht
umgesetzte Notwendigkeit, die Daten eindeutig zu dokumentieren und deren Qua-
lität und Einsatzmöglichkeiten zu beschreiben (vgl. Kap. 6.5 u. 6.6). Man kann sehr
hart formulieren, dass ohne ein Metainformationssystem die gespeicherten Daten
wertlos sind. Besondere Bedeutung kommt dem Datenaustausch und der Mehrfach-
nutzung der Daten zu (vgl. Kap. 6.1).
Die Software wie auch die Daten werden erst durch Anwender zur Lösung kon-
kreter Fragestellungen in Wert gesetzt. Anwender und Anwendungen sind untrenn-
bar verknüpft. Die Nutzer benötigen und verarbeiten die Daten im Hinblick auf spe-
zifische Einsatzbereiche und verwenden die vorhandenen, abgeleiteten oder neu ge-
wonnenen Informationen zur Lösung ihrer Aufgaben. Geoinformationssysteme
sind aber aufgrund ihrer Komplexität aufwendig zu handhaben. Von den Nutzern
werden umfangreiche Kenntnisse aus verschiedenen Bereichen der Geoinformatik
erwartet. Dies impliziert (ständige) Schulungs- und Weiterbildungsmaßnahmen.
Vor allem setzt ein erfolgreicher Einsatz neuer Technologien die Akzeptanz der
Mitarbeiter voraus.
Aus funktionaler Sicht besteht ein Geoinformationssystem wie jedes andere In-
formationssystem aus den vier Komponenten Erfassung, Verwaltung, Analyse und
Konzepte digitaler Informationssysteme und Geoinformationssysteme 377
Präsentation (EVAP-Modell). Die Abbildung der Geoobjekte der realen Welt in ein
digitales Informationssystem betrifft Geometrie, Topologie und Thematik von
Geoobjekten sowohl auf einer konzeptionellen Ebene als auch auf der praktischen
Ebene der Erfassung. Dabei gibt die Fragestellung die Art der Modellierung z.B.
als Vektor- oder Rastermodell, als Netzwerkmodell oder als 3D-Modell auf der Ba-
sis von Dreiecksvermaschungen vor. Ein Geoinformationssystem stellt vielfältige
Funktionen bereit, Geodaten zu erfassen (vgl. Kap. 9.4.1 u. 9.5.1).
Die Verwaltung betrifft zum einen Geometrie- und Topologiedaten und zum an-
deren Sachdaten. Geometriedaten und nachfolgend Topologiedaten müssen vor al-
lem editiert, d.h. verändert und ergänzt werden können. Diese Funktionen machen
spezifische Bestandteile von Geoinformationssystemen aus. Hierzu gehören Um-
rechnungen der Geometriedaten in ein neues Koordinatensystem (z.B. von Geogra-
phischen Koordinaten im WGS84 nach UTM) oder das Zusammenlegen zweier be-
nachbarter Flurstücke und Auflösen einer gemeinsamen Grenze. Die Kapitel 9.4
und 9.5 erläutern wesentliche Funktionen. Geometrie- und Sachdaten können ge-
trennt in mehreren Dateien, in einer einzigen Datenbank und auch in Geodatenban-
ken vorgehalten werden (vgl. Kap. 8.7 u. 9.3.3). Das zugrunde liegende Datenmo-
dell legt dabei fest, wie Topologien verwaltet werden.
Zur Verwaltung der Sachdaten ist ein Datenbankmanagementsystem notwendig
und in die GIS-Software integriert. Zu den vielfältigen Funktionen gehören einfache
Auswertefunktionen wie Suchoperationen im Sachdatenbestand, Umklassifizierun-
gen, Sortierungen, Errechnung neuer Attribute aus vorhandenen Attributen oder
Aufbereiten von Ergebnistabellen und Bestimmen von sog. Häufigkeitsauszählun-
gen. Somit bietet in der Regel ein Geoinformationssystem viele Funktionen eines
vollständigen Datenbankmanagementsystems zur Verwaltung der Sachdaten.
Die räumliche Analyse bildet den zentralen Bestandteil eines Geoinformations-
systems. Zu den wichtigsten Funktionen gehören die sog. Overlay- oder Verschnei-
dungsfunktionen. Die Kapitel 9.4.4 und 9.5.3 erläutern die zentralen Funktionen.
Ein Geoinformationssystem umfasst ferner vielfältige Funktionen zur Präsenta-
tion der Geoobjekte, wobei zunächst der Datenbestand am Monitor dargestellt wird:
Anzeigen, Verschieben, Vergrößern und Verkleinern von Kartenausschnitten, Ein-
und Ausschalten oder In-den-Vordergrund-Holen von verschiedenen thematischen
Ebenen, (visuelle) Überlagerung verschiedener thematischer Schichten, gemein-
same Darstellung von Vektor- und Rasterkarten und insbesondere von Luftbildern.
Dabei sind Darstellung und generell das Vorgehen mit einem GIS kartenorientiert.
Bei Bedarf werden zu einem Geoobjekt die zugehörigen Sachdaten angezeigt.
Ebenso werden am Monitor Tabellen oder Diagramme wie inzwischen auch Bilder,
Ton und Videosequenzen präsentiert. Neben der Präsentation in Form von zweidi-
mensionalen Darstellungen besitzt ein Geoinformationssystem im Allgemeinen
auch Funktionen, die perspektivische, pseudo-dreidimensionale Ansichten wie z.B.
Blockbilder (u.a. mit Veränderung der Beleuchtungs- bzw. Besonnungsrichtung)
ermöglichen und Drehungen des Gesamtbildes gestatten. Die Präsentation bedeutet
auch die Ausgabe auf einem analogen zweidimensionalen Datenträger, d.h. zumeist
die Erstellung einer (Papier-)Karte (mit automatisch generierter Legende und Maß-
stabsleiste) oder eines Posters, das Karten, Diagramme, Bilder, Tabellen und Texte
378 Geoinformationssysteme
enthalten kann. Für die Präsentation am Monitor wie auch für die Erstellung einer
analogen Karte gelten die aufgezeigten graphischen Gestaltungsgrundsätze (vgl.
Kap. 7.5).
Herauszustellen ist, dass erst dann von einem Geoinformationssystem gespro-
chen werden darf, falls sämtliche Funktionen nach dem EVAP-Modell vorhanden
sind. An dieser fundamentalen Aussage müssen viele Softwareprodukte gemessen
werden. Viele derartige Systeme, die sich selbst zwar als Geoinformationssysteme
bezeichnen, aber z.B. über keine Erfassung von Geoobjekten oder über keine räum-
lichen Analysefunktionen verfügen, sind keine Geoinformationssysteme. Auch
Geodatenbanken, die viele Verwaltungs- und Analysefunktionen räumlicher Daten
besitzen, gehören streng genommen nicht zur Gruppe der Geoinformationssysteme.
Funktionen zur Erfassung von Geometrien sind nur rudimentär vorhanden, sie er-
bringen nicht die notwendigen Anforderungen. Graphischen Präsentationsfunktio-
nen sind kaum vorhanden.
9.1.5 GIS-Software
Inzwischen besteht eine sehr große Fülle an GIS-Software. Einerseits sind viele
Freie und Open-Source-Produkte verfügbar. Andererseits liefern viele Softwareun-
ternehmen proprietäre Geoinformationssysteme, die global, aber auch zumeist von
kleineren Unternehmen nur für ein räumlich kleineres Absatzgebiet angeboten wer-
den. Diese zuletzt genannte Gruppe ist unübersehbar. Häufig werden Speziallösun-
gen angeboten, die auf die spezifischen Bedürfnisse der Anwender zugeschnitten
sind. Dabei setzen diese Produkte häufig auf Open-Source-Software.
Von den weltweit angebotenen Geoinformationssystemen großer international
agierender Softwareunternehmen sollen die Big Six der durch US-amerikanische
Unternehmen dominierten Szene (in alphabetischer Reigenfolge) genannt werden.
Dabei sind die GIS-Produkte häufig in ein größeres Software-Portfolio der Anbieter
eingebunden. Die Namen sind Waren- und Produktbezeichnungen der Unterneh-
men:
- Bereits 1981 wurde international von ESRI mit Arc/Info eine Software auf den
Markt gebracht, die auf Personalcomputern lauffähig war (vgl. ESRI 1995). Die
ArcGIS Produktfamilie ist das derzeitige Flaggschiff von ESRI, das weltweit in
einer großen Verbreitung im Einsatz ist (vgl. ESRI 2019a). Mit ArcGIS Online
besteht auch ein cloudbasiertes Angebot (vgl. ESRI 2019b). Von ESRI wurden
zudem wichtige Datenformate entwickelt (vgl. Kap. 9.3.3).
- Mit AutoCAD Map 3D-Toolset, das im Leistungsumfang der CAD Software Au-
toCAD 2020 enthalten ist, können Daten aus Geoinformationssystemen und
CAD-Systemen (CAD, Computer Aided Design) zusammengebracht werden
(vgl. Autodesk 2019). Auch von Autodesk wurde mit dem DXF-Format ein wich-
tiges Datenformat entwickelt, das immer noch als Industriestandard für den Aus-
tausch von Geometrien zu verstehen ist.
- Das Geoinformationssystem Geomedia, ursprünglich Ende der 1990er Jahre von
Intergraph eingeführt und inzwischen von Hexagon Geospatial angeboten, ist
Konzepte digitaler Informationssysteme und Geoinformationssysteme 379
9.2 Web-GIS
Mit dem wachsenden Angebot von Geoinformationen und digitalen Karten im In-
ternet hat sich auch die Begrifflichkeit von Geoinformationssystemen auf das Inter-
net übertragen (vgl. Behncke u.a. 2009). Neben „Web-GIS“ werden die Begriffe
„Online-GIS“, „Internet-GIS“, „Web-Mapping“, „Internet-Mapping“, „Net-GIS“,
„Distributed GIS“ oder sogar „Mapserver“ mit häufig gleicher oder ähnlicher Be-
deutung benutzt. „Google Maps hat einen regelrechten Hype ausgelöst, der (…)
dazu geführt hat, dass der Begriff „GIS“ noch öfter missbraucht wird, als dies vor-
her schon der Fall war.“ (Rudert und Pundt 2008).
Die strenge Definition eines Geoinformationssystems, von dem erst dann gespro-
chen werden darf, falls sämtliche vier Komponenten des EVAP-Modells vorliegen,
muss auch für ein Web-GIS bzw. Internet-GIS gelten:
- Ein Web-GIS bezeichnet ein Geoinformationssystem, das den Dienst WWW nutzt
und alle vier Komponenten des EVAP-Modells umfasst,
- Ein Internet-GIS stellt ein Geoinformationssystem dar, das generell irgendeinen
Dienst des Internets nutzt.
Ein Web-GIS basiert ähnlich zu dem Web-Mapping technisch auf einer Client-Ser-
ver-Architektur (vgl. Kap. 7.2.1 u. Abb. 7.10). Der Webbrowser dient als Client,
statt eines Mapservers arbeitet ein GIS-Server, d.h. es wird die entsprechende Soft-
ware eingesetzt. Der Nutzer ruft interaktiv Funktionen auf, die auf einem oder meh-
reren Servern bearbeitet werden. Das Ergebnis wird dann an den Client zurückge-
sendet. Ein Web-GIS unterscheidet sich von Web-Mapping-Anwendungen
dadurch, dass erweiterte Interaktions- und Handlungsmöglichkeiten vorliegen und
der Umfang der spezifischen GIS-Funktionen größer ist. In der Regel ist über eine
Datenbank ein Zugriff auf Sachdaten möglich, der Nutzer kann themenbezogene
382 Geoinformationssysteme
Anfragen stellen. Unterstützt werden Funktionen der Suche, Flächen- und Stre-
ckenermittlung. Zumindest ist eine weitere Funktion wie z.B. Overlay, Intersect,
Buffer, Umkreisselektion oder Routing vorhanden. Um dem Namen „GIS“ gerecht
zu werden, muss somit ein Web-GIS Funktionen zum Erfassen, zur Verwaltung und
zur räumlichen Analyse bereitstellen und dadurch das EVAP-Prinzip ausfüllen.
Bei einem typischen Web-GIS erfolgt die Geoprozessierung auf der Serverseite.
Bei Thin-Client-Architekturen dient der Client lediglich zur Kommunikation mit
dem Server und zur Darstellung von Ergebnissen. Bei einer Thick-Client-Architek-
tur kommuniziert der Client wie bei einer Thin-Client-Architektur mit dem Server,
zusätzlich stehen jedoch clientseitige Funktionalitäten zur Verfügung, die durch
entsprechende Erweiterungen (Plug-ins und JavaScript) realisiert werden können.
Die Geoprozessierung wurde auf den Client ausgedehnt. Bei Medium-Client-Ar-
chitekturen werden Erweiterungen sowohl client- als auch serverseitig eingesetzt.
Der Begriff Internet-GIS ist auf Geoinformationssysteme anzuwenden, die ge-
nerell irgendeinen Dienst des Internets nutzen und nicht zwingend die Nutzung ei-
nes Webbrowsers erfordern. Allerdings stellt die browserunabhängige Applikation
Google Earth, die zwar eine Datenerfassung, -verarbeitung und -präsentation er-
möglicht, bislang aber nur über eine geringe Anzahl von Analysefunktionen verfügt
und nicht mit einem GIS konkurrieren kann, kein Internet-GIS dar.
Auf dem Softwaremarkt und in der Praxis liegen nur wenige Softwareangebote vor,
die den Namen Web-GIS in der strengen Begriffsauslegung verdienen. So ermög-
licht z.B. ArcGIS Online „on demand“ den kostenpflichtigen Abruf vielfältiger
GIS-Funktionen von einem zentralen Rechner über das Internet. Dabei werden „ser-
vice credits“ als Bezahlform eingesetzt, die vorher zu erwerben sind (vgl. ESRI
2019b u. ESRI 2019c, Software as a Service, vgl. Kap. 2.8.5). Ein derartiges Ge-
schäftsmodell ist relativ neu. Die Bereitstellung der Endprodukte, d.h. der Karten,
erfolgt cloudbasiert, so dass viele Nutzer, d.h. vor allem Mitarbeiter eines Unter-
nehmens oder einer Behörde, die Daten gleichzeitig nutzen können. Die Skalierung
auf unterschiedliche Geräte wie Tabletcomputer oder Desktop erfolgt automatisch.
Das Softwareunternehmen kümmert sich um die Software (d.h. Updates und War-
tung) und stellt die Server für Software und Daten bereit, wodurch allerdings die
Abhängigkeit von dem Softwareanbieter steigt.
Häufiger werden Server-Varianten angeboten, bei denen die GIS-Server-
Software auf einem Server in der Behörde oder im Unternehmen, d.h. beim Nutzer,
eingesetzt wird (vgl. z.B. ArcGIS Server, GeoMedia WebMap oder Smallworld Ge-
ospatial Server, vgl. Kap. 9.1.5, sowie viele Lösungen von lokal agierenden Soft-
waredienstleistern). Geodaten können für beliebige interne Anwender und optional
auch extern z.B. für Bürger über eine Internetverbindung verfügbar gemacht wer-
den. Einerseits können Geodaten über Web-Karten präsentiert werden (z.B. in ei-
nem unternehmenseigenen Web-Portal, über browserbasierte Web-Apps und native
Apps auf Mobilgeräten). Gegenüber dieser am weitaus häufigsten genutzten Form
können andererseits aber auch Analysen durchgeführt werden. Somit ist ein Web-
Web-GIS 383
GIS vorhanden, das häufig in der Praxis schwerpunktmäßig nur für Webdienste
(d.h. Präsentationen) eingesetzt wird.
Im Gegensatz zu derartigen Lösungen ist mit „Dropchop“ ein Ansatz zu finden,
der noch als „proof-of-concept“ formuliert ist (vgl. Dropchop 2019). Dropchop ist
ein browserbasiertes Geoinformationssystem, das modular aufgebaut ist und das
von einer im Web verteilten Entwicklergruppe erstellt wird. Verwendet wird u.a.
das mächtige, freie JavaScript-Framework Turf, das eine Sammlung kleiner Module
in JavaScript darstellt. Eigene Geodaten, die im Datenformat „GeoJSON“ vorlie-
gen, können im Web hochgeladen und prozessiert werden (z.B. Ausführen von
räumlichen Operationen wie Buffer- oder Overlayfunktionen). Dieser Ansatz zeigt
grundsätzliche Möglichkeiten auf. Noch offen sind Fragen, die den Datenschutz und
die dauerhafte Pflege des Web-Angebotes betreffen. Dies sind allerdings für den
operativen Betrieb in einem Unternehmen wesentliche Fragen. Abzuwarten ist, ob
sich ein derartiger Ansatz in der Praxis durchsetzen wird.
gen erarbeitet und auch gewartet, die auf freier Software basieren. Gerade die räum-
liche Nähe und ein persönlicher bzw. unmittelbarer Kontakt zum Anbieter, mög-
licherweise ein Verbund gleicher Nachfrager (z.B. Gemeinden in einem Landkreis)
sowie Handbücher, Schulungsunterlagen und Support in deutscher Sprache sind
ihre Stärken.
Ein Geoinformationssystem ist als Modell der realen Welt zu sehen, das raumbezo-
gene Daten digital erfasst, speichert, verwaltet, aktualisiert, analysiert und model-
liert sowie alphanumerisch und graphisch präsentiert. Abbildung 9.1 zeigt ein
Geoinformationssystem.
Im Vektormodell wird die Geometrie eines Geoobjektes durch Koordinaten auf der
Basis eines eindeutigen räumlichen Bezugssystems angegeben (Lagekoordinaten in
einem metrischen Bezugskoordinatensystem, vgl. Kap. 4.1.2 u. 4.2). Die Koordina-
ten kennzeichnen Einzelpunkte sowie Anfangs- und Endpunkte von gerichteten
Strecken, d.h. von Vektoren. Auch die Einzelpunkte sind als Vektoren zu verstehen,
deren Anfangspunkt im Ursprung des Koordinatensystems liegt (vgl. Abb. 4.1). Bei
Darstellung von Geoobjekten in diesem sog. Vektormodell werden letztlich nur
Punkte erfasst! Die gesamte geometrische Information basiert auf Vektoren bzw.
Koordinatenangaben in einem (kartesischen) Koordinatensystem. Linien- und flä-
chenhafte Strukturen müssen aus Punkten bzw. Vektoren aufgebaut werden. Hier-
durch werden sämtliche Geometrien diskretisiert (vgl. Kap. 5.2.1).
386 Geoinformationssysteme
Ein Linienzug besteht im Vektormodell aus einer Folge von gerichteten Strecken
(d.h. von Vektoren). Dabei werden Linienbögen durch eine Folge von geraden Li-
nienstücken angenähert (vgl. Kap. 5.2.1 u. Abb. 5.3 bzw. 9.2). Flächen werden im
Vektormodell durch die sie begrenzenden Linien beschrieben.
Abbildung 9.2 zeigt wesentliche Prinzipien der geometrisch-topologischen Mo-
dellierung auf, wie sie in der Software ArcGIS umgesetzt wird. Die Modellierung
der Flächen erfolgt dabei nicht nach den Vorgaben des Open Geospatial Consortium
(OGC). Das Simple-Feature-Geometry-Object-Model der OGC beschreibt Flächen
durch eine vollständig geschlossene Folge von Koordinaten und speichert keine to-
pologischen Informationen (vgl. Kap. 6.3.2 u. Tab. 6.2).
Tabelle 9.1: Darstellung der Geometrie der Geoobjekte in Abbildung 9.2 durch Koordinatenfolgen
Punkt 1 (75,250)
Punkt 2 (50,200)
Punkt 3 (100,200)
Linie 1 (250,175) (300,175) (300,200) (350,200) (350,100)
Linie 2 (250,175) (200,175) (200,150) (100,150)
Linie 3 (100,150) (50,150) (50,50) (250,50)
Linie 4 (200,50) (250,50)
Linie 5 (250,50) (350,50) (350,100)
Linie 6 (250,125) (200,125) (200,100)
Linie 7 (100,150) (100,100) (200,100)
Linie 8 (250,50) (200,100)
Linie 9 (350,100) (300,100) (300,125) (250,125)
Linie 10 (250,50) (250,100) (200,100)
Linie 11 (250,175) (250,125)
Linie A (300,250) (300,225) (250,225)
Linie B (250,250) (250,225)
Linie C (250,225) (200,225) (200,200) (150,200)
Linie D (150,250) (150,200)
Linie E (150,200) (150,175)
Modellierung von Geoobjekten in einem Geoinformationssystem 387
1 1 5 –1 1
2 1 2 2 –1
3 2 3 5 –1
4 3 4 4 –1
5 4 5 3 –1
6 6 7 3 2
7 2 7 2 5
8 3 7 5 4
9 5 6 3 1
10 4 7 4 3
11 1 6 1 2
1 –1, 11, –9
2 2, 7, –6, –11
3 5, 9, 6, –10
4 4, 10, –8
5 3, 8, –7
Aus topologischer Sicht wird streng zwischen Knoten und Punkten, ferner zwischen
Kanten und Linien, Polygonen und Flächen sowie Polyeder und Körpern unter-
schieden, wobei die jeweilige topologische Entsprechung des geometrischen Be-
griffs benannt ist. Ein Knoten (engl. node) ist der Anfangs- oder der Endpunkt einer
Kante und somit der Treffpunkt mehrerer Kanten. Eine Kante (engl. arc) verbindet
zwei benachbarte Knoten, die geometrisch Anfangs- und Endpunkt eines Linien-
zugs sind. Für die Topologie ist der exakte Linienverlauf zwischen Anfangs- und
Endknoten ohne Bedeutung. Die zwischenliegenden Punkte, die den genauen Ver-
lauf der Linie oder des Bogens definieren, werden Stützstellen oder einfach Punkte
(engl. vertex, Plural vertices) genannt. Topologisch wird von der genauen geomet-
rischen Gestalt einer Fläche abstrahiert und ein Polygon (engl. polygon) betrachtet,
das durch Kanten definiert wird.
Das aufgezeigte relationale Datenmodell (d.h. die Tabellen 9.1 bis 9.3) ermög-
licht, allein durch numerische Auswertungen graphische bzw. topologische Eigen-
schaften der Geoobjekte abzulesen. Mit Hilfe der entwickelten Datenbasis können
topologische Fragen beantwortet werden:
- Welche Polygone grenzen an Polygon 3 an? Lösung: Suche die Kanten, die Po-
lygon 3 definieren (5, 9, 6, –10). Suche die Polygone, bei deren Bildung diese
Kanten mit hierzu inverser Orientierung beteiligt sind (Lösung: Polygone 1,2,4).
Modellierung von Geoobjekten in einem Geoinformationssystem 389
- Was ist der kürzeste Weg von Knoten 2 zu Knoten 4? Lösung: Bestimme die
Kantenlängen auf der Basis der definierenden Koordinatenfolgen und dann Auf-
bau einer bewerteten Adjazenzmatrix, Anwenden eines Wegealgorithmus (vgl.
Kap. 3.4.2).
- Welches Polygon grenzt direkt an Polygon 3 entlang der Kante 10? Lösung: Su-
che das Polygon, das u.a. durch die Kante +10 gebildet wird, da Polygon 3 u.a.
aus der Kante –10 gebildet wird (Lösung: Polygon 4).
Die letzte Abfrage bezieht sich auf Nachbarschaften. So sind allgemein zwei
Geoobjekte im Vektormodell benachbart, wenn sie mindestens einen gemeinsamen
Punkt haben (gilt für Punkte, Linien und Flächen) oder wenn sie mindestens eine
gemeinsame Kante (gilt für Flächen) besitzen. In der Abbildung 9.3 sind z.B. die
Flächen 2 und 3 benachbart. Falls zwei Flächen nur über einen gemeinsamen Punkt
bzw. Knoten und über keine gemeinsame Kante benachbart sind, müssen bei einem
planaren, zusammenhängenden Graphen zwei Kanten an einem Knoten zusammen-
treffen, die jeweils aus einer der beiden Flächen stammen (vgl. Knoten 7 in Abb.
9.3). In der Knoten-Kanten-Tabelle tritt dieser Knoten dann auch (mindestens) vier-
mal auf, so dass über diese Tabelle auch diese benachbarten Flächen ermittelt wer-
den können (vgl. Tab. 9.2). Von diesen Rechnungen sind Flächen ausgenommen,
die nur aus einer einzigen Kante bestehen (d.h. Inseln).
Zur Definition von korrekten geometrischen Strukturen, die eindeutige Zusam-
menhänge und Beziehungen der Geoobjekte wiedergeben, und von Topologien
können mehrere Regeln definiert werden wie z.B. (vgl. die Umsetzung im Geoin-
formationssystem ArcGIS in Abb. 9.5):
- Eine Linie darf (abgesehen vom Anfangs- und Endpunkt) keine zwei oder mehr
identische Koordinaten, d.h. keine Schleifen aufweisen.
- Benachbarte Flächen dürfen sich nicht überlappen.
- Zwischen benachbarten Flächenobjekten dürfen keine Leerräume auftreten.
- Flächen müssen durch eine Folge geschlossener Grenzlinien definiert sein, die
somit keine Lücken aufweisen dürfen.
- Bei der Definition von Flächen aus Linien dürfen keine Liniensegmente übrig-
bleiben, die nicht mit anderen Linien zu Flächen führen (sog. Dangles).
- Falls eine Fläche eine ringförmige Struktur besitzt, dürfen sich innere und äußere
Grenzlinie nicht kreuzen.
Bei fehlerhafter Erfassung der Geometrien bestehen keine geometrisch wie auch
topologisch eindeutigen Strukturen. Abbildung 9.4 zeigt drei Flächen einer Daten-
ebene (Layer landwirtschaftliche Nutzflächen mit Wiese, Acker, Maisfeld), wobei
ein flächenhaft zusammenhängender Ausschnitt der Realität erfasst sein soll. Lü-
cken sind somit ausgeschlossen, ebenso kann eine Fläche nicht gleichzeitig als
Acker oder Wiese genutzt sein. Die in Abbildung 9.4 fehlerhaft dargestellten Poly-
gone überlappen sich aber teilweise, zwischen ihnen liegt auch ein „leerer“ Zwi-
schenraum. Wird dann der gemeinsame räumliche Durchschnitt dieser Nutzflächen
mit der Fläche auf einer weiteren Datenebene gebildet, die z.B. eine geplante Straße
darstellen soll (Funktion Intersect, vgl. Kap. 9.4.4), so entstehen Artefakte: Lücken
sowie Flächen allein durch Überlagerung der Flächen bereits in dem Eingangslayer
(vgl. graue Flächen im Ergebnis in Abbildung 9.4). Die in der Farbe Magenta ge-
kennzeichnete Fläche entstand durch Überlagerung von drei Flächen.
Die GIS-Software muss Werkzeuge bereitstellen, um nicht eindeutige geometri-
sche Strukturen und Topologiefehler zu erkennen und um sie zu beheben. Diese
Forderung ist unabhängig von dem zugrunde liegenden Datenmodell zu sehen.
Auch wenn das Datenmodell selbst keine topologischen Informationen speichert,
müssen die Geometrien eindeutig definiert sein.
Das nicht offene Datenformat einer Geodatabase der Firma ESRI ermöglicht die
Speicherung von geometrischen und topologischen Informationen. Eine Geodata-
base ist die native Datenstruktur des international sehr weit verbreiteten Geoinfor-
mationssystems ArcGIS. Unterschiedliche Datentypen können von ArcGIS in einer
Microsoft-Access-Datenbank (Support noch bis ca. 2025) bzw. längerfristig von
ArcGIS Pro in einem relationalen Mehrbenutzer-Datenbankmanagementsystem o-
der in einem Dateisystem (File Geodatabase) gespeichert werden. Topologische Be-
ziehungen können innerhalb einer oder zwischen mehreren Datenebenen (Layern)
bzw. Gruppen von Geoobjekten festgelegt werden (vgl. Abb. 9.5). Mit Hilfe geeig-
neter Werkzeuge in ArcGIS können diese Regeln überprüft und korrigiert werden
(vgl. ESRI 2019e).
Abbildung 9.5 zeigt den Softwareassistenten von ArcGIS Pro, mit dem Topolo-
gieregeln für einzelne Arten von Geometrien aufgestellt werden können (hier: De-
finition von Flächen aus Liniensegmenten).
Abb. 9.5: Ausgewählte Regeln zur Definition von Flächen in ArcGIS Pro
Abb. 9.7: Geoobjekte in Rasterdarstellung und Angabe der Lauflängenkodierung (mit Thematik)
Bei der Lauflängenkodierung (engl. run length encoding) wird die Matrix zeilen-
weise nach gleichen, benachbarten Pixeln abgetastet. Dabei werden nur noch der
Pixelwert und die Zahl der gleichen Nachbarn als Wertepaar gespeichert (vgl. Abb.
9.7). Vorab muss die Reihenfolge der Zeilen festgelegt und somit eine eindimensi-
onale Ordnungsstruktur definiert werden. In der Abbildung 9.7, in der der Ursprung
in der linken oberen Ecke liegt, wird zeilenweise mit Zeilensprung vorgegangen
(sog. Standard Row Order).
Ähnlich geht die Kettenkodierung (engl. chain encoding) vor, die sich gerade für
die Speicherung von Linien im Rastermodell eignet. Eine Linie wird hierbei durch
394 Geoinformationssysteme
Zeilen- und Spaltenindizes des Anfangspixels und dann weiter durch die Richtun-
gen R1 bis Rn zu den n Folgepixeln beschrieben (vgl. Abb. 9.8). Eine Kombination
beider Verfahren ist möglich. Effiziente Speicherungen ergeben sich vor allem für
lange Linien ohne große Richtungsänderungen.
Bei beiden Verfahren bleiben die originalen Werte erhalten (ebenso beim sog.
Quad-Tree, vgl. Abb. 9.9). Sie sind verlustfrei im Gegensatz zu den verlustbehafte-
ten Datenkompressionsverfahren wie z.B. JPEG.
Die Nachteile des Raster-Datenmodells bestehen vor allem in der geringen Flexibi-
lität der fest vorgegebenen Maschengröße, mit der Geoobjekte nur mangelhaft mit
einer hinreichenden Genauigkeit zu erfassen sind. Eine beliebige Feinkörnigkeit des
Rasters ist aufgrund des rasch ansteigenden Speicherbedarfs schwierig. Somit liegt
die Idee nahe, bei homogenen Flächenelementen relativ grobe Maschen zu verwen-
den und nur dort die Maschengröße zu verfeinern, wo es die geometrische Daten-
lage erfordert. Dieser Gedanke wird von dem Quad-Tree-Modell umgesetzt.
Der Darstellung von Rasterdaten als Quad-Tree liegt eine rekursive Teilung eines
nichthomogenen Quadrats in vier gleich große Quadranten zugrunde. Jeder Quad-
rant hat also vier Söhne. Die Viertelung wird aber nur so lange fortgesetzt, bis ein
Quadrant homogen ist. Somit sind an der Darstellung eines Gebietes häufig Quad-
ranten unterschiedlicher Größe beteiligt. Abbildung 9.9 verdeutlicht diese sukzes-
sive Viertelung für den südwestlichen Quadranten. Bei dieser rekursiven Verfeine-
rung sind auch sehr kleinteilige Strukturen (praktisch beliebig) genau darstellbar,
wobei der Speicherbedarf gegenüber dem einfachen Raster-Datenmodell deutlich
geringer ist. Hinsichtlich der Genauigkeit kann das Quad-Tree-Modell an die Ge-
nauigkeit des Vektor-Modells heranreichen. Ein Quad-Tree kann rechentechnisch
optimal durch sog. Bäume umgesetzt werden (vgl. Kap. 3.2.4.4).
Modellierung von Geoobjekten in einem Geoinformationssystem 395
Ein Geoobjekt besitzt immer eine Thematik, die im Allgemeinen durch mehrere
Attribute (Merkmale, Variablen) mit verschiedenen Skalenniveaus gekennzeichnet
wird. Die Beschreibung, Bearbeitung und Speicherung der verschiedenen Themati-
ken von Geoobjekten kann durch zwei grundlegende Prinzipien erfolgen: durch das
Ebenenprinzip und durch das Objektklassenprinzip (vgl. Abb. 9.10).
Die Geometriedaten der Objekte und deren Attribute werden beim Ebenen-prin-
zip streng nach den verschiedenen thematischen Bedeutungen getrennt und in ver-
schiedenen Ebenen vorgehalten (Layerprinzip, vgl. Kap. 4.1.4). Dieses älteste Prin-
zip der Darstellung von unterschiedlichen Thematiken leitet sich direkt aus dem
Folienprinzip der klassischen Kartographie ab. Verschiedene Folien mit unter-
schiedlichen thematischen Inhalten (z.B. Gewässerfolie bzw. Gewässerdecker,
Grünflächenfolie, Schriftfolie) werden während der Kartenerstellung „übereinan-
dergelegt“. Dabei müssen natürlich hinsichtlich der Gemeinsamkeiten identische
Geometrien vorliegen (z.B. die auf verschiedenen Ebenen liegenden Begrenzungen
von Bachläufen und angrenzenden Grünflächen). Zumeist erfolgt nicht nur eine
Trennung nach den verschiedenen Thematiken, sondern auch nach punkt-, linien-
und flächenhaften Geoobjekten. Die Modellierung nach dem Ebenen-prinzip besitzt
keine Hierarchisierung, sämtliche Ebenen sind formal gleichberechtigt.
Die Integration der Zeit in einem Geoinformationssystem erfolgt zumeist auch
nach dem Ebenenprinzip. Zeitliche Angaben können zwar auch durch Einführen
weiterer Attribute und Metadaten aufgenommen werden. Standardmäßig werden
zeitliche Prozesse aber durch Zeitschnitte diskretisiert, die einzelne Ebenen in ei-
nem Geoinformationssystem bilden. Dann können u.a. durch räumliche Überlage-
rungsfunktionen (vgl. Kap. 9.4.4 u. 9.5.3) zeitliche Veränderungen analysiert wer-
den.
Das Objektklassenprinzip geht von einer hierarchischen Anordnung verschiede-
ner Thematiken mit Teilmengenbeziehungen der Themen aus: z.B. Hyperklasse,
Superklasse, Klasse, Subklasse (vgl. Abb. 9.10 u. eingehender Kap. 4.1.1). Dabei
werden Geoobjekte mit gemeinsamer Thematik (und Methoden) im Allgemeinen
zu Objektklassen zusammengefasst.
Abb. 9.10: Darstellung von Geoobjekten: Vektor- u. Rasterprinzip und Layer- u. Objektprinzip
396 Geoinformationssysteme
Für die Erfassung der Geometriedaten stehen verschiedene technische Geräte wie
stellenweise auch noch veraltet Digitalisiertabletts oder neuerdings zur mobilen Da-
tenaufnahme Smartphones, mobile Geoinformationssysteme oder GPS-Geräte zur
Verfügung. Von besonderer Bedeutung ist dabei die interaktive Datenerfassung von
Koordinaten mit Hilfe einer On-Screen-Datenerfassung (vgl. Abb. 5.4 u. Kap.
5.2.1). Das Geoinformationssystem verfügt über Funktionen zur Kalibrierung der
Digitalisiervorlage und zur Georeferenzierung von Geometrien. Dabei sind in der
Regel viele Kartennetzentwürfe implementiert, so dass die Datenerfassung von
Vorlagenkarten mit beinahe beliebigem Netzentwurf sowie auch eine Transforma-
tion in fast beliebige Koordinatensysteme möglich sind. Zum Verständnis sind so-
mit Grundkenntnisse von Koordinatensystemen und Netzentwürfen unerlässlich
(vgl. Kap. 4.2 - 4.5). Vor allem sind sehr vielfältige Funktionen zur Erfassung von
Geometrien vorhanden (z.B. Standardfunktionen wie Kopieren oder Löschen von
398 Geoinformationssysteme
Die Geoobjekte müssen nicht nur geometrisch, sondern auch durch Sachdaten defi-
niert werden. Zur Modellierung der Thematik nutzt das Geoinformationssystem
Funktionen eines Datenbankmanagementsystems. Die Kopplung mit Geoobjekten
erfolgt bei relationalen Datenstrukturen über Schlüsselattribute (vgl. Kap. 8.1.1).
Bearbeitung und raumbezogene Analyse von Geoobjekten im Vektormodell 399
Topologie nach sich ziehen. Hierzu gehören das einfache Hinzufügen einer Grenz-
linie, wodurch eine alte Fläche geteilt wird, oder das Löschen einer Grenzlinie,
wodurch zwei Flächen zusammengelegt werden. Aber auch schon einfache Verän-
derungen der Sachdaten können Veränderungen der Geometrien und dann weiter
eine Aktualisierung der Topologie erfordern. Hierzu gehören vor allem die Umklas-
sifizierungen von Geoobjekten (z.B. Zusammenfassen von feiner definierten und
dann zwangsläufig auch kleinräumig differenzierteren Untereinheiten zu gröberen
Haupteinheiten).
An dem einfachen Beispiel des Zusammenlegens benachbarter Flächen kann
sehr gut das Besondere der Verwaltung von Geoobjekten in einem Geoinformati-
onssystem verdeutlicht werden (vgl. Abb. 9.12). Durch das Zusammenlegen entfällt
die gemeinsame Grenzlinie. Eine neue Fläche mit vollständig neuer Form (d.h. Ge-
ometrie) entsteht. Je nach Datenmodell müssen neue topologische Beziehungen der
Grenzlinien aufgebaut werden. Die Sachdatensätze, die zu benachbarten Ursprungs-
flächen gehören, müssen, da nur noch eine Fläche vorliegt, zu einem Datensatz zu-
sammengefasst werden. Gerade diese Zusammenfassung und Aktualisierung ist
keineswegs trivial. Insbesondere muss vorab gewährleistet sein, dass eine inhaltli-
che, von einer Fragestellung vorbestimmte Ähnlichkeit vorliegt, die eine Zusam-
menlegung benachbarter Flächen gestattet.
Besondere Bedeutung besitzen Funktionen zur Anpassung von Karten und zur Kar-
tenrandbehandlung. Nicht selten tritt die Aufgabe auf, dass zwei Datenbestände aus
benachbarten Kartenblättern zusammengeführt werden müssen. Falls die Daten in
unterschiedlichen Koordinatensystemen erfasst wurden, müssen vorher die Koordi-
naten transformiert werden, so dass beide Datenbestände in einem einheitlichen Be-
zugssystem zwar noch getrennt, aber schon „nebeneinander“ vorliegen. Beide Da-
tenbestände können dann sofort zusammengeführt werden, wenn jeweils exakte
Kartenvorlagen bestanden, die Datenerfassung mit dem Digitalisiertablett fehlerfrei
und die Transformationen in das gemeinsame Bezugssystem verzerrungsfrei erfolg-
ten. Falls allerdings ein Datensatz auf der Grundlage einer verzerrten Karte erfasst
wurde (z.B. aufgrund von Alterungsprozessen des Papiers), bestehen erhebliche
Bearbeitung und raumbezogene Analyse von Geoobjekten im Vektormodell 401
Abb. 9.13: Aneinanderfügen von Datensätzen aus benachbarten Kartenblättern mit Anpassung der
Geometrie
Auch bei der Verarbeitung von Grenzen werden die Attribute und Attributwerte
nicht verändert. Diese Funktionen modifizieren ausschließlich die Geometrien einer
Datenebene, indem z.B. Teilbereiche aus dem Innern ausgestanzt werden (vgl. Abb.
9.15). Die zugehörigen Attributwerte bleiben erhalten. Lediglich Flächeninhalt und
Umfang der Teilflächen werden neu berechnet.
Bearbeitung und raumbezogene Analyse von Geoobjekten im Vektormodell 403
Abbildung 9.17 belegt die Art der „Vererbung“, wie sie in der GIS-Software Arc-
GIS realisiert ist. In diesem Beispiel sollen Nutzungsinformationen mit Besitzinfor-
mationen verschnitten werden. Hierbei wird generell von qualitativen Merkmalen
ausgegangen. Die Ergebnisfläche mit der Kennung 4 besitzt auch noch nach der
Verschneidung die Eigenschaften „WL“ und „X“ der beiden Ausgangsdatenebenen
(Biotoptyp WL und Besitzer X). In der Attributtabelle der Ergebnisdatenebene wer-
den einfach die Attribute der Eingangstabellen „angehängt“. Für eine neue, durch
die Verschneidung entstandene Fläche werden die Attributwerte aus den zugehöri-
gen Flächen der Eingangsdatenebenen übernommen.
Abb. 9.17: Verarbeitung der Attribute von Geoobjekten bei räumlichen Verschneidungen
404 Geoinformationssysteme
in einem Flugzeug eingesetzt wird und der die Strahlungstemperatur von Oberflä-
chen misst, ein Thermalbild ermittelt und daraus für ein Stadtgebiet Oberflächen-
temperaturen auf Rasterbasis bestimmt werden. Diese Thermaldaten können Ge-
bäudeflächen zugewiesen werden, deren Umrisse aus einer digitalen Liegenschafts-
karte stammen. Zur Lösung dieser Konvertierungsaufgabe wird in der Praxis fast
ausschließlich die sog. Punktmethode angewandt, bei der die Geoobjekte mit den
Mittelpunkten der Rasterzellen verschnitten werden (vgl. Abb. 9.19). Falls die Mit-
telpunktkoordinate einer Rasterzelle innerhalb eines flächigen Geoobjektes liegt,
wird der Wert dieser Zelle zur Berechnung des Attributwertes für das Geoobjekt
herangezogen (z.B. zur Ermittlung einer durchschnittlichen Oberflächentemperatur
durch Mittelwertbildung der rasterbezogenen Sachdaten wie z.B. in Abb. 9.19, Mit-
telwert aus den Werten 2, 4, 5, 5 und 4).
Für die räumliche Analyse von Rasterdaten bestehen zum einen Methoden, die die
Rastergeometrie betreffen und die mit den im Kapitel 9.3.4 behandelten räumlichen
Analyseverfahren auf Vektorbasis vergleichbar sind (vgl. Abb. 9.14 - 9.16). Zum
anderen liegen Methoden vor, die sich nur auf die Attributwerte in Matrixform be-
ziehen und dabei von der konkreten Form und Größe einer Rasterzelle abstrahieren.
Herauszustellen ist, dass viele Funktionen für Rasterdaten aus der Bildverarbeitung
stammen, woraus sich häufig die Terminologie erklärt (vgl. Filteroperationen, Be-
zeichnung der Attributwerte als Grauwerte).
Hier stehen keine typischen Bildbearbeitungs- und Bildauswertungsfunktionen
im Mittelpunkt (vgl. Kap. 10.6) als vielmehr solche Funktionen, die Methoden der
räumlichen Analyse in vektorbasierten Geoinformationssystemen nachbilden. Al-
lerdings lassen sich hierbei einzelne Funktionen nicht eindeutig auf einen Bereich
beschränken. So ist z.B. die Schwellwertbildung (engl. thresholding) ein Verfahren
zur Bildverbesserung, bei der Grauwerte unterhalb einer Schranke den Wert null
erhalten und als Bildstörungen aufgefasst werden und oberhalb dieser Schranke ei-
nen anderen konstanten Wert zugewiesen bekommen. Die Anwendung derartiger
lokaler Operatoren dient aber auch dazu, um Rasterdaten wie z.B. die räumliche
Verteilung von Höhen- oder Niederschlagsdaten auf Rasterbasis zu klassifizieren.
Die Generierung von Zonen erfolgt durch Verdickung (oder Verdünnung) von
Rasterzellen. Entsprechend der Operation in einem vektorbasierten Geoinformati-
Bearbeitung und raumbezogene Analyse von Geoobjekten im Rastermodell 409
onssystem ist dies eine primär geometrisch-topologische Funktion, bei der die At-
tributwerte der Rasterzellen zwar u.U. zur Steuerung der Auswahl, aber sonst nicht
weiter beachtet werden. Ebenso sind räumliche Überlagerungen und Verschneidun-
gen sowie Grenzfunktionen durch einfache logische Operationen umzusetzen.
Zur Verdeutlichung dieser Funktionen sollen mehrere Vereinbarungen getroffen
werden: Die Nachbarschaft von Pixeln wird über gemeinsame Kanten definiert (vgl.
Kap. 9.3.4). Die Ausgangs- bzw. Ergebnisdatenschichten werden mit InGrid(i,j)
bzw. OutGrid(i,j) bezeichnet. Die Attributwerte einer Rasterzelle besitzen den Wert
0 bzw. einen Wert t 1, denen die logischen Werte „falsch“ bzw. „wahr“ zugeordnet
sind. Dann gelten:
Außenbuffer (Verdickung, engl. blow):
OutGrid(i,j) = InGrid(i,j) or InGrid(i +1,j) or InGrid(i-1,j)
or InGrid(i,j+1) or InGrid(i,j-1)
Innenbuffer (Verdünnung, engl. shrink):
OutGrid(i,j) = InGrid(i,j) and InGrid(i+1,j) and InGrid(i-1,j)
and InGrid(i,j+1) and InGrid(i,j-1)
Falls andere Nachbarschaften zugrunde gelegt werden, sind mit geringem Mehrauf-
wand weitere Verdickungs- und Verdünnungsoperationen zu definieren.
Das „Ausstanzen“ von Gebieten oder das „Abschneiden“ von thematischen Schich-
ten am Rand (zu ähnlichen Funktionen vgl. Abb. 9.15) erfolgt über lokale logische
Operatoren. Ein Raster, das als Attributwerte nur die logischen Werte „wahr“ oder
„falsch“ besitzt, dient als Maske, die das Eingaberaster überdeckt (sog. Maskieren,
vgl. Abb. 9.22):
Maskieren:
OutGrid(i,j) = InGrid(i,j) if Maske(i,j)
Eine weitere wichtige Funktion der Verarbeitung von Rastergeometrien ist die Bil-
dung der Abstandstransformierten. Hierbei wird von (einer Gruppe zusammenhän-
gender) Rasterzellen ausgegangen, die einen gleichen Grauwert haben, also z.B.
eine gleiche Thematik besitzen. Entsprechend der zugrunde liegenden Metrik wird
für jede dieser Rasterzellen der Abstand zum Rand des Untersuchungsgebietes ge-
bildet. Diese Abstandswerte werden als Attributwerte in ein zweites Raster einge-
tragen. Sie bilden die Abstandstransformierte, deren Grauwerte als Abstände zu in-
terpretieren sind. Wird dieser Prozess fortgesetzt, entstehen Grauwerte, die von au-
ßen nach innen immer größer werden. Die maximalen Werte dieses Abstandsgebir-
ges werden auch als das Skelett der Rasterstruktur bezeichnet.
Die Verarbeitung der Rasterdaten, d.h. der Attributwerte auf Rasterbasis, zeichnet
sich dadurch aus, dass mehrere Datenschichten eine identische Raumbezugsbasis
besitzen. Beliebige Raumausschnitte und deren Attributwerte können jetzt einfach
miteinander verknüpft werden. Dabei ist ohne Bedeutung, ob Grauwerte einer Bild-
matrix oder thematisch vorgegebene Attributwerte auf Rasterbasis vorliegen. Letzt-
lich läuft die Verarbeitung dieser Rasterinformationen auf die Verarbeitung von
Matrizen mit Zahlen hinaus. Auf Zahlenmatrizen werden bestimmte Operatoren
(Verknüpfungen) ausgeführt, so dass als Ergebnis wieder eine Zahlenmatrix ent-
steht (vgl. Abb. 9.24).
Das Kalkül wird nach Tomlin (1990) in Analogie zur Zahlenalgebra Map Al-
gebra genannt. Herauszustellen ist, dass nur eine beschränkte Zahl von Operatoren
notwendig ist, um sämtliche Verarbeitungsmöglichkeiten von Rasterdaten abzude-
cken. Tomlin spricht von 64 Operatoren. Abbildung 9.24 verdeutlicht das zugrunde
412 Geoinformationssysteme
liegende Prinzip, wobei zwei Datenebenen mit einem arithmetischen Operator ver-
knüpft sind. Ähnlich lassen sich auch logische Verknüpfungen darstellen, die z.B.
Verschneidungen mehrerer Datenebenen umsetzen (vgl. Abb. 9.21). Das im Kapitel
9.5.1 genannte Beispiel, das die Erstellung einer Flurabstandskarte für das Grund-
wasser erläutert, zeigt einen Anwendungsfall auf.
9.6 Netzwerkanalysen
Die Analyse von Netzwerken gehört zu den zentralen Anwendungen von Geoinfor-
mationssystemen. Netzwerke spielen bei sehr vielen Aufgaben vor allem im Trans-
portwesen eine wichtige Rolle. Sie modellieren Verkehrssysteme wie Straßen- oder
Schienennetze, aber auch Leitungsnetze wie z.B. Rohrleitungsnetze von Ver- und
Entsorgungsunternehmen oder Telekommunikationsleitungsnetze.
Formal definiert sind Netzwerke als Mengen von Knoten und Kanten. Sie gehö-
ren zu den Graphen, wobei in der Praxis zumeist nur unsymmetrische und gewich-
tete (oder bewertete) Graphen vorkommen (vgl. Kap. 3.4.2). Die Modellierung und
Analyse von Netzwerken erfolgt auf Grundlage der Graphentheorie. Netzwerke be-
sitzen eine Knoten-Kanten-Knoten-Topologie (vgl. Kap. 9.3.2). Sie bauen somit auf
dem Vektormodell auf.
Die Netzwerkkanten repräsentieren miteinander verbundene, lineare Einheiten.
Sie können Straßen, Eisenbahn- oder Schifffahrtslinien für ein Transportnetzwerk
ebenso wie Leiterbahnen eines elektrischen Leitungsnetzes oder die Flüsse eines
Flussnetzes darstellen. Die Knoten des Netzwerkes sind z.B. Haltestellen oder all-
gemeine Verknüpfungsstellen wie z.B. Kreuzungen. Allen Elementen des Netzwer-
kes können Eigenschaften zugewiesen werden, die dann je nach Aufgabenstellung
in die Analyse mit einbezogen werden.
Die Bewertung der Kanten erfolgt in der Regel durch die Weglänge zwischen
zwei Knoten in einer Längeneinheit, sie kann aber auch z.B. Fahrtzeiten ausdrü-
cken. Hierdurch werden allgemein Widerstandswerte modelliert, die zwischen zwei
Knoten zu überwinden sind. Den Kanten eines Netzwerkes können für beide Rich-
tungen Widerstandswerte zugeordnet werden. Ein negativer Widerstandswert be-
deutet für die Netzwerkkanten, dass diese bzw. diese Richtungen nicht durchlaufen
werden dürfen (z.B. Straßensperren, Baustellen, Einbahnstraßen bzw. Modellierung
der Fließrichtung). Ebenso können die Knoten je nach Fragestellung unterschiedlich
modelliert werden. So können einzelne, aber nicht notwendig sämtliche Knoten als
Haltestellen definiert werden, die auf einem Weg besucht werden müssen. Ferner
kann wie z.B. bei Planung einer Buslinie vorgegeben werden, in welcher Reihen-
folge Stopps zu durchlaufen sind.
Allerdings reicht es nicht aus, ein Straßen- oder Flussnetz durch eine einfache
Knoten-Kanten-Knoten-Struktur zu modellieren, bei der lediglich die Kanten und
Knoten bewertet sind. Generell bestehen an jedem Netzwerkknoten Übergänge von
einer Netzwerkkante zu einer anderen, die ebenfalls zu modellieren sind. Heraus-
zustellen ist, dass gerade die Modellierung dieser Übergänge sehr aufwendig, aber
unabdingbar ist. So werden in einem realen Wegenetz Straßen (auch) über Brücken
geführt, so dass hier kein Abbiegen möglich ist. An anderen ebenen Kreuzungen
bestehen Abbiegeverbote. In einem Flussnetz treten abgesehen von Kanalüberfüh-
rungen Querungen über Brücken nicht auf. Bei einer Flussmündung ist die „Abbie-
gevorschrift“ durch die Fließrichtung des Wassers vorgegeben. Insbesondere kön-
nen den Übergangsmöglichkeiten zwischen den Netzwerkkanten sehr differenziert
414 Geoinformationssysteme
Abbildung 9.25 zeigt einen optimalen Weg zwischen zwei Punkten im Straßennetz
der Stadt Osnabrück, der nach Fahrtzeit und (lediglich) unter Berücksichtigung von
Abbiegevorschriften berechnet wurde. Grundlage der Modellierung bilden die frei
verfügbaren OSM-Daten (vgl. Kap. 5.6.2). Hierbei mussten nachträglich vor allem
die Brücken und Kreuzungen mit der Autobahn beachtet werden, die keine Straßen-
kreuzungen und Auffahrtmöglichkeiten darstellen. Darüber hinaus kann das Netz-
werkmodell noch weiter verfeinert werden. So können z.B. auch noch Einbahnstra-
ßen oder „Tempo-30-Zonen“ wie auch die Abbiegezeit modelliert werden. Auch
die Integration der aktuellen Verkehrslage ist möglich.
Netzwerkanalysen 415
Zu bestimmen sind zunächst die Straßen und Wege, über die ein vorgegebener
Punkt im Netzwerk in weniger als 500 m Weglänge zu erreichen ist (als maximal
anzunehmende, fußläufige Distanz bei Vollversorgern der wohnungsnahen Grund-
versorgung, vgl. Abb. 9.26). Dabei soll kein einfacher Kreis mit einem Radius von
500 m um einen Standort gelegt werden. Stattdessen geht es hier um die Erreich-
barkeit entlang von Straßen und Wegen in einem konkreten Verkehrsnetz. Ermittelt
wird für jeden Standort die Erreichbarkeit auf den Kanten des Netzwerkes (sog.
Versorgungsnetz), wobei die zusammenhängenden Wege bzw. Kanten bestimmt
werden, die zusammen nicht weiter als 500 m von einem Punkt wegführen. Im ein-
fachsten Fall werden nur die Fußwege berücksichtigt, so dass die aufwendige Mo-
dellierung von Abzweigungen oder von Einbahnstraßen entfällt. Anschließend kann
der flächige Einzugsbereich durch ein Polygon bestimmt werden, das die errechne-
ten Zuwege umschließt. Hierzu können alle Endpunkte des Versorgungsnetzes
durch gerade Linien verbunden werden.
Nachdem ein Versorgungsbereich einer Grundversorgungseinrichtung bestimmt
worden ist, kann in einem weiteren Schritt berechnet werden, wie groß die dort an-
sässige Wohnbevölkerung ist. Hierzu wird der Versorgungsbereich mit der Daten-
ebene verschnitten, die Wohngebäude mit der zugehörigen Wohnbevölkerung aus-
416 Geoinformationssysteme
weist. Diese Verschneidung und das Bilden eines gemeinsamen Durchschnitts bei-
der thematischen Schichten ist eine Standardaufgabe eines Geoinformationssys-
tems. Demgegenüber stellt die Zuweisung von Bevölkerungsdaten zu den Wohnge-
bäuden keine einfache Aufgabe dar, obschon sich in der Praxis vielfältige Anwen-
dungen ergeben und somit für viele Planungsaufgaben Standardlösungen vorliegen
müssten: Analyse des Versorgungsgrades der Bevölkerung oder Haushalte einer
Stadt bzw. deren Erreichbarkeit im Hinblick auf Anbieter von Lebensmitteln (vgl.
Hackmann u. de Lange 2001), Standorte von Hausärzten oder der Feuerwehr. In
einem Szenario könnte analysiert und quantifiziert werden, wie sich der Versor-
gungsgrad verändert, falls ein Akutkrankenhaus geschlossen wird. Zur Lösung der-
artiger Aufgaben müssten Daten des Einwohnermeldeamtes, im Idealfall differen-
ziert nach verschiedenen Bevölkerungsmerkmalen, digital zugänglich sein. Dem
steht der Datenschutz entgegen, so dass in der Regel nur in Notfällen auf diese sen-
siblen Daten zurückgegriffen werden kann (z.B. Evakuierung der Bevölkerung bei
einem Bombenfund und Abschätzung des Umfangs von Einsatzfahrzeugen). Man
kann versuchen, über die Zahl der Gebäude und eine angenommene durchschnittli-
che Haushaltszusammensetzung pro Gebäude einzelne Bevölkerungsdaten wie An-
zahl oder (grobe) Alterszusammensetzung zu schätzen. Häufig reichen diese Ab-
schätzungen zu Marketingzwecken aus.
9.7.1 Ausgangsfragestellungen
Die Trendflächenanalyse berechnet ein Polynom n-ter Ordnung, das die zi-Werte
der Beobachtungsstellen bestmöglich annähert:
݂(ݔ, ܽ = )ݕ + ܽଵ ݔ+ ܽଶ ݕ+ ܽଷ ݕݔ+ ܽସ ݔଶ + ܽହ ݕଶ + ܽ ݔଶ ݕ+ ܽ ݕݔଶ + ଼ܽ ݔଷ + ڮ+
Ein derartiges Polynom stellt eine Fläche im Raum dar, so dass bei dreidimensio-
naler Betrachtung der Ansatz recht anschaulich ist. Versucht wird, die Beobach-
tungswerte zi an den Stellen (xi,yi) durch eine Fläche anzunähern. Die Koeffizienten
werden derart bestimmt, dass die Summe der Abweichungsquadrate zwischen den
Beobachtungs- und den Funktionswerten an den Beobachtungsstellen minimal wird
(zur Ausgleichsrechnung vgl. Kap. 4.2.5.5):
݂(ݔ , ݕ ) = ݖƸ ؆ ݖ wobei σ(ݖƸ െ ݖ )ଶ minimal
Der einfachste Fall einer linearen Trendfläche (vgl. Abb. 9.27), bei der anschaulich
beschrieben eine Ebene durch die Punkte gelegt wird, ist gleichbedeutend mit der
linearen Regression mit zwei Prädiktorvariablen (hier: x-, y-Koordinaten). Bei Po-
lynomen hoher Ordnung wird die Summe der Abweichungsquadrate zwar kleiner,
diese Polynome (bzw. die Flächen) neigen aber dazu, zwischen den Beobachtungs-
oder Messpunkten zu oszillieren. Somit werden zumeist nur Trendflächen bis zur
dritten Ordnung eingesetzt.
mit
z0 Wert für den Punkt P0(x0,y0)
zi Wert für den Beobachtungspunkt Pi(xi,yi)
d0,i Distanz zwischen P0(x0,y0) und Pi(xi,yi)
f Gewichtungsfunktion
Į vereinfachter Gewichtungsfaktor
Die räumlichen Interpolationsansätze durch Mittelwertbildung unterscheiden sich
hinsichtlich der Bestimmung der Gewichte und der Auswahl der benachbarten bzw.
zu berücksichtigenden Punkte. In der Regel werden zur Mittelwertbildung nicht
sämtliche Ausgangswerte hinzugezogen, sondern nur die Werte in einem vorab fest-
zulegenden Umkreis zum Punkt P0. Hierdurch können räumlich weit entfernte Aus-
reißer ausgeschlossen werden. Die Gewichte werden aus den Distanzen zu den
Mess- oder Beobachtungspunkten bestimmt. Die gebräuchlichsten Gewichtsfunkti-
onen sind:
f (d) = d–Į inverse Distanz
f (d) = e–Į• d • d Glockenkurve nach Gauß
'LH *HZLFKWVIXQNWLRQ VRZLH GLH :HUWH IU GHQ .RHIIL]LHQWHQ Į LP ([SRQHQWHQ
ebenso wie die Anzahl der Einflusswerte oder die Größe des Einzugsbereiches wer-
den geschätzt oder aufgrund der Fragestellung vorgegeben. Leicht einzusehen ist,
GDVVEHLJU|HUZHUGHQGHPĮGHU(LQIOXVVGHUZHLWHUHQWIHUQWOLHJHQGHQ3XQNWHJH
ringer und der benachbarten Punkte größer wird.
Im einfachsten Fall werden als Gewichte die inversen Distanzen der Beobachtungs-
oder Messpunkte zur Schätzstelle genommen (engl. inverse distance weighting,
idw-interpolation). Sehr gebräuchlich ist die inverse Distanz mit Į = 2, also die
inverse quadrierte Luftliniendistanz. Die weiter entfernt liegenden Punkte, also die
Punkte mit der größten Distanz, erhalten somit ein kleineres Gewicht. Die komplex
erscheinende Formel lässt sich für diesen Standardfall erheblich übersichtlicher
schreiben:
420 Geoinformationssysteme
భ భ భ భ
ή௭భ ା మ ή௭మ ା మ ή௭య ା మ ή௭ర ାڮ
మ
బ,భ బ,మ బ,య బ,ర
ݖ = భ భ భ భ
ା మ ା మ ା మ ାڮ
మబ,భ బ,మ బ,య బ,ర
Dabei wird davon ausgegangen, dass jeder Eingabepunkt einen lokalen Einfluss hat,
der sich mit zunehmender Entfernung verringert. Somit wird unterstellt, dass eine
Ähnlichkeit räumlich benachbarter Punkte besteht. Diese Verfahren sind daher nur
sinnvoll, falls dieser Basisannahme zugestimmt werden kann. Das Rechenbeispiel
zur Abbildung 9.28 verdeutlicht die Abschätzung der täglichen Fein-staubmenge an
einem nicht zugänglichen Standort in einer Großstadt auf der Basis von vier
Messstellen. Zur Einordnung der zi-Werte ist zu berücksichtigen, dass seit dem 1.
Januar 2005 (europaweit) an höchstens 35 Tagen im Jahr der Wert von 50
Mikrogramm Feinstaub pro Kubikmeter Luft überschritten werden darf.
Abb. 9.28: Räumliche Interpolation durch Gewichtung mit inversen (reziproken) Distanzen
9.7.4 Thiessen-Polygone
Die Polygonmethode geht bei der Zuweisung von Werten an unbekannten Stellen
von einem grundsätzlich anderen Ansatz als die übrigen Interpolationsmethoden
aus. Hierbei werden aus vorhandenen Werten an wenigen Mess- oder Beobach-
tungspunkten keine neuen Schätzwerte für unbekannte Punkte errechnet. Falls n
Mess- oder Beobachtungsstellen vorliegen, wird vielmehr das Untersuchungsgebiet
auch in n Polygone aufgeteilt bzw. zerlegt, so dass jeder Punkt in einem Polygon
dem zugehörigen Mess- oder Beobachtungspunkt am nächsten liegt. Sämtliche
Punkte in diesem Polygon erhalten dessen Mess- oder Beobachtungswert. Hier-
durch entsteht innerhalb der Polygone eine homogene Werteverteilung, an den Kan-
ten liegen allerdings Sprungstellen vor, die sich allein aus dieser Rechenmethode
ergeben.
Abb. 9.30: Berechnung des Gebietsniederschlags auf der Basis von Thiessen-Polygonen
Die Erstellung von Oberflächenmodellen kann auf der Basis eines regelmäßigen
Rasters mit gleichem Abstand der Punkte sowohl in x- wie auch in y-Richtung so-
wie von Höhenangaben erfolgen. Im einfachsten Fall entsteht ein Blockbild (vgl.
Abb. 9.31). Durch Verbindung der Höhen der Mittelpunkte der Blöcke entsteht eine
angenäherte Oberfläche. Das Bild erscheint durch die starren Vorgaben stark ver-
einfacht und in der Regel recht kantig und grob. Das Oberflächenmodell ist nicht
an die realen Höhenverhältnisse angepasst. Dort, wo ein starkes Relief viele Höhen-
punkte erfordert, werden zur Modellierung ebenso viele Höhenangaben verwendet
wie für Ebenen, die mit wenigen Höhenpunkten auskommen. Bessere Ergebnisse
werden erzielt, wenn die Oberfläche durch unregelmäßige Dreiecke modelliert
wird, die sich dem Relief anpassen (vgl. Abb. 9.32).
Räumliche Interpolation und Modellierung von Flächen 423
Die Konstruktion einer Fläche durch jeweils drei benachbarte zi-Werte bedeutet for-
mal, jeweils für ein Dreieck die exakt zu bestimmende (Flächen-)Gleichung z(x,y)
= a0 + a1 • x + a2 • y zu berechnen. Das Gleichungssystem zur Bestimmung der Ko-
effizienten ai und den Lösungsansatz zeigt Abbildung 9.33. Die zi-Werte innerhalb
des Dreiecks berechnen sich durch Einsetzen der (xi,yi)-Koordinaten in die Glei-
chung. Die Beobachtungs- oder Messwerte, also die zi-Werte der Ecken der Drei-
ecke, liegen hierbei exakt auf der Werteoberfläche und werden nicht wie bei den
anderen Verfahren approximiert.
9.7.5.2 Delauny-Triangulation
Die Darstellung des Geländemodells wird vor allem durch die Auswahl der Stütz-
stellen, d.h. der Mess- oder Beobachtungspunkte bzw. der Punkte mit Höhenanga-
ben, aber auch durch das rein formale, technische Vorgehen der Dreiecksverma-
schung in der Ebene erheblich bestimmt. Abbildung 9.34 zeigt, zu welchen Unter-
schieden alternative ebene Vermaschungen der gleichen Ausgangsdaten führen
können. Den Draufsichten werden jeweils die perspektivischen Sichten nebenge-
stellt. Die linke Variante ergibt eine spitze Pyramide, während die rechte Variante
ein Tal mit zwei Hängen darstellt. So ist die Zuordnung der Stützstellen zu Drei-
ecken in der Ebene nicht eindeutig.
Bei der Konstruktion von Delaunay-Dreiecken wird sich zunutze gemacht, dass die
Delaunay-Triangulierung der duale Graph der Thiessen-Polygone darstellt. Die
Ecken der Thiessen-Polygone sind die Umkreismittelpunkte der Dreiecke der De-
launay-Triangulation. Daraus folgt unmittelbar die Zuordnung der Punkte zu den
Delaunay-Dreiecken. In der Abbildung 9.35 bilden somit die Punkte A, B und C ein
Delaunay-Dreieck und nicht z.B. die Punkte A, B und D.
- Schätzung von Werten, die als Punkte auf einer (Werte-)Oberfläche verstanden
werden,
- Generierung von Höhenlinien bzw. allgemein von Isolinien (z.B. Grundwasser-
gleichen oder Isohyeten),
- Berechnen eines Querprofils des Geländes,
- Durchführung von Sichtbarkeitsanalysen,
- Flächen- und Volumenberechnung sowie Abtragungsberechnungen.
Eine häufige Aufgabe in der Praxis ist die Berechnung von Gefälle und Exposition.
Unter den unendlich vielen, von einem Punkt in alle Richtungen ausgehenden An-
stiege wird mit Steigung bzw. Neigung (engl. slope) der Wert der größten Steigung
bzw. des größten Gefälles bezeichnet (vgl. Abb. 9.38). Die Exposition entspricht
dann der Richtung der größten Steigung bzw. des stärksten Gefälles, die die gegen-
über der Nordausrichtung in Grad bestimmt wird.
Im dreidimensionalen Fall bzw. für einen Punkt (x,y,z) auf einer Geländeoberfläche
ist die Steigung definiert als die Norm („Länge“) des Gradientenvektors, der sich
relativ einfach berechnen lässt, falls die Oberfläche durch eine Funktion z = f(x,y)
der beiden Variablen x und y beschrieben werden kann. Hierbei sind dz/dx bzw.
dz/dy die partiellen Ableitungen von f(x,y), sofern diese existieren:
ௗ௭ ଶ
ௗ௭ ଶ
ܵ = ݃݊ݑ݃݅݁ݐԡ݂ ᇱ (ݔ, )ݕԡ = ටቀ ቁ + ቀ ቁ ݉݅ݔ(݂ = ݖ ݐ, )ݕ
ௗ௫ ௗ௬
Allerdings wird nur in den seltensten Fällen eine Geländeoberfläche oder ein Hö-
henmodell durch eine mathematische Funktion beschrieben werden können, so dass
die angegebene Formel zunächst nur von theoretischem Interesse ist. Vielmehr ist
davon auszugehen, dass die Neigung aus einem regelmäßigen Raster von Höhen-
werten zu bestimmen ist. Hierbei werden die partiellen Ableitungen bzw. Differen-
zialquotienten dz/dx (Steigung in x-Richtung) und dz/dy (Steigung in y-Richtung)
geschätzt nach dem Algorithmus von Horn (vgl. Horn 1981, zu weiteren Ansätzen
der Parameterschätzung vgl. Burrough u. McDonell 1998 S. 190).
428 Geoinformationssysteme
Steigung = t also
Steigung = t also
Abb. 9.39: Berechnung der Steigung in einem Höhenraster nach Horn 1981
Die Exposition kennzeichnet den Winkel der Richtung des Gradienten gegenüber
Nord. Sie wird als positive Gradangabe von 0° bis unter 360° angegeben, wobei im
Uhrzeigersinn von Norden aus gemessen wird. Aus den beiden Differenzialquoti-
enten dz/dx (Steigung in x-Richtung) und dz/dy (Steigung in y-Richtung) wird zu-
nächst H‘ bestimmt H‘ = arctan (dz/dy / dz/dx) (vgl. Abb. 9.38). Zur Berechnung der
Exposition müssen Fallunterscheidungen gemacht werden, da die Umkehrfunktion
des Tangens, d.h. der Arkustangens, nur zwischen -90° und +90° eindeutig ist. Ab-
bildung 9.38 zeigt einen nordöstlich exponierten Hang (H‘ 0) mit dz/dy > 0 und
dz/dx > 0 und H = 90°- H‘. Falls dz/dy < 0 würde der Gradientenvektor nach Südos-
ten zeigen, der Arkustangens wäre negativ und H > 90°.
90° – arctan (dz/dy / dz/dx) falls dz/dx > 0 (Gefälle nach Osten)
270° – arctan (dz/dy / dz/dx) falls dz/dx < 0 (Gefälle nach Westen)
Exposition 0° falls dz/dx = 0, dz/dy > 0
180° falls dz/dx = 0, dz/dy < 0
nicht definiert falls dz/dx = 0, dz/dy = 0
Die letzte Zeile verdeutlicht eine Ebene, bei der die Differenzialquotienten 0 sind.
Eine Exposition ist anschaulich nicht gegeben und formal nicht definiert.
Neigung und Exposition finden vielfältig Anwendung. So wird z.B. die Exposition
in vegetationsgeographischen Fragestellungen oder für Aufgaben der
Geomorphologie und Geländeanalyse u.a. zur Modellierung von potenziellem
alpinem Permafrost oder von Lawinengefahren herangezogen. Beim Aufbau von
Solardachkatastern, die die Eignung von Dachflächen für Photovoltaik darstellen,
werden Dachneigung und Ausmaß der Besonnung (d.h. Exposition) benötigt. Die
Parameter werden z.B. auf der Basis von LiDAR-Daten ermittelt (vgl. Kap. 5.4).
Literatur 429
Literatur
Hennermann, K. (2014): Kartographie und GIS. Eine Einführung. Darmstadt: Wiss. Buchgesell-
schaft. 2. Aufl.
Hexagon (2019a): Hexagon Geospatial Portfolio. https://www.hexagongeospatial.com/
(21.11.2019)
Hexagon (2019b): GeoMedia WebMap2018.
https://download.hexagongeospatial.com/en/downloads/webgis/geomedia-webmap-2018
(21.11.2019)
Kappas, M. (2012): Geographische Informationssysteme. Braunschweig: Westermann = Das Geo-
graphische Seminar. 2. Aufl.
Horn, B. (1981): Hill shading and the reflectance map. In: Proceedings of the IEEE 69, S. 14–47.
Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (1999, Hrsg.): Geographical Infor-
mation Systems I. Principles and Technical Issues. New York: John Wiley. 2. Aufl.
Longley, P.A., Goodchild, M.F., Maguire, D.J. u. D.W. Rhind (1999, Hrsg.): Geographical Infor-
mation Systems II. Management Issues and Applications. New York: John Wiley. 2. Aufl.
MapInfo Pro (2019): MapInfo Pro Desktop GIS. https://www.pitneybowes.com/de/location-intelli-
gence/geografische-informationssysteme/mapinfo-pro.html (21.11.2019)
NCGIA (1990): Core Curriculum-Geographic Information Systems (1990). Ein Zugang zur digita-
len Version des Curriculum von 1990 findet man über die Einstiegsseite: https://escholar-
ship.org/uc/spatial_ucsb_ncgia_cc (21.11.2019)
Penzkofer, M. (2017): Geoinformatik: Von den Grundlagen zum Fachwissen. München: C.H. Beck.
2. Aufl.
OpenJUMP (2019): OpenJump. http://www.openjump.org/ (21.11.2019)
QGIS (2019a): Ein freies Open-Source-Geographisches-Informationssystem.
https://www.qgis.org/de/site/ (21.11.2019)
QGIS (2019b): QGIS Python Plugins Repository. https://plugins.qgis.org/plugins/ (21.11.2019)
Rudert, F. u. H. Pundt (2008): Standardisierte Geodienste (WMS) auf mobilen Endgeräten – ein
Entwicklungsbeispiel aus dem Projekt „GeoToolsHarz“. In: Strobl, J. u.a. (Hrsg.): Angewandte
Geoinformatik 2008, S. 305–312. Heidelberg: Wichmann.
SAGA (2019): SAGA, System for Automated Geoscientific Analyses. http://saga-gis.source-
forge.net/en/ (21.11.2019)
Spring GIS (2019): Spring GIS. http://www.dpi.inpe.br/spring/english/index.html (21.11.2019)
Tomlin, C. D. (1990): Geographic Information Systems and Cartography Modeling. Englewood
Cliffs: Prentice Hall.
Umweltbundesamt (2019): Ausbreitungsmodelle für anlagenbezogene Immissionsprognosen.
https://www.umweltbundesamt.de/themen/luft/regelungen-strategien/ausbreitungsmodelle-fuer-
anlagenbezogene/uebersicht-kontakt#textpart-1 (21.11.2019)
Wackernagel, H. (2003): Multivariate geostatistics. An introduction with applications. Berlin:
Springer. 3. Aufl.
Worboys, M. u. M. Duckham (2004): GIS. A computing perspective. Boca Raton: CRC Press, 2.
Aufl.
10 Einführung in die Fernerkundung und digitale
Bildverarbeitung
Die Gewinnung von Informationen mit Hilfe von Fernerkundungssystemen, die auf
Flugzeugen, auf Satelliten und zunehmend auch auf Drohnen (UAVs, Unmanned
Aerial Vehicles) eingesetzt werden, hat in den letzten Jahren erheblich an Bedeu-
tung gewonnen. Standen zunächst eindeutig militärische Anwendungen im Vorder-
grund, vor allem Spionagetätigkeiten, wurde bald das Potenzial dieser Systeme für
die wissenschaftliche und kommerzielle Beobachtung von Prozessen auf der Erd-
oberfläche und in der Atmosphäre erkannt (zur Entwicklung der Fernerkundung
vgl. Heipke 2017a S. 8 ff.). Zu den Einsatzbereichen, in denen die Fernerkundung
bereits als Standardverfahren eingesetzt wird, gehören vor allem die Wetterbe-
obachtung und das weite Feld des Umweltmonitoring. Ein weltweites Vertriebsnetz
sorgt heute für einen nahezu problemlosen Bezug der Daten unterschiedlicher Sen-
soren, deren Auswertung zunehmend in Verbindung mit weiteren digitalen Geoda-
ten innerhalb hybrider Geoinformationssysteme erfolgt.
Eine sehr breite Definition des Begriffs Fernerkundung (engl. remote sensing)
liefert Hildebrandt (1996 S. 1): „Fernerkundung im umfassenden Sinne ist die Auf-
nahme oder Messung von Objekten, ohne mit diesen in körperlichen Kontakt zu
treten, und die Auswertung dabei gewonnener Daten oder Bilder zur Gewinnung
quantitativer oder qualitativer Informationen über deren Vorkommen, Zustand oder
Zustandsänderung und ggf. deren natürliche oder soziale Beziehungen zueinander.“
Diese sehr weit gefasste Begriffsbildung schließt auch analoge Verfahren wie die
Erstellung von analogen Luftbildern, d.h. das Photographieren mit einer Kamera
auf Film, sowie auch die Messung der Strahlungstemperatur durch flugzeugge-
stützte Messgeräte oder sogar per Hand ein. Sämtliche Verfahren erfassen elektro-
magnetische Strahlung wie das sichtbare Licht, Wärmestrahlung und andere nicht
sichtbare Strahlung, die von den Untersuchungsobjekten auf der Erde (z.B. Grün-
flächen) oder in der Atmosphäre (z.B. Wolken) emittiert oder reflektiert werden,
wobei die Objekte je nach Art oder Beschaffenheit (z.B. Vegetation) und Zustand
(z.B. geschädigter Waldbestand oder abgeerntete Getreidefelder) auf unterschiedli-
che Weise emittieren oder reflektieren.
Hier werden nur solche Fernerkundungssysteme behandelt, die als Ergebnis ei-
nes Abtastprozesses der Erdoberfläche digitale Bilddaten liefern. Diese können mit
Abb. 10.2: Sensor-, Boden- und Veredlungssegment in der Fernerkundung (nach Markwitz 1989
S. 3)
Zur Datenerfassung können primäre passive und aktive sowie sekundäre Aufnah-
mesysteme unterschieden werden (vgl. Abb. 10.3). Primäre passive Systeme kön-
nen nur von Objekten reflektierte oder emittierte Strahlung aufzeichnen (z.B. die
436 Einführung in die Fernerkundung und digitale Bildverarbeitung
Abb. 10.3: Passive und aktive Aufnahmesysteme (nach Albertz 2009 S. 10)
Im Web liefert das Earth Observation Portal der ESA (European Space Agency)
eine sehr gute Zusammenstellung beinahe sämtlicher Satellitenmissionen mit brei-
ten Hintergrundinformationen u.a. zu vielen Sensoren (vgl. EoPortal 2019).
Tabelle 10.2: Typische Plattformen und Sensoren für die Fernerkundung und deren Geopositionie-
rung ohne terrestrische Systeme (nach Toth u. Jutzi 2017 Tab. 2.1)
Satellit Flugzeug UAV
Allgemein kann definiert werden, dass die digitale Bildverarbeitung der Extraktion
von Informationen aus digitalen Bilddaten dient. Hierzu gehört u.a. das Erkennen
von Bildinhalten durch geeignete Klassifizierungsverfahren. Gegenüber dieser
recht globalen Begriffsbestimmung können (feingliedriger) Verfahren der Bildbe-
arbeitung unterschieden werden, die die Bilddaten durch Überführen in eine geeig-
netere Form auf eine Analyse vorbereiten (Gewinnung zweckgerichteter Bildda-
ten). Hierzu gehören Bildkorrekturen, Kontrastverstärkung, Filterung oder Manipu-
lation von Bildinhalten (vgl. Kap. 10.6). In einem konkreten Anwendungsfall müs-
sen allerdings nicht immer sämtliche Verfahren der Bildbearbeitung durchgeführt
werden. Die Auswahl der notwendigen Bildbearbeitungen ist immer von der vor-
liegenden Fragestellung abhängig. Demgegenüber sind Verfahren der Bildanalyse
zu unterscheiden, die eine Analyse der Bildinhalte vornehmen und dadurch der ei-
gentlichen Informationsgewinnung dienen. Die Grenzen zwischen diesen beiden
Methodengruppen sind jedoch in der Praxis fließend. Verfahren der Indexbildung,
die häufig der Bildbearbeitung zugerechnet werden, können in der Anwendung z.B.
durchaus Analysezwecke erfüllen, da aus ihnen Pflanzeneigenschaften (bzw. mit
Satellitendaten eher Eigenschaften von Pflanzenbeständen) abgeleitet werden kön-
nen (vgl. Kap. 10.6.3.1).
438 Einführung in die Fernerkundung und digitale Bildverarbeitung
10.2.4 Photogrammetrie
Von dem Begriff der Fernerkundung wird zumeist der der Photogrammetrie abge-
grenzt, worunter die Bildmessung, d.h. die geometrische Auswertung von Bildern
zu verstehen ist mit dem Ziel, Lage, Größe und geometrische Gestalt von Objekten
im Raum zu bestimmen. Hierbei sind hochgenaue Aufnahmesysteme erforderlich,
die eine möglichst exakte Vermessung der aufgezeichneten Situation ermöglichen.
Haupteinsatzgebiet der Photogrammetrie ist die Erstellung Topographischer Kar-
ten. Der Anwendungsbereich erstreckt sich von der Geschwindigkeitsmessung be-
wegter Objekte bis zur automatisierten Erstellung digitaler Höhenmodelle mit mo-
dernen digitalen photogrammetrischen Arbeitsstationen (zu Grundlagen und An-
wendungen vgl. Kraus 2012 u. Heipke 2017b). Durch neue Entwicklungen der Sen-
sorik sowie von Auswertemöglichkeiten nähern sich Photogrammetrie und Ferner-
kundung zunehmend an (vgl. Lillesand u.a. 2008 Kap. 3).
Die Sonne ist die Energiequelle für die solare Strahlung, deren Wellenlängenbe-
reich aus Sicht der Fernerkundung zwischen O = 0,3 Pm und etwa O = 3,5 Pm zu
begrenzen ist (Wellenlängen vom ultravioletten über den sichtbaren bis zum infra-
roten Spektralbereich, vgl. Abb. 10.4). Die spektrale Zusammensetzung der Son-
nenstrahlung entspricht in etwa der eines sog. Schwarzkörpers mit einer Temperatur
von 5900 K. Ein Schwarzkörper, d.h. ein idealisierter Strahler, ist ein physikalisches
Modell, auf das sich die Gesetze der Thermodynamik anwenden und spektrale Be-
strahlungsstärken theoretisch ableiten lassen (zu physikalischen Grundlagen vgl.
Hildebrandt 1996 S. 14 ff., Mather u. Koch 2011 S. 4 ff. u. vor allem Jensen 2015
S. 185 ff.). Im Durchschnitt werden 35 % des auftreffenden Strahlungsflusses von
der Erde (einschließlich Wolken und Atmosphäre) reflektiert, 17 % werden von der
Atmosphäre und 47 % von Materialien an der Erdoberfläche absorbiert (vgl. Mather
u. Koch 2011 S. 13 - 14). Reflektierte Einstrahlung sowie von der Erdoberfläche
nach Absorption der Einstrahlung im Infrarot emittierte Wärmestrahlung sind die
Quellen der in der Fernerkundung auszuwertenden elektromagnetischen Strahlung.
Abb. 10.4: Solare Einstrahlungskurven und Absorption durch Gasanteile in der Erdatmosphäre
(DWD 2019)
Beim Durchgang durch die Atmosphäre verringert sich die direkte Sonnenstrah-
lung, so dass am Boden nur noch ein Teil der Strahlung ankommt. Dabei ist die
Durchlässigkeit der Atmosphäre für die elektromagnetische Strahlung stark vom
Zustand der Atmosphäre (Aerosolgehalt, Feuchtegehalt, Schichtung, Wetterlage),
vom zurückgelegten Weg der Strahlung durch die Atmosphäre und von der Wellen-
länge der Strahlung abhängig. Die unterschiedlichen physikalischen Eigenschaften
440 Einführung in die Fernerkundung und digitale Bildverarbeitung
der in der Atmosphäre vorkommenden Gase sind für ein komplexes Zusammenspiel
von Streuung und Absorption verantwortlich. Durch Sauerstoff bzw. Ozon wird die
ultraviolette Strahlung unter 0,3 Pm fast vollständig absorbiert und zu einem grö-
ßeren Teil in Wärmeenergie umgewandelt. Im Spektralbereich zwischen 0,4 und
ȝPZLUGGLH6WUDKOXQJQXU]XHLQHPJHULQJHQ7HLOGXUFK2]RQ:DVVHUGDPSI
Aerosol- und Wolkenpartikel absorbiert, so dass sie zu einem großen Teil die Erd-
oberfläche erreichen kann. Auf diesen Spektralbereich hat sich in der Evolution das
menschliche Auge als Sensor elektromagnetischer Strahlung ausgerichtet, so dass
man vom (für den Menschen) sichtbaren Licht spricht. Hingegen können viele Wir-
EHOWLHUHDXFKLPQDKHQ8OWUDYLROHWWXQWHUKDOEYRQȝP)DUEHQHUNHQQHQ,PLQI
UDURWHQ 6SHNWUDOEHUHLFK ELV HWZD ȝP ZLUG GLH 6WUDKOXQJ GXUFK :DVVHU
dampf, Kohlendioxid und Ozon stark und in geringerem Maße auch durch andere
Spurengase absorbiert (vgl. Abb. 10.5).
Die Absorptions- und Streuungsvorgänge werden mit dem Begriff Extinktion zu-
sammengefasst. Die Absorption ist auf die speziellen Absorptionseigenschaften der
Gase, Aerosolteilchen und Wolkentropfen, die Streuung ist auf Wechselwirkungen
zwischen Wellenlänge und den Teilchengrößen von Aerosolen und Luftmolekülen
zurückzuführen (vgl. weiterführend Mather u. Koch 2011 S. 15 ff.).
Die Durchlässigkeit der Atmosphäre hat unmittelbaren Einfluss auf die Ferner-
kundung. Die Absorptionsbanden des Wasserdampfes bewirken z.B., dass diese Be-
reiche für die optische Fernerkundung der Erdoberfläche nicht genutzt werden kön-
nen. Dagegen gibt es Bereiche im elektromagnetischen Spektrum, für die die At-
mosphäre nahezu durchsichtig ist (sog. atmosphärische Fenster). Somit ist z.B.
nicht das gesamte kurzwellige Infrarot für die Fernerkundung geeignet. Die wich-
tigsten dieser Fenster liegen in mehreren Bereichen des elektromagnetischen Spekt-
rums (vgl. Abb. 10.5):
im sichtbaren Licht (Visible VIS) 0,4–0,7 µm
im nahen Infrarot (Near Infrared, NIR) 0,7–1,1 µm
im kurzwelligen Infrarot (Short Wave Infrared, SWIR) 1,1–1,35 µm
1,4–1,8 µm
2–2,5 µm
im mittleren Infrarot (Middle Infrared, MIR) 3–4 µm
4,5–5 µm
im fernen Infrarot (Thermal Infrared, THIR) 8–9,5 µm
10–14 µm
im Bereich der Mikrowellen >1 mm
Die diese atmosphärischen Fenster passierende Strahlung unterliegt komplexen
Streuungsvorgängen, die sich wiederum wellenlängenspezifisch auswirken. So
wird z.B. ein großer Teil der Strahlung des blauen Spektralbereiches bereits in der
Atmosphäre an den Luftmolekülen gestreut (sog. Rayleigh-Streuung) und zum Sa-
tellitensensor zurückgestrahlt. Dieser Teil überlagert dort als „Luftlicht“ (engl. path
radiance) das Bodensignal und führt zu Kontrastminderungen. Deshalb wird dieser
Bereich oft aus Untersuchungen herausgelassen oder erst gar nicht aufgezeichnet.
So verzichtet z.B. der ASTER-Sensor auf der Terra-Satellitenplattform der NASA
auf eine Aufnahme dieses Wellenlängenbereiches (vgl. Kap. 10.4.8).
Physikalische Grundlagen 441
Abbildung 10.6 vermittelt einen Eindruck von der Komplexität der atmosphäri-
schen Vorgänge, die das am Fernerkundungssensor empfangene Signal beeinflus-
sen. So tragen sowohl die diffuse Reflexion als auch das Luftlicht von benachbarten
Pixeln (diffuse Beleuchtung 2. Komponente bzw. Luftlicht 2. Komponente) zu der
Reflexion des im Zentrum der Aufnahme befindlichen Pixels bei (vgl. eingehender
Richards 2013 S. 33 ff.).
Die Durchlässigkeit der Atmosphäre hat in der Fernerkundung eine doppelte Rele-
vanz: zum einen für die Einstrahlung solarer Strahlung auf die Erdoberfläche und
zum anderen (wichtiger) im Hinblick auf die Empfangsmöglichkeiten der von der
Erdoberfläche reflektierten oder emittierten Strahlung an einem satellitengestützten
Sensor. Daher sind auf die Fenster höchster atmosphärischer Durchlässigkeit die
Sensoren derjenigen Satelliten ausgerichtet, deren Hauptaufgabe eine Aufzeich-
nung von Prozessen auf der Erdoberfläche ist.
Durch die jeweiligen Aufnahmesysteme (Sensoren) wird die eingehende Strah-
lung gemessen, wobei verschiedene Sensoren für spezielle Frequenzbereiche elekt-
442 Einführung in die Fernerkundung und digitale Bildverarbeitung
Die Reflexion bzw. der Reflexionsgrad in Abhängigkeit von der Wellenlänge der
Strahlung, die von der Oberfläche von Körpern auf der Erde ausgeht, ist entschei-
dend für die Identifizierung dieser Objekte. Dieses Reflexionsverhalten wird in Re-
flexionskurven dargestellt, die auch als Signaturkurven bezeichnet werden und die
Bedeutung „spektraler Fingerabdrücke“ besitzen. Abbildung 10.7 zeigt ausge-
wählte Signaturkurven, an denen sich einige Reflexionsunterschiede verdeutlichen
lassen. Weitere Beispiele finden sich z.B. in Mather u. Koch 2011 S. 17 ff., Lille-
sand u.a. S. 13 ff. sowie vor allem in den Spektralbibliotheken des United States
Geological Survey (vgl. USGS 2019a und USGS2019b). Die ECOSTRESS-
Spektralbibliothek (ehemals ASTER-Spektralbibliothek) des Jet Propulsion Labo-
ratory enthält u.a. eine Suche nach Spektralsignaturen von über 3.400 Oberflächen-
materialien (vgl. NASA 2019a).
Die Spektralsignaturen gesunder grüner Vegetation weisen neben dem Chloro-
phyll-Reflexionsmaximum im grünen Spektralbereich einen besonders erwähnens-
werten steilen Anstieg der Reflexion im nahen Infrarot auf. Dieser „Red Edge“ ge-
nannte Gradient besitzt große Bedeutung bei der Auswertung von Bilddaten für eine
Vegetationsanalyse. Er kommt u.a. bei der Entwicklung von sog. Vegetationsindi-
zes zum Tragen, die z.B. zur Identifizierung des Vitalitätsgrades von Pflanzen aus-
genutzt werden (vgl. Kap. 10.6.3.1, zu Reflexionsverhalten von Pflanzenbeständen
vgl. eingehend Hildebrandt 1996 S. 39 ff.).
Der Anwendung von Signaturkurven sind aber Grenzen gesetzt. So gibt es für eine
Oberflächenart keine allgemeingültigen Signaturkurven! Die Signaturkurven von
Objekten an der Erdoberfläche variieren vielmehr u.a. nach Beleuchtung, Jahres-
zeit, Beschaffenheit der Atmosphäre, Zustand des Oberflächenobjektes (z.B. Ge-
sundheitszustand, Aggregatzustand, Feuchtegehalt) und Konfiguration des Aufnah-
meinstrumentes. So verändert sich z.B. die Reflexion von Wasser u.a. mit dem
Trübstoffanteil. Daher sind in den jeweiligen Untersuchungsgebieten sog. Trai-
ningsgebiete notwendig, die eine aktuelle homogene Oberfläche aufweisen und eine
Ableitung bzw. Kalibrierung von Signaturkurven erlauben (vgl. Kap. 10.7.4). Ein
weiteres Problem stellen Mischformen dar. So lassen sich insbesondere Ausschnitte
einer Kulturlandschaft (u.a. Bebauung mit Straßen, Industrieanlagen, Einzelhäuser
in Gartenanlagen) nicht eindeutig aufgrund einer einzelnen Signaturkurve erfassen
(zum Problem der Mischpixel vgl. Kap. 10.7.7). Die Identifizierung ist vor allem
von der geometrischen und spektralen Auflösung des Aufnahmesystems abhängig
(vgl. Kap. 10.4.1).
Im Hinblick auf die Praxis der Bildauswertung sind vor allem vier Merkmale für
die Beurteilung der Leistungsfähigkeit eines Aufnahmesystems für eine bestimmte
Anwendung von großer Bedeutung:
- Die räumliche Auflösung: Hierdurch werden geometrische Eigenschaften des
Aufnahmesystems gekennzeichnet. Sie gibt die Größe eines Pixels in Meter an,
d.h. die Seitenlänge der Fläche des Bodenelements, die durch ein System bei einer
bestimmten Flughöhe erfasst wird. Dieser Wert wird durch den Öffnungswinkel
des Sensorsystems bestimmt (für ein Pixel: Instantaneous Field of View (IFoV)
JHPHVVHQ]XPHLVWLQ0LOOLUDGLDQWPUDGPLW ʌUDG
- Die spektrale Auflösung: Viele der eingesetzten Aufnahmesensoren sind multi-
spektral angelegt, sie zeichnen die Rückstrahlung von der Erdoberfläche oder At-
mosphäre in mehreren Spektralbereichen (Kanälen) auf. Die spektrale Auflösung
wird durch die Anzahl der Kanäle bestimmt. Die Lage dieser Kanäle im elektro-
magnetischen Spektrum und ihre Breite beeinflussen unmittelbar die Unter-
scheidbarkeit verschiedener Oberflächentypen im Satellitenbild. Von den multi-
spektralen sind die panchromatischen Sensoren zu unterscheiden, wobei panchro-
matisch die breitbandige spektrale Empfindlichkeit eines Sensors oder Filmmate-
rials kennzeichnet. Ein panchromatischer Sensor ist über den gesamten Bereich
des menschlichen Auges empfindlich. Die Abstufung der Grauwerte ist typischen
Schwarz-Weiß-Bildern vergleichbar. Ein hyperspektrales Sensorsystem zeichnet
Bilder von sehr vielen, eng beieinanderliegenden Wellenlängen auf. Derartige
Systeme können 20 bis 250 unterschiedliche Kanäle besitzen.
444 Einführung in die Fernerkundung und digitale Bildverarbeitung
- Die radiometrische Auflösung: Die Erkennbarkeit von Objekten hängt auch von
der Fähigkeit eines Sensors ab, die empfangene Strahlung möglichst differenziert
aufzuzeichnen. Durch die Anzahl der sog. Grauwerte, die die Zahl der Intensitäts-
stufen kennzeichnet, die für die Wiedergabe dieser Rückstrahlung pro Kanal zur
Verfügung stehen, wird die radiometrische Auflösung bestimmt. Eine gebräuch-
liche Form ist die Wiedergabe in 256 Graustufen pro Kanal, zu deren Speicherung
8 Bit notwendig sind, so dass die radiometrische Auflösung mit 8 Bit angegeben
wird. Allerdings ist dies eine vereinfachte Darstellung. Zur Beschreibung der ra-
diometrischen Auflösung müsste man z.B. auch das Signal-Rausch-Verhältnis
hinzuziehen (vgl. Hildebrandt 1996 S. 429). Die reine Farbtiefe (Bitzahl) wird als
Signalquantität oder Grauwertauflösung bezeichnet.
- Die temporale Auflösung: Der zeitliche Abstand, innerhalb dessen ein Gebiet von
einem bestimmten Satellitensensor wiederholt aufgezeichnet werden kann, be-
stimmt seine temporale Auflösung (auch Repetitionsrate genannt). Diese verkürzt
sich, je breiter die Bodenspur ist und je weiter ein Gebiet in Richtung der Pole
liegt (Überlappung benachbarter Bodenspuren bei polaren Satellitenorbits).
Abb. 10.9: Bahnparameter von Landsat (verändert nach Drury 1990 S. 48)
Der Multispectral Scanner (MSS) und der Thematic Mapper (TM) wie auch der
neuere Enhanced Thematic Mapper Plus (ETM+) sind opto-mechanische Scanner,
bei denen eine Zeile durch einen hin- und herschwingenden Spiegel abgetastet wird
(vgl. Abb. 10.10). Beim Multispektralscanner (MSS) wurden mit einer Spiegelbe-
wegung sechs Zeilen in vier Spektralkanälen erfasst, was insgesamt 24 Detektoren
erfordert. Beim Thematic Mapper (TM) erfolgte die Aufnahme der Daten in jedem
Kanal außer dem Thermalkanal (4 Detektoren) mit 16 Detektoren. Da bei jeder
Spiegeldrehung 6300 Messungen erfolgen und am Boden 185 km abgetastet wer-
den, ergibt sich eine Ausdehnung von 30 m pro Pixel quer zur Flugrichtung. In
Flugrichtung tasten 16 Detektoren (pro Kanal und für eine von 6300 Messungen,
446 Einführung in die Fernerkundung und digitale Bildverarbeitung
d.h. Spiegeleinstellungen) eine Länge von 480 m ab, so dass ebenfalls 30 m pro
Pixel erfasst werden.
Dieser Scannertyp des Thematic Mapper wird aufgrund der Ähnlichkeit des Auf-
nahmeprinzips mit einem Reisigbesen auch „Whisk Broom Scanner“ genannt (Fe-
gen durch Hin- und Herschwenken eines Besens). Demgegenüber steht das jüngere
Bauprinzip eines „Push Broom Scanners“ (Fegen durch Schieben eines Besens).
Abb. 10.10: Aufnahmeprinzipien von Whisk Broom (Landsat 1-7) und modernen Push Broom
Scannern (Landsat 8)
Abb. 10.11: Ausschnitt aus dem World Reference System (WRS) von Landsat (Deutschland)
Ein deutlicher Nachteil der passiven optischen Systeme ist deren Wetterabhängig-
keit, die eine Akquisition von brauchbaren Daten nur erlaubt, wenn die Atmosphäre
möglichst frei von Wolken, Dunst oder anderen Trübungen ist. Die relativ kurzen
Wellenlängen der mit optischen Systemen ausgewerteten Strahlung verhindern ein
Durchdringen solcher Trübungen (vgl. Kap. 10.3.2), während Wellenlängen im Be-
reich von 1 mm bis 1 m, die sog. Mikro- oder Radiowellen, durchgelassen werden.
Dies wird bei der Radar-Fernerkundung ausgenutzt (zum Einstieg vgl. Mather u.
Koch 2011 S. 58 ff.). Radar ist ein Akronym für Radio Detection and Ranging und
wurde ursprünglich entwickelt, um mit Radiowellen Objekte aufzuspüren (Detec-
tion) und deren Abstand (Range) bzw. Position zu bestimmen. Da Objekte Radio-
wellen nur in geringem Umfang auf natürliche Weise emittieren, werden in der Fer-
nerkundung meist aktive Systeme verwendet, die selbst Strahlungsimpulse aussen-
den und das reflektierte Radar-Echo wieder empfangen können. Ein solches System
448 Einführung in die Fernerkundung und digitale Bildverarbeitung
ist demnach auch nicht auf eine natürliche Bestrahlung des Beobachtungsobjektes
angewiesen und somit auch zu Aufnahmen in der Nacht in der Lage.
Ein Radarsystem sendet kurze, energiereiche Mikrowellenpulse seitlich zur
Flugrichtung in einem bestimmten Winkel (Einfallswinkel) zum Boden. Die reflek-
tierten Signale werden anschließend vom Sensor auf dem Satelliten oder dem Flug-
zeug aufgezeichnet. Auch diesem Ansatz liegt das Grundprinzip der Fernerkundung
zugrunde. So bestimmen verschiedene Merkmale der Oberfläche wie Relief oder
Topographie, Mikroklima, Feuchte, Boden (u.a. Oberflächenrauigkeit, Textur und
Lagerungsdichte) oder Vegetationsbedeckung das Reflexionsverhalten im Mikro-
wellenbereich.
Die abgestrahlte elektromagnetische Energie kann in Wellenlänge und Polarisa-
tion variieren. Die Polarisation bezeichnet dabei die Fähigkeit, Radarstrahlen so zu
filtern, dass sie sich nur in bestimmte Richtungen senkrecht zur Wellenbewegung
ausbreiten. Verwendete Wellenlänge und Polarisation sowie der Einfallswinkel be-
stimmen aus der Perspektive des Sensors das Erscheinungsbild der reflektierten Sig-
nale und damit die Charakteristik von Oberflächenobjekten im Radarbild (vgl. Abb.
10.13). Ferner wird die räumliche Auflösung eines Radarsystems in Flugrichtung
(Azimuth) durch die Baulänge der verwendeten Antenne bestimmt. Die zeitliche
Dauer des Energiepulses beeinflusst die Auflösung quer zur Flugrichtung (Range).
So wird mit wachsender Antennengröße (Apertur) die Breite des Radarimpulses
geringer, wodurch eine stärkere Bündelung der Radarwellen und somit eine bessere
räumliche Auflösung hervorgerufen werden. Demgegenüber wächst mit zunehmen-
der Entfernung des Radars zum beobachteten Objekt die Breite des Radarimpulses.
Allerdings können Antennen nicht beliebig groß werden, um z.B. die Flughöhe sa-
tellitengestützter Systeme auszugleichen, so dass konventionelle Radarsysteme
(Real Apertur Radar (RAR) nach Hildebrandt 1996 S. 576) nur für geringe Flughö-
hen, die keine allzu große Entfernung zwischen Antenne und Bodenoberfläche auf-
weisen, geeignet sind.
Antenne entlang des Flugweges simuliert. Das System synthetisiert hierdurch den
Effekt einer sehr langen Antenne. Durch die Aufzeichnung der reflektierten Signale
eines Objektes von verschiedenen Positionen aus entsteht für jedes Objekt eine Sig-
nalfolge, in der sich mit variierender Entfernung des Objektes von der Antenne die
Frequenz des zurückgestrahlten und an der Radarantenne aufgezeichneten Signals
systematisch ändert. Aus der in dieser Signalfolge aufgezeichneten Frequenzver-
schiebung zwischen ausgestrahlter und empfangener Strahlung (Dopplereffekt) las-
sen sich die Signale bei der Auswertung über komplexe mathematische Verfahren
wieder so rekonstruieren, als stammten sie von einer einzigen Antenne.
Durch die Schrägsicht des Radars und somit die Aufnahmetechnik bedingte Ef-
fekte bestimmen das Erscheinungsbild der Erdoberfläche im Radarbild und müssen
bei der Prozessierung der Daten berücksichtigt werden. Die elektrischen Eigen-
schaften der Materialien an der Erdoberfläche (ausgedrückt durch die sog. Dielekt-
rizitätskonstante) haben einen großen Einfluss auf die Reflexion und die Eindring-
tiefe von Mikrowellen. Insbesondere bestimmt die Wellenlänge die Eindringtiefe
der Strahlung in bestimmte Materialien. Hierbei gilt das Prinzip: je größer die Wel-
lenlänge, desto größer die Eindringtiefe. Dieser Zusammenhang kann benutzt wer-
den, bestimmte Frequenzbereiche für den gezielten Untersuchungseinsatz zu ver-
wenden. Insgesamt ist die Verarbeitung von Radardaten, die über Standardanwen-
dungen hinausgeht, sehr komplex und wird hier nicht näher thematisiert.
Während der Shuttle Radar Topography Mission (SRTM) im Februar 2000, bei
der zwei Radarinstrumente gleichzeitig im Einsatz waren, wurde beinahe die ge-
samte Erdoberfläche über Radarinterferometrie hochgenau dreidimensional ver-
messen. Im Jahre 2014 gab die US-Bundesregierung bekannt, dass die erzeugten
topographischen Daten mit der höchsten Auflösung bis Ende 2015 weltweit veröf-
fentlicht werden sollen, während sie vorher nur mit unterschiedlicher Auflösung
bereitgestellt wurden. Die neuen Daten werden mit einer Abtastrate von einer Bo-
gensekunde veröffentlicht, die die vollständige Auflösung der ursprünglichen Mes-
sungen wiedergibt (vgl. NASA 2019d, vgl. auch USGS 2019l). Die Daten dienen
zur Erstellung eines hochauflösenden digitalen Geländemodells der Erdoberfläche.
Jüngere Beispiele für satellitengestützte SAR-Systeme sind die deutschen Satel-
litensysteme TerraSAR-X und TanDEM-X (TerraSAR-X add-on for Digital Eleva-
tion Measurement), die 2007 bzw. 2010 gestartet wurden (vgl. DLR 2019b). Terra-
SAR-X ist der derzeit präziseste hochauflösende kommerzielle Radarsatellit im Or-
bit, der Datenservices mit einer einzigartigen Präzision, Qualität und Zuverlässig-
keit zur Verfügung stellt. TanDEM-X und TerraSAR-X fliegen dazu mit einem Ab-
stand von nur wenigen hundert Metern in enger Formation und bilden das erste sog.
SAR (Synthetic-Aperture-Radar-)Interferometer dieser Art (Parallelflug) im Welt-
raum (vgl. Zink u.a. 2017).
Das Standardprodukt des Höhenmodells (fertiggestellt 2016) hat eine räumliche
Auflösung von 12 m und 30 m mit einer absoluten vertikalen Genauigkeit besser
als 10 m und einer relativen vertikalen Genauigkeit von 2 m (vgl. DLR 2019c).
450 Einführung in die Fernerkundung und digitale Bildverarbeitung
10.4.5 Wettersatelliten
10.4.6 Landsat
10.4.6.1 Mission
Das Landsat-Programm wurde vom US Geological Survey (USGS) und der Natio-
nal Aeronautics and Space Administration (NASA) initiiert, um routinemäßig
Landbilder aus dem Weltraum zu sammeln. Die NASA entwickelt Fernerkundungs-
instrumente und Raumfahrzeuge, startet und validiert die Leistung der Instrumente
und Satelliten. Das USGS übernimmt Eigentum und Betrieb der Satelliten zusätz-
lich zur Verwaltung des gesamten Bodenempfangs, der Datenarchivierung, der Pro-
dukterzeugung und –verteilung (USGS 2019d).
Mit den Landsat-Bildern ist seit den ersten Aufnahmen aus dem Jahr 1972 eine
einzigartige Sammlung von Umweltbeobachtungen der Erde aus dem Weltraum er-
hältlich, die zudem kostenfrei verfügbar ist (vgl. Kap. 10.5.3). Somit liegen Daten
mit einer über Jahrzehnten konstanten Sensorik vor, die die Daten vergleichbar ma-
chen, und die die Erde räumlich vollständig abdecken. Dies macht den großen Wert
der Landsat-Mission aus, obschon jüngere Sensoren eine erheblich feinere Boden-
auflösung der Bilddaten besitzen, die aber nicht für einen derartigen langen Erhe-
bungszeitraum und großen räumlichen Umfang der Erhebung vorliegen (zu um-
fangreichen Informationen zum Landsat-Programm vgl. USGS 2019e). Tabelle
10.3 listet Anwendungsgebiete der Kanäle der Landsatsensoren auf. Hinzuweisen
ist darauf, dass ein einzelner Kanal selten zu einer inhaltlichen Aussage führt und
dass stattdessen wie bei den Klassifikationsverfahren immer mehrere Kanäle zu be-
trachten sind.
452 Einführung in die Fernerkundung und digitale Bildverarbeitung
Landsat 1 (ursprünglich Earth Resources Technology Satellite ERST) war der erste
Satellit des US-amerikanischen Landsat-Programms, der 1972 gestartet wurde. An
Instrumenten besaß er das Return Beam Vidicon System (RBV) und den Multispect-
ral Scanner (zu geometrischen, spektralen und radiometrischen Eigenschaften bei-
der Instrumente vgl. Tab. 10.4 u. 10.5). Da die geometrischen und radiometrischen
Eigenschaften des RBV-Systems, das aus drei Videokameras bestand, denen des
Multispectral Scanner (MSS) unterlegen waren, wurde das MSS-System das pri-
märe Aufnahmegerät an Bord von Landsat. Die Wahl der Spektralbereiche des MSS
hatte praktische Hintergründe: Hierdurch sollten Bildprodukte zur Verfügung ge-
stellt werden können, die Ähnlichkeit mit Falschfarb-Infrarot-Luftbildern haben, für
deren Interpretation und Analyse schon ein großer Erfahrungsschatz bestand. Land-
sat 3 erhielt einen zusätzlichen Thermalkanal mit einer geometrischen Auflösung
von 240 m, der sich als fehlerhaft herausstellte und daher kaum genutzt wurde.
Die Sensoren der nächsten Landsat-Generation wurden an die steigenden An-
sprüche und Bedürfnisse der verschiedenen geowissenschaftlichen Disziplinen an-
gepasst. Das Ergebnis war der Thematic Mapper (TM), benannt nach dem Ziel, an-
gepasste thematische Darstellungen für die verschiedenen geowissenschaftlichen
Bereiche zu liefern. Die räumliche, die spektrale und auch die radiometrische Auf-
lösung wurden stark verbessert (vgl. Tab. 10.4 u. 10.5). Im Gegensatz zum MSS-
System erfolgte die Wahl der abgebildeten Spektralbereiche des TM auf der Grund-
lage fundierter Untersuchungen zum Spektralverhalten verschiedener Oberflächen-
typen wie Vegetation und Gesteinsminerale. Außer Kanälen im sichtbaren Bereich
Bedeutende satellitengestützte Aufnahmesysteme 453
und im nahen Infrarot wurden auch solche im kurzwelligen und thermalen Infrarot
implementiert, letzterer jedoch in einer relativ geringen räumlichen Auflösung (120
m). Dieses System befand sich zusammen mit dem MSS-System an Bord von Land-
sat 4 und 5. Der TM lieferte beinahe ununterbrochen Bilder der Erde von Juli 1982
bis November 2011 mit einer 16-tägigen Wiederholung. Nach Abschalten des TM
wurde der MSS wieder kurzzeitig bis Januar 2013 aktiviert. Der Start von Landsat
6, der ein verbessertes TM-Instrument (Enhanced Thematic Mapper) und weiterhin
den MSS an Bord hatte, scheiterte 1993.
Die Spektralbereiche, die der RBV-Sensor auf Landsat 1 und 2 erfasste, wurden als
die Kanäle 1 bis 3 bezeichnet. Die Kanäle des Multispectral Scanner (MSS) wurden
in der ersten Generation von Landsat dann weiter beginnend mit 4 fortnummeriert.
Der TM-Kanal 7 ist nicht in der Reihenfolge, da er als Letzter hinzugenommen
wurde, nachdem die anderen sechs Kanäle bereits festlagen.
Nach dem Fehlschlag von Landsat 6 startete im April 1999 Landsat 7. Seine
Bahndaten entsprechen denen von Landsat 4 und 5. Das ETM-Instrument erfuhr
weitere Verbesserungen und Ergänzungen und wurde in Enhanced Thematic Map-
per Plus (ETM+) umbenannt. So sind ein panchromatischer Kanal mit einer räum-
lichen Auflösung von 15 m installiert und die räumliche Auflösung des Thermalka-
nals auf 60 m gesteigert worden. Eine weitere wichtige Verbesserung betrifft die
radiometrische Kalibrierung der Instrumente (direkt) an Bord des Satelliten. Diese
Maßnahmen erlauben im Rahmen der verschiedenen Levels der Systemkorrektur
eine radiometrische Korrektur mit einer absoluten Genauigkeit von 5 %.
Am 31.3.2003 ist das Scan-Line-Correction-(SLC)-Instrument ausgefallen, so
dass keine Kompensation der Vorwärtsbewegung des Satelliten mehr möglich ist.
454 Einführung in die Fernerkundung und digitale Bildverarbeitung
Das SLC-Instrument erreicht, dass die quer zur Fluglinie des Satelliten aufgenom-
menen Zeilen (vgl. Abb. 10.10) sich aneinander anschließen und parallel zueinander
sind. Die Daten von Landsat 7 weisen Datenlücken auf (22 % fehlende Pixel). Der
United States Geological Survey stellt Informationen und Werkzeuge zur Verfü-
gung, die die Datenaufbereitung von Landsat 7 betreffen (vgl. USGS 2019f, aus-
führlich Mather u. Koch 2011 S. 89 ff., zu den Missionen insgesamt vgl. USGS
2019g).
Mit der Landsat Data Continuity Mission (LDCM) wird unter einem neuen Namen
die 40-jährige Geschichte der Landsat-Missionen fortgesetzt. Die LDCM soll die
fortgesetzte Erfassung und Verfügbarkeit von Landsat-ähnlichen Daten jenseits der
Dauer der Landsat-5- und Landsat-7-Missionen sichern. Der Start der Landsat Data
Continuity Mission (d.h. in der fortgesetzten Zählung: Landsat 8) erfolgte am 11.
Februar 2013. Neu empfangene Daten von Landsat 7 ETM+ und Landsat 8
OLI/TIRS werden innerhalb von 12 Stunden zum Download angeboten. Alle
Szenen werden als Level-1-Produkte prozessiert. Als Zielsetzung wurde 2012 for-
muliert: „The mission objectives of the LDCM are to (1) collect and archive me-
dium resolution (30-meter spatial resolution) multispectral image data affording
seasonal coverage of the global landmasses for a period of no less than 5 years; (2)
ensure that LDCM data are sufficiently consistent with data from the earlier Landsat
Bedeutende satellitengestützte Aufnahmesysteme 455
Tabelle 10.6: Anwendungsgebiete der Kanäle der Sensoren OLI und TIRS von Landsat 8 (nach
USGS Geological Survey 2019j)
Ka- µm Einsatz
nal
1 0,43–0,45 coastal/ 30 m intensivierte Beobachtungen von Küstenzonen
aerosol
2 0,45–0,51 blue 30 m wie Kanal 1 TM/ETM+
3 0,53–0,59 green 30 m wie Kanal 2 TM/ETM+
4 0,64–0,67 red 30 m wie Kanal 3 TM/ETM+
5 0,85–0,88 near IR 30 m ähnlich zu Kanal 4 TM/ETM+
6 1,57–1,65 SWIR1 30 m ähnlich zu Kanal 5 TM/ETM+, nützlich zum Er-
kennen von Pflanzenstress durch Dürre, zur Ab-
grenzung von Brandrodungsflächen und durch
Feuer betroffene Vegetation sowie zum Erkennen
von Feuer
7 2,11–2,29 SWIR2 30 m wie Kanal 6
8 0,50–0,68 pan 15 m nützlich zur Schärfung von Multispektralbildern
9 1,36–1,38 cirrus 30 m nützlich zur besseren Erfassung von Cirruswolken
10 10,38–11,19 TIRS1 100 m zu nutzen für die Thermalkartierung
11 11,5–12,51 TIRS2 100 m wie Kanal 10
Landsat 9 wird die Erdbeobachtung durch Landsat über ein halbes Jahrhundert ver-
längern. Geplant ist die Fertigstellung von Raumsonde und Instrumenten im De-
zember 2020. Nach dem Start soll Landsat 9 in die Umlaufbahn von Landsat 7 ein-
schwenken. Der ältere Satellit soll bereits im Mai 2020 außer Dienst gestellt wer-
den. Landsat 9 wird jeden Punkt der Erde alle 16 Tage mit einem achttätigen Offset
gegenüber Landsat 8 überfliegen. Die Instrumente von Landsat 9 (Operational Land
Imager 2 (OLI-2) und Thermal Infrared Sensor 2 (TIRS-2)) sind Weiterentwicklun-
gen der Instrumente an Bord von Landsat 8 (vgl. USGS 2019k).
456 Einführung in die Fernerkundung und digitale Bildverarbeitung
10.4.6.4 Datenaufbereitung
Instrument (HRS)“ an Bord, welches gleichzeitig mit den anderen Instrumenten be-
trieben wurde und panchromatische Stereobildpaare mit einer geometrischen Auf-
lösung von 10 m aufzeichnete (zu technischen Daten von SPOT 1 – 5 vgl. Airbus
2019b).
Das Sensorsystem von SPOT bietet aufgrund des schwenkbaren Umlenkspiegels
Vorteile (vgl. Abb. 10.13). So ist eine Aufnahme von Bildstreifen parallel und auch
seitwärts zur Flugrichtung möglich, wodurch auch die Aufnahme von Stereobildern
möglich ist. Während bei senkrechter Aufnahmerichtung das gleiche Gebiet erst in
26 Tagen erneut erfasst wird, kann bei seitwärts gerichteten Aufnahmen in Flug-
richtung die gleiche Szene wesentlich häufiger gescannt werden.
SPOT 6 bzw. SPOT 7 wurden 2012 bzw. 2014 gestartet (zu technischen Daten
vgl. Airbus 2019c). Durch eine große Streifenbreite, die der seiner Vorgänger-Sa-
telliten entspricht, eignet sich SPOT 6 zur Erfassung großflächiger Gebiete. Die hö-
here Auflösung von 1,5 m – im Vergleich zu 2,5 m bei SPOT 5 – ermöglicht die
Erkennung noch genauerer Details (mit dem New AstroSat Optical Modular Instru-
ment, NAOMI). SPOT 6 befindet sich in einer polarnahen, sonnensynchronen Bahn
in 694 km Höhe mit einer Umlaufperiodizität von 99 Minuten. Innerhalb gewisser
Grenzen sind die Aufnahmestreifen frei wählbar. Ein Sensor besitzt jeweils einen
Blickwinkel, der bis 30° (bzw. erweitert bis 45°) in Längsrichtung veränderbar ist.
Die Neuerfassungskapazität beträgt einen Tag bei gleichzeitigem Einsatz von SPOT
6 und SPOT 7 und zwischen einem und drei Tagen bei Einsatz von nur einem Sa-
telliten (je nach Längengrad des Interessengebietes). Die Sensoren können schnell
in alle Richtungen ausgerichtet werden, um verschiedene Interessengebiete bei ei-
nem Überflug erfassen zu können (30° in 14 Sekunden einschließlich Stabilisie-
rungszeit).
Abb. 10.13: Aufnahmemodi von SPOT 6/7 (vgl. Spot Image 2019b)
Der Erdbeobachtungssatellit Terra (auch EOS-1 oder EOS-AM1 genannt) stellt das
Flaggschiff des 1999 gestarteten Earth Observing System (EOS) dar und bewegt
sich auf einer polaren, sonnensynchronen Erdumlaufbahn. „Terra explores the con-
nections between Earth’s atmosphere, land, snow and ice, ocean, and energy bal-
ance, to understand Earth’s climate and climate change and to map the impact of
human activity and natural disasters on communities and ecosystems“ (vgl. NASA
2019f). Terra ist eine internationale Mission und trägt fünf Systeme:
- CERES (Clouds and the Earth‘s Radiant Energy System, USA), Untersuchung
von Wärmeflüssen von und zur Erde (2 Instrumente),
- MISR (Multi-angle Imaging Spectro-Radiometer, USA), Untersuchung der
Streuung von Sonnenlicht, Wolken, Aerosolen und Vegetation (9 Kameras mit
unterschiedlicher Blickrichtung und mit je 4 Kanälen)
- MODIS (MODerate resolution Imaging Spectroradiometer, USA), Untersuchung
großräumiger Änderungen der Biosphäre (36 Kanäle)
- MOPITT (Measurements of Pollution in the Troposphere, Kanada), Untersu-
chung der Konzentration von Methan und Kohlenstoffmonoxid in der Troposhäre
(3 Kanäle)
- ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer,
Japan), Untersuchung der Erde zur Erstellung von detaillierten Karten u.a. zur
Landbedeckung und Oberflächentemperatur (3 unabhängige Sensoren mit 14 Ka-
nälen).
Die Kanäle 1 bis 3 von ASTER weisen hohe Ähnlichkeit zu den Kanälen 2 bis 4
des Thematic Mapper auf. Der Sensor ergänzt u.a. aufgrund der höheren Auflösung
bzw. ersetzt Landsat und sichert eine gewisse Kontinuität in Zeiten, in denen Land-
sat-Instrumente lückenhafte Daten liefern (Landsat 7 seit 2003). Der Kanal 3 ist
zweifach vorhanden. Er tastet im Nadir und rückwärtsgerichtet, so dass eine stere-
oskopische Auswertung und eine Erstellung kostengünstiger Höhenmodelle mög-
lich sind (zu den Eigenschaften von ASTER vgl. NASA 2019g).
Bedeutende satellitengestützte Aufnahmesysteme 459
Sentinel-3A (Start 2016) und Sentinel-3B (Start 2018) ergänzen die Sentinel-2-
Mission. Einerseits werden die Temperatur, Farbe und Höhe der Meeresoberfläche
sowie die Dicke des Meereises erfasst (u.a. Beobachtung der Meeresspiegelschwan-
kungen, der Meeresverschmutzung und der biologischen Produktivität), anderer-
seits können detaillierte Informationen bereitgestellt werden bei der Überwachung
von Waldbränden, zur Kartierung der Landnutzung, zur Erstellung von Vegetation-
sindizes oder zur Messung der Höhe von Flüssen und Seen (vgl. ESA 2019f).
Die Sentinel-4- und Sentinel-5-Missionen haben zum Ziel, die Zusammenset-
zung der Atmosphäre zu überwachen. Die Sentinel-4-Mission soll auf den geosta-
tionären Satelliten der dritten Generation von Meteosat durchgeführt werden (u.a.
mit einem UVN-Ultraviolet-Visible-Near-Infrared-Spektrometer, erwarteter Start
2021) Die Sentinel-5-Mission soll auf dem polar umlaufenden Satelliten MetOp der
zweiten Generation durchgeführt werden (u.a. mit einem UVNS-Ultraviolet-
Visible-Near-Infrared-Shortwave-Spektrometer, vgl. ESA 2019g).
Sentinel-6 soll über einen Radarhöhenmesser zur Messung der globalen Meeres-
höhe verfügen und hauptsächlich der Ozeanographie und für Klimastudien dienen
(vgl. ESA 2019h).
Mit Sentinel-5 Precursor (Sentinel-5P) besteht die erste Copernicus-Mission, die
sich der Überwachung der Atmosphäre widmet (Start 2018). Der Satellit ist mit dem
Tropomi-Spektrometer ausgestattet, mit dem eine Vielzahl von Spurengasen wie
Stickstoffdioxid, Ozon, Formaldehyd, Schwefeldioxid, Methan, Kohlenmonoxid
und Aerosole erfasst werden können. Sentinel-5P wurde entwickelt, um die Daten-
lücken zwischen dem Envisat-Satelliten und dem Start von Sentinel-5 zu verringern
(vgl. ESA 2019i).
Pixelgröße 30 x 30 0 Schwarz
1 ...
2 ...
Pixelmittelpunkt ... ...
255 Weiß
c,r = 8,9
x,y = 0,0 x
column (c)
Abb. 10.14: Aufbau und Inhalt einer Bildmatrix und Kodierung mit 8-Bit-Grauwerten
Der mögliche Bereich für die Werte einer Zahlenmatrix hängt vom Aufnahmesys-
tem sowie von der Fragestellung und der darzustellenden Thematik ab. In der Fer-
nerkundung werden für die Darstellung eines Pixels 6- bis 12-Bit-Datentypen ein-
gesetzt. Ein Kanal einer Szene des Landsat 8 OLI-Instruments hat z.B. eine radio-
metrische Auflösung bzw. Signalquantität (vgl. Kap.10.4.1) von 12 Bit, so dass zur
Speicherung der Einstrahlungsintensität am Aufnahmesystem für jeden Kanal und
für jedes Pixel 212 = 4096 Werte zur Verfügung stehen (Landsat 5 und 7 nur 28 =
256 Werte, 1 Byte). Bei einer Bildgröße von 6167 Zeilen und 5667 Spalten, die
einer vollen Landsat-Szene entspricht (185 km × 170 km, 30 m Auflösung), benö-
tigt dann ein Kanal von Landsat 8 ca. 50 MByte an Speicherplatz.
Digitale Bilder 463
viele private Missionen und Anbieter. Herauszustellen ist, dass neben kommerziel-
len Datenangeboten vermehrt Fernerkundungsdaten frei verfügbar sind. Lieferanten
für die wohl am häufigsten genutzten Sensordaten der Landsat- und Sentinel-Mis-
sionen sind:
Das USGS Earth Resources Observation and Science Center (EROS), die Haupt-
quelle für Landsat-Satellitenbilder und -Datenprodukte, bietet riesige Datenmengen
an (vgl. USGS 2019m). Letztlich sind es von einer US-Bundesbehörde erstellte Da-
ten, sie sind daher Public Domain und dürfen ohne Copyright-Einschränkung ver-
wendet, übertragen und reproduziert werden.
Auf der Grundlage von Erdbeobachtungs- und Informationstechnologien wird
durch das Europäische Erdbeobachtungsprogramm Copernicus mit den Sentinel-
Satelliten ein unabhängiges europäisches Beobachtungssystem geschaffen (vgl.
Kap. 10.4.7). Die Daten stehen offen und frei jedermann zur Verfügung (vgl. Co-
pernicus 2019a).
Das Earth Observation Center des Deutschen Zentrums für Luft- und Raumfahrt
weist auf seiner Homepage umfangreiche Bezugsquellen nach (vgl. DLR 2019e):
- Links zu DFD-Datenservices (u.a. zu EOWEB, der Schnittstelle zum Deutschen
Satellitendatenarchiv des DFD),
- Links zu den Daten wichtiger Erdbeobachtungsmissionen, an denen das DLR be-
teiligt ist (u.a. TerraSAR-X, TanDEM-X, EnMap, SRTM und Envisat, der euro-
päische Umweltsatellit),
- Links zu den Archiven kommerzieller Satellitenbetreiber (wie z.B. Astrium
Geoservice, EUMETSAT),
- Links zu kostenfreien Daten, die von Raumfahrtorganisationen, Behörden und
Universitäten angeboten werden (wie NASA, ESA (Copernicus-Daten und Pro-
dukte), USGS oder Global Land Cover Facility der Universität Maryland).
Die Datenlieferanten liefern häufig nicht mehr nur die Rohdaten, sondern vorverar-
beitete Daten. Zumeist erfolgt bereits eine Korrektur systematischer Verzerrungen
der Aufnahmen. Darüber hinaus können die Daten schon auf weiteren Verarbei-
tungsstufen bezogen werden, die z.B. eine Georeferenzierung in ein gewünschtes
Koordinatensystem enthalten. Insbesondere besteht ein Trend zu weitgehend vor-
verarbeiteten Daten (sog. value added products), der vor allem durch die neuen
kommerziellen Systeme und Anbieter vorangetrieben wird, so dass die Daten vom
Anwender direkt zu nutzen sind (Schlagwort „GIS-ready“): Die Daten werden be-
reits hochgenau auf Basis eines digitalen Höhenmodells auf eine gewünschte Kar-
tenprojektion orthorektifiziert (vgl. Kap. 10.6.1.2) und können direkt als Daten-
ebene in ein Geoinformationssystem integriert werden.
Digitale Bildbearbeitung 465
10.6.1 Bildvorbearbeitung
Die am Sensor empfangene Strahlung wird durch verschiedene Faktoren wie Be-
leuchtungsunterschiede, atmosphärische Einflüsse, Blickwinkel oder Charakteris-
tika des Sensors selbst modifiziert. Ob radiometrische Korrekturen, d.h. Korrektu-
ren der empfangenen Reflexionswerte, vorgenommen werden müssen, hängt von
der Anwendung ab (zu radiometrischen Korrekturen vgl. Chavez 1996, Hildebrandt
1996 S. 486 ff., Richards 2013 S. 38 ff., Lillesand u.a. 2008 S. 490 ff., Mather u.
Koch 2011 S. 112 ff.):
- Eine multitemporale Auswertung der Daten, wie sie z.B. im Rahmen eines regel-
mäßigen Monitorings einer Region notwendig ist, erfordert die Minimierung ex-
terner Einflüsse, um die eigentlich interessierenden, zeitspezifischen Unter-
schiede zu erkennen.
- Bei einer Mosaikbildung aus mehreren Bilddatensätzen, die auch von verschie-
denen Sensoren stammen oder zu unterschiedlichen Zeitpunkten aufgenommen
sein können, ist es notwendig, die Grauwerte über die verschiedenen Teilbilder
hinweg homogen abzubilden, d.h. vergleichbar zu machen (sog. Histogram Mat-
ching, vgl. Kap. 10.6.5.2).
- Soll ein Vergleich mit am Boden durchgeführten Reflexionsmessungen durchge-
führt werden oder sind Aussagen über absolute Reflexionswerte gefragt, muss
zunächst eine Kalibrierung der Grauwerte in absolute Strahlungseinheiten erfol-
gen, wie sie am Sensor gemessen werden.
- Für eine Konvertierung der Grauwerte in absolute Reflexionsbeträge sind aktuelle
Kalibrierungsinformationen für jeden Kanal eines Sensors notwendig, da sich
diese Werte mit fortschreitender Alterung der Aufnahmeinstrumente ändern.
Diese Daten sollten dem Dateianfang des Bilddatensatzes (engl. header) oder bei-
liegenden Zusatzinformationen entnommen werden können.
- Erst durch eine sensorspezifische Kalibrierung ist der Vergleich von Aufnahmen
verschiedener Sensoren möglich.
Eine vollständige radiometrische Korrektur umfasst eine Umrechnung von Bild-
grauwerten zur (offensichtlichen) spektralen Strahlung am Sensor L (vgl. Kap.
10.5.1), Subtraktion des Einflusses der Atmosphäre, eine topographische Normali-
sierung und Sensorkalibrierung. Die Umrechnung der bildbezogenen Grauwerte
466 Einführung in die Fernerkundung und digitale Bildverarbeitung
Vereinfacht wird häufig angenommen, dass der durch die Satellitenszene erfasste
Bereich eine flache Oberfläche darstellt. Hingegen ist die Größe des an einem Sa-
tellitensensor empfangenen Signals auch abhängig vom Relief, d.h. von der Be-
leuchtung und dem Betrachtungswinkel. Die Korrektur von Geländebeleuchtungs-
effekten erfordert letztlich ein digitales Geländemodell, falls die Annahme, dass die
Oberfläche die eintreffende Strahlung in alle Richtungen gleichermaßen reflektiert,
nicht aufrechterhalten werden kann. Die sog. Cosinus-Korrektur multipliziert den
Strahlungswert mit dem Quotienten aus dem Cosinus des Zenitwinkels der Sonne
(gemessen von der Vertikalen) und dem Cosinus des Einstrahlungswinkels (gemes-
sen von der Oberflächennormalen, vgl. Mather u. Koch 2011 S. 117 u. 123 u. Hil-
debrandt 1996 S. 496).
Bei der Verarbeitung von Fernerkundungsdaten kommt der Anpassung des digita-
len Bildes an eine analoge oder digitale Kartenvorlage mit einem definierten Be-
zugssystem z.B. der Landesvermessung eine sehr große Bedeutung zu. Je nach Auf-
nahmesystem sind die Bilddaten mehr oder weniger verzerrt. So liefern flugzeug-
gestützte Scanner aufgrund der relativ instabilen Fluglage (z.B. Schräglage, vgl.
Abb. 10.17) in der Regel stärker verzerrte Bilder als z.B. Satelliten. Mit der Entzer-
rung und geometrischen Korrektur werden gleichzeitig die einzelnen Bildpunkte
einem kartographischen oder geodätischen Koordinatensystem zugeordnet (Geore-
ferenzierung oder Geocodierung, vgl. Kap. 4.2.5 u. 4.6). So kann das Punktraster
468 Einführung in die Fernerkundung und digitale Bildverarbeitung
Ergebnisbild erscheint jedes Pixel, als wäre es im rechten Winkel von oben aufge-
nommen worden (orthographische Projektion).
Abb. 10.17: Aufnahmen eines Gewerbegebiets in Osnabrück mit einem flugzeuggestützten, opto-
mechanischen Scanner: nichtgeoreferenzierter (oben) und georeferenzierter Flugstreifen (unten),
Thermalkanal im Bereich von 8,5 bis 12,5 µm, Oberflächentemperaturen kurz nach Sonnenunter-
gang (nach Wessels 2002 S. 82)
470 Einführung in die Fernerkundung und digitale Bildverarbeitung
Zur Umrechnung der Grauwerte aus der Originalszene in die (entzerrte) Ergeb-
nisszene (engl. resampling) werden in der digitalen Bildverarbeitung prinzipiell
zwei Methoden unterschieden (vgl. Abb. 10.18):
- Die direkte Entzerrung geht von einem Pixel im Eingabebild aus, für das die Lage
im Ausgabebild berechnet wird. Diesem Pixel wird der Grauwert aus dem Einga-
bebild zugewiesen. Hierbei werden zwar sämtliche Pixel des Eingabebildes trans-
formiert. Allerdings können in dem (wichtigeren) Ausgabebild durchaus einzelne
Pixel keinen Grauwert erhalten, während andere Pixel Mehrfachzuweisungen be-
sitzen. Daher werden Nachbearbeitungen notwendig.
- Bei der indirekten Entzerrung wird hingegen von der Lage eines Pixel im Ausga-
bebild ausgegangen, für das der naheliegendste Grauwert aus dem Eingabebild
bestimmt wird. Hierbei wird also vom Ausgabebild in das Eingabebild „zurück-
gerechnet“, so dass gewährleistet ist, dass sämtliche Rasterzellen im Ausgabebild
einen Grauwert haben und somit die entzerrte Bildmatrix ohne weitere Nachbe-
handlung vorliegt.
Eine hohe praktische Bedeutung hat die polynomische Entzerrung mit anschließen-
der indirekter Transformation in einem dreistufigen Arbeitsablauf:
- Der erste Arbeitsschritt, die Auswahl geeigneter Passpunkte (engl. ground control
points, GCP), ist insgesamt sehr zeitaufwendig und mühselig. Als Passpunkte
werden im Bild gut erkennbare Punkte oder Bildelemente (z.B. Straßenkreuzun-
gen bei kleinen Bildmaßstäben) gewählt, die zeitlich unveränderlich sind (z.B.
keine Uferlinien). Die Passpunkte sollten möglichst gleichmäßig über das Bild
verteilt sein. Die Auswahl geeigneter Passpunkte ist von größter Bedeutung für
die Qualität der Entzerrung. Passpunktquellen können z.B. analoge Karten und
digitale, bereits im gewünschten Referenzsystem erfasste Vektor- oder Rasterkar-
ten sein. Ferner ist auch eine Bild- zu-Bild-Registrierung (Co-Registrierung) zu
anderen Bildern möglich, wobei die Bilder nicht zwingend auf eine Kartenpro-
jektion georeferenziert werden müssen.
Digitale Bildbearbeitung 471
Beim Resampling werden zumeist drei Verfahren unterschieden (vgl. Abb. 10.19,
zu umfangreichen Beispielrechnungen vgl. Jensen 2015 S. 246 ff.):
- Bei der Methode des nächsten Nachbarn wird dem gesuchten Grauwert im Er-
gebnisbild der Grauwert des nächstgelegenen Pixels im Ausgangsbild zugewie-
sen. Hierbei können im Ergebnisbild Lagefehler bis zur Hälfte der Pixelgröße
entstehen. Schräg verlaufende Grauwertkanten können im Ergebnisbild stufig er-
scheinen. Dieser Effekt kann durch eine hinreichend klein gewählte Pixelgröße
im Ergebnisbild verringert werden. Der Vorteil dieses Verfahrens ist, dass die
Originalwerte des Ausgangsbildes erhalten bleiben. Dies ist eine wichtige Vo-
raussetzung, wenn später eine Klassifikation der Pixelwerte erfolgen soll, um Ob-
jekte oder Eigenschaften wie z.B. Landbedeckungstypen zu erkennen. Hierzu
sind Originaldaten heranzuziehen.
- Bei der sog. bilinearen Interpolation wird der gesuchte Grauwert im Ergebnisbild
als gewichtetes Mittel der vier direkt benachbarten Pixel des Ausgangsbildes be-
rechnet. Hierbei wird angenommen, dass die vier Grauwerte (dargestellt als z-
Werte in einem dreidimensionalen Koordinatensystem mit den Pixelkoordinaten)
durch eine Ebene angenähert werden können, auf der auch der gesuchte Grauwert
liegt. Das Ergebnisbild besitzt dann keine Grauwerte des Ausgangsbildes. Hier-
durch werden also die Eingangsgrauwerte verändert, d.h. hier geglättet (Tiefpass-
Filterungseffekte vgl. Kap. 10.6.4.1). Insgesamt wird eine gute Bildqualität er-
zeugt, so dass dieses Verfahren zur Visualisierung bzw. zur bildhaften Veran-
schaulichung eingesetzt wird. Allerdings ist die Rechenzeit drei- bis viermal so
groß wie bei der Methode des nächsten Nachbarn.
- Entsprechend zur bilinearen Interpolation wird bei der sog. kubischen Interpola-
tion oder Faltung (engl. cubic convolution) der gesuchte Grauwert als gewichtetes
Mittel der Grauwerte der umliegenden 16 Pixel berechnet. Hierbei wird angenom-
men, dass die z-Werte durch eine gekrümmte Oberfläche angenähert werden kön-
nen (mathematisch beschrieben durch Polynome dritten Grades). Durch eine ent-
sprechende Wahl der Parameter kann hierbei der Tiefpass-Filtereffekt verringert
werden (vgl. Kap. 10.6.4.1). Auch hierbei werden die Eingangsgrauwerte verän-
dert. Dies ist das bevorzugte Verfahren bei der Herstellung von Satellitenbildkar-
ten, da es die visuell besten Ergebnisse liefert. Allerdings erfordert es auch den
höchsten Rechenaufwand.
10.6.2 Kontrastverbesserung
Bei einer Farbtiefe von 8 Bit stehen zwar insgesamt 256 verschiedene Werte zur
Kodierung der Strahlungsintensität pro Kanal zur Verfügung. Häufig wird dieser
Wertebereich aber nur teilweise genutzt, da die Instrumente so eingerichtet wurden,
dass auch extrem stark bzw. wenig reflektierende Oberflächen noch wiedergegeben
werden können. Die Fernerkundungsaufnahmen wirken dann oftmals recht kon-
trastarm. Zur Beseitigung dieser bei einer visuellen Auswertung der Bilddaten stö-
renden Unzulänglichkeit existieren mehrere Verfahren (zu weitergehenden Ausfüh-
rungen vgl. z.B. Jensen 2015 S. 282 ff., Mather u. Koch 2011 S. 128 ff. u. Richards
2013 S. 99 ff.).
Digitale Bildbearbeitung 473
Ein Histogramm der Grauwerthäufigkeiten zeigt in der Regel in einem ersten Ver-
arbeitungsschritt die Besetzung nur weniger Grauwertstufen. Diese Verteilung kann
nun über den gesamten Wertebereich gestreckt werden, so dass eine Kontrastver-
besserung entsteht:
Grauwertneu = [ (Grauwertmax – Grauwertalt) / (Grauwertmax – Grauwertmin) ] • 256
Durch die lineare Kontraststreckung werden die Werte der einzelnen Pixel in der
Bildmatrix so reklassifiziert, dass den ehemaligen Minimal- bzw. Maximalgrauwer-
ten die Werte 0 bzw. 255 (bei einer Farbtiefe von 8 Bit) zugewiesen werden, wäh-
rend die dazwischenliegenden Grauwerte linear über die gesamte 256er-Skala ge-
streckt werden. Diese Reklassifizierung geschieht zumeist mit Hilfe einer sog.
Look-up Table, in der den ursprünglichen Grauwerten die neuen, kontrastverstärk-
ten Werte zugewiesen werden. Bei diesem Verfahrensschritt bleiben die Ursprungs-
daten unverändert, und für die Ansicht werden die veränderten Daten aus separaten
Look-up Tables geladen.
10.6.2.2 Histogrammangleichung
10.6.3 Bildtransformationen
10.6.3.1 Indexbildung
Zu den Verfahren der Bildtransformation, bei denen aus einem mehrkanaligen Bild-
datensatz zu einem oder zu verschiedenen Aufnahmezeitpunkten (mono- oder mul-
titemporal) neue Bilddaten entstehen können, zählt die Berechnung von Indizes.
Digitale Bildbearbeitung 475
10.6.3.2 Hauptkomponententransformation
rationen, die die Eigenschaften der Umgebung eines Pixels bzw. die sog. Ortsfre-
quenz für dessen Manipulation nutzen. Dabei bezeichnet die Ortsfrequenz die Va-
riation der Grauwerte in einer Pixelumgebung. Niedrige Ortsfrequenzen liegen bei
geringen kleinräumigen Grauwertänderungen vor (relativ homogene Flächen), wäh-
rend hohe Ortsfrequenzen bei starken lokalen Grauwertvariationen als Ausdruck
ausgeprägter Oberflächenunterschiede (Inhomogenitäten) auftreten. Für die Fil-
teroperationen existieren zahlreiche unterschiedliche Algorithmen, die sich für ver-
schiedene Verarbeitungsziele eignen. Grundsätzlich können Tiefpassfilter und
Hochpassfilter unterschieden werden (zu Filtern zur Kantenverbesserung sowie zu
weiterführenden Verfahren der Bildverbesserung durch Fourier-Analysen vgl. Jen-
sen 2015 S. 302 ff.).
10.6.4.1 Tiefpassfilter
xel keine 3 x 3-Umgebung hergestellt werden kann. Vergrößert man die Filter-
matrix, d.h. bezieht man eine größere Pixelnachbarschaft (z.B. 5 x 5 oder 7 x 7
Pixel) in die Filteroperation mit ein, tritt ein noch größerer glättender Effekt ein.
Beim Mittelwertfilter (engl. mean filter) wird der Wert des zentralen Pixels durch
den (einfachen arithmetischen) Mittelwert der umgebenden Pixelwerte ersetzt (vgl.
Abb. 10.21). Durch den Glättungseffekt wird ein „weicheres“ und „unschärferes“
Ergebnisbild erzielt. Die hohen Werte, d.h. hohe Einstrahlungswerte am Aufnah-
mesystem, werden (durch umgebende niedrige Werte) gedrückt. Beim Medianfilter
wird anstelle des arithmetischen Mittelwerts der Median der Pixelwerte genommen.
Beim Modalfilter wird der Wert des zentralen Pixels durch den häufigsten Wert der
umgebenden Pixelwerte ersetzt. Dieser Filter wird z.B. eingesetzt, um fehlende Pi-
xelwerte „aufzufüllen“ (vgl. entsprechend den sog. Majority-Filter, der einen häu-
figen – nicht zwingend den häufigsten – Wert benutzt). Er kann auch zur Nachbe-
arbeitung bereits klassifizierter Szenen eingesetzt werden, um einzelne fehlklassifi-
zierte Pixel zu eliminieren bzw. an die Umgebung anzugleichen.
Ein Tiefpassfilter kann auch zum sog. Kontrastausgleich eingesetzt werden. Hierzu
wird eine Szene mit unerwünschten großflächigen Grauwertunterschieden zunächst
einer sehr starken Tiefpassfilterung unterzogen, so dass ein extrem unscharfes Bild
Digitale Bildbearbeitung 479
entsteht (vgl. Abb. 10.22). Dann wird die Grauwertdifferenz zwischen dem Original
und der „unscharfen“ Maske gebildet. Diese wird verstärkt, so dass bei geeigneter
Wahl der einzelnen Parameter ein in der Gesamthelligkeit ausgeglichenes Bild mit
guter Detailwiedergabe gewonnen werden kann.
10.6.4.2 Hochpassfilter
Hochpassfilter, die Bilddetails durch die Betonung der hohen Frequenzen hervor-
heben, kommen zur Anwendung, falls lokale Besonderheiten und Extrema aufge-
spürt werden sollen. Der Hochpassfilter hat den Effekt, dass niedrige Frequenzan-
teile unterdrückt werden. Umgekehrt können hohe Werte den Filter passieren. Hier-
durch werden Konturen und Kanten besonders hervorgehoben (engl. edge detec-
tion). Der Filter dient u.a. zur Abgrenzung von Gebieten mit abrupter Änderung
gegenüber solchen mit wenigen Änderungen.
Auch beim Hochpassfilter wird der Wert des zentralen Pixels durch einen ge-
wichteten Wert der umgebenden Pixel ersetzt, wobei diese Filtergewichte je nach
Einsatzziel des Filters stark variieren können (vgl. Abb. 10.22). So existieren Kan-
tenfilter, die die Bereiche starker Grauwertänderungen als Kanten hervorheben.
Diese können zusätzlich richtungsabhängig gestaltet werden, so dass Grauwertän-
derungen in bestimmten Richtungen betont werden, was besonders in der Geologie
zur Entdeckung geologischer Strukturen nützlich ist. Neben den Filtergewichten
beeinflusst hier ebenfalls die Größe der Filtermatrix das Ergebnis.
Häufig stellt sich die Aufgabe, zur Abdeckung eines Untersuchungsgebietes meh-
rere Einzelbilder zu einem Gesamtbild zusammenzuführen. Für diesen Prozess der
Mosaikbildung oder Mosaikierung bestehen zwei grundsätzliche Ansätze:
- Die Einzelbilder werden einzeln entzerrt und anschließend zu einem Mosaik zu-
sammengeführt, wozu insgesamt sehr viele Passpunkte benötigt werden.
- Beim zweiten Verfahren werden die Einzelbilder gemeinsam entzerrt. Zur Be-
stimmung der Transformationsgleichungen werden hierbei vergleichsweise nur
wenige Passpunkte benötigt, die unregelmäßig über sämtliche Bilder verteilt sind.
Dieser Ansatz erfordert ferner Verknüpfungspunkte im Überlappungsbereich be-
nachbarter Einzelszenen, über die die Szenen vereinigt werden. Für diese Ver-
knüpfungspunkte, die nur in den beteiligten Szenen eindeutig zu identifizieren
sind, müssen keine Koordinaten vorliegen. Von Vorteil ist, dass nur für das ge-
samte Bild eine ausreichende Zahl an Passpunkten vorhanden sein muss, während
für ein Einzelbild möglicherweise nicht hinreichend viele Passpunkte bestimmt
werden können (vgl. Abb. 10.23).
480 Einführung in die Fernerkundung und digitale Bildverarbeitung
10.6.5.3 Bildfusion
Gegenüber der Mosaikierung geht die Bildfusion noch einen Schritt weiter. Sie zielt
durch eine Verschmelzung von Bilddaten aus verschiedenen Quellen auf eine Stei-
gerung des Informationsgehaltes ab. Eine derartige Bildfusion kann aus verschie-
denen Datensatzkombinationen erzeugt werden, wobei der häufigste Anwendungs-
fall die Kombination multisensoraler Datensätze, also von Bilddaten verschiedener
Aufnahmeinstrumente, ist. Ferner ist die Verbindung multitemporaler Daten zu ei-
nem Datensatz oder die Integration von Zusatzdaten aus Topographischen Karten
in einen Bilddatensatz zur gemeinsamen Auswertung bedeutend. Generell kann eine
Bilddatenfusion verschiedene Zwecke haben (vgl. Pohl u. van Genderen 1998 S.
827 und zum Überblick Jensen 2015 S. 168 ff. u. Mather u. Koch 2011 S. 196–202):
- Bildschärfung,
- Verbesserung der geometrischen Korrektur,
- Schaffung von Stereoauswertungsfähigkeiten für photogrammetrische Zwecke,
- Hervorhebung bestimmter Merkmale, die auf keinem der beteiligten Einzelbilder
sichtbar waren,
- Verbesserung der Klassifikation, Herausstellen der Objektmerkmale,
- Aufdeckung von Veränderungen in multitemporalen Datensätzen,
- Ersatz fehlender Information eines Bildes durch Signale eines anderen Bildes,
- Ersetzen schadhafter Daten.
Diese Datenfusion wird jeweils auf Pixelbasis durchgeführt. Somit ist eine mög-
lichst exakte Georeferenzierung der beteiligten Datensätze in einem einzigen Koor-
dinatensystem zwingend notwendig. Allerdings können die zugehörigen Techniken
nicht in jedem Fall eingesetzt werden. So kann es problematisch werden, wenn die
erfassten Spektralbereiche der beteiligten Bilddaten zu stark voneinander abwei-
chen. Dann können störende Artefakte ins Bild kommen. Allgemein lassen sich die
Methoden der Bildfusion in zwei große Gruppen einteilen (vgl. Pohl u. van Gende-
ren 1999):
- farbraumbasierte Techniken,
- statistische und numerische Techniken.
Beispielhaft sollen hier zwei Methoden erläutert werden, die häufig zur Bildschär-
fung eingesetzt werden. Dabei zielt eine Bildschärfung auf die Fusion der hohen
geometrischen Auflösung eines panchromatischen Datensatzes mit der hohen spekt-
ralen Auflösung eines multispektralen Datensatzes ab (vgl. weitergehend Pohl u.
van Genderen 1998 und Vrabel 2000 oder zur Fusion von optischen Daten und Ra-
dardaten Pohl u. van Genderen 1999).
Zur Farbraumtransformation wird die sog. IHS- bzw. HSI-Transformation ein-
gesetzt, die räumliche (Intensität) und spektrale Informationen (Farbton, Sättigung)
trennt (vgl. Abb. 10.25). In einem ersten Schritt wird die RGB-Darstellung eines
Farbkomposites (z.B. aus den Kanälen 3, 2 und 1 des Landsat TM) in den IHS-
Farbraum überführt. Hier wird die Intensitätskomponente, die die räumlichen Ei-
genschaften des Multispektraldatensatzes wiedergibt, durch ein geometrisch höher
auflösendes Bild eines panchromatischen Sensors ersetzt. Dieses Bild wird meist
482 Einführung in die Fernerkundung und digitale Bildverarbeitung
Zu der Gruppe der numerischen Methoden gehört die Fusion mittels Hochpassfil-
tern (vgl. Kap. 10.6.4.2). Hierbei wird zunächst der geometrisch hoch aufgelöste
panchromatische Datensatz einer Hochpassfilterung mit kleiner Filtermatrix unter-
zogen (3 x 3-Matrix), die die Bilddetails hervorhebt. Anschließend wird das Ergeb-
nis dieser Filterung jedem einzelnen Multispektralkanal hinzuaddiert, womit sich
dieses Verfahren auch für Multispektralbilder mit mehr als drei Kanälen eignet. Ins-
gesamt werden Details im multispektralen Datensatz besser erkennbar, wodurch
letztlich die Interpretierbarkeit erhöht wird.
10.7 Klassifikation
von Bedeutung, d.h. das Erkennen von Objekten oder Eigenschaften wie z.B. Land-
bedeckungstypen durch Auswertung mehrerer Kanäle.
Abb. 10.26: Signaturkurven dreier Oberflächen und Darstellung von Pixeln zu drei Landbede-
ckungstypen im dreidimensionalen Raum der Reflexionsgrade dreier Landsat-TM-Kanäle
schiede zwischen Landbedeckung und Landnutzung, was u.a. auch von der Defini-
tion der Klassen abhängt. So ist z.B. von der Landbedeckung „versiegelte Sied-
lungsfläche“ recht eindeutig auf die Nutzung zu schließen.
Für r = 1 ergibt sich die sog. City-Block- oder Manhattan-Metrik (sog. L1 -Norm),
die eine praktische Bedeutung hat. Diese Metrik misst die Distanz zwischen zwei
Objekten, indem parallel der rechtwinkligen Koordinatenachsen gemessen wird,
d.h. entsprechend dem Vorgehen in einem rechtwinkligen Straßenraster (vgl. Man-
hattan). Die City-Block-Metrik berücksichtigt nur die absoluten Differenzen, sie ist
somit unempfindlicher gegenüber Extremwerten. Für r = 2 ergibt sich die Euklidi-
sche Distanz (sog. L2-Norm), die im üblichen zweidimensionalen Anschauungs-
raum mit der Luftlinienentfernung identisch ist (Satz des Pythagoras):
ଶ ଶ ଶ
݀ = ටσଶ௦ୀଵ൫ݔ௦ െ ݔ௦ ൯ = ට൫ݔଵ െ ݔଵ ൯ + ൫ݔଶ െ ݔଶ ൯
geprüft und ggf. verschoben wurden, werden die Clusterzentroide neu berechnet
(vgl. Teilschritt 6 in Abb. 10.27). Dieser Vorgang wiederholt sich. Deutlich wird
die Abhängigkeit von der Reihenfolge der zu bearbeitenden Cluster und Objekte
sowie von den anfänglich gesetzten Clusterzentroiden.
Für dieses Verfahren muss eine Abbruchbedingung formuliert werden. So wird spä-
testens dann das Verfahren beendet, wenn mehrmals hintereinander kein Objekt ein
Cluster gewechselt hat. Man kann auch in der Iteration stets ein Homogenitätskri-
terium berechnen lassen und das Verfahren dann beenden, wenn sich zwischen zwei
Schritten der Wert dieses Kriteriums nicht wesentlich verändert hat.
Im Unterschied zu dem iterierten Minimaldistanzverfahren versucht der K-Me-
ans-Algorithmus, direkt die Summe der quadrierten Abstände aller Objekte in ei-
nem Cluster zum jeweiligen Schwerpunkt zu minimieren (d.h. die „Clustervarian-
zen“). Nachdem ein Pixel aus einem Cluster in ein anderes Cluster verschoben ist,
wird anschließend unmittelbar geprüft, ob sich die Abstandsquadratsumme verrin-
gert. Letztlich erfolgt eine Neuzuordnung zu dem Cluster, das die größte Verbesse-
rung liefert. Nach einer erfolgten Verlagerung werden sofort die Clusterzentroide
neu berechnet. Dies ist der wesentliche Unterschied zum Minimaldistanzverfahren,
bei dem eine Aktualisierung der Clusterzentroide in einem Teilschritt erst dann er-
folgt, wenn alle Objekte geprüft und ggf. neu zugeordnet wurden (vgl. de Lange u.
Nipper 2018 S. 371 ff.).
Derartige Verfahren sind relativ leicht zu implementieren und arbeiten relativ
schnell. Sie erfordern aber eine Anfangszerlegung, d.h. eine Festlegung auf eine
vorher zu bestimmende Zahl von Clustern, und eine erste vorläufige Bestimmung
Klassifikation 487
remwerte für jedes Merkmal für jede Klasse, die Minimum-Distance-Methode be-
nötigt Schätzungen für die multivariaten Mittelwerte der Klassen, die als Klassen-
repräsentanten angesehen werden, die Maximum-Likelihood-Methode setzt Schät-
zungen für die multivariaten Mittelwerte und für die Varianz-Kovarianzen der Klas-
sen voraus. Auch die weiterführenden Methoden, wie der auf neuronalen Netzwer-
ken aufbauende Algorithmus, arbeiten direkt auf den Trainingsdaten, sie stellen
aber keine strikten Anforderungen an die Verteilungsform. Evident ist jedoch, dass
das Ergebnis einer überwachten Klassifikation von der Auswahl sowie der Eigen-
schaften der Trainingsgebiete abhängt. Somit müssen vorab eindeutige Gebiete
identifiziert werden.
Die Klassifikation geht generell davon aus, dass verschiedene Landbedeckungs-
arten ein jeweils eigenes, charakteristisches Reflexionsverhalten in den diversen
Kanälen besitzen. Anhand von statistischen Kennwerten dieser Musterklassen ist es
dann möglich, eine bestimmte Landbedeckung der übrigen Pixel zu identifizieren.
Allerdings können sich für eine Oberfläche je nach Jahreszeit oder Atmosphären-
zustand die Signaturkurven durchaus ändern, so dass man nicht von allgemeingül-
tigen, genormten Signaturkurven bzw. statistischen Kennwerten z.B. eines Acker-
pixels ausgehen kann. Bei der überwachten Klassifikation werden die statistischen
Kennwerte der einzelnen Klassen stets erneut bestimmt, d.h. für ein Untersuchungs-
gebiet kalibriert. Somit wird versucht, in der zu klassifizierenden Szene Trainings-
gebiete zu identifizieren, die hinsichtlich der Landbedeckung möglichst homogen
sind und für die eine Bestimmung der konkreten Landbedeckung am Boden vor-
liegt. Diese Kenntnisse können aus Ortskenntnissen z.B. durch eine Kartierung,
durch eine Luftbild- oder Karteninterpretation vorliegen.
Das Herausbilden der Trainingsgebiete (bzw. Mustergebiete) wird auch durch
sog. „Region Growing“-Algorithmen erreicht. Das Grundprinzip ist dadurch ge-
kennzeichnet, dass im ersten Schritt ein Startpixel, d.h. ein sog. „seed point“ auf ein
ausgewähltes Pixel des Eingabebildes gesetzt wird, dessen Bedeutung dem Anwen-
der bekannt ist (vgl. Abb. 10.29). In der Regel werden zuerst „seed points“ in Was-
serflächen gesetzt. Aus diesen einzelnen „seed points“ erwachsen dann größere Ge-
biete, die hinsichtlich der Spektralwerte sehr homogen sind. Überprüft wird, ob ein
angrenzendes Nachbarpixel ein vorgegebenes Homogenitätskriterium erfüllt. Die
Spektralwerte des neuen Pixels dürfen sich nicht sehr von denen des „seed point“
unterscheiden, um möglichst große Homogenität des Trainingsgebietes zu erzielen.
Das Ziel dieser Vorarbeiten ist nicht, das gesamte Untersuchungsgebiet abzude-
cken. Vielmehr sollen Pixel ausgewählt werden, deren Bedeutung zweifelsfrei be-
kannt ist. Die Bestimmung der Trainingsgebiete erfordert daher Geschick und
räumliche Vorkenntnisse des Bearbeiters. Am Ende dieser durchaus aufwendigen
Vorarbeiten steht in der Regel ein gutes Klassifikationsergebnis.
Klassifikation 489
Abb. 10.29: Erkennen von Trainingsgebieten: Salzwiese im Deichvorland und zwei Ackerflächen
(Landsat 5 1999, Westküste Schleswig-Holstein, Kanäle 4-3-2)
Abb. 10.30: Clusterbildung und Zuordnungsprinzipien (nach Lillesand u.a. 2008 S. 550 ff.)
Auswirkungen auf das Klassifikationsergebnis. So ist der große Vorteil des Maxi-
mum-Likelihood-Klassifikationsalgorithmus seine relative Robustheit (zum mathe-
matischen Ansatz vgl. vor allem Jensen 2015 S. 398-402 u. Richards 2013 S. 250–
260).
Eine erfolgreiche Maximum-Likelihood-Klassifikation verlangt nach Dennert-
Möller (1983, zitiert in Schumacher 1992) bestimmte Eigenschaften der Trainings-
gebiete:
- Die Mindestzahl an Trainingspixeln, die zur Aufstellung der Gleichungen aus-
reicht, liegt bei n + 1 (vgl. Swain u. Davis 1978), wobei n die Anzahl der Spekt-
ralkanäle repräsentiert. Als Empfehlung nennen Swain u. Davis (1978) eine An-
zahl von 10 n bis 100 n Trainingspixeln, wobei sich diese Angaben in der Praxis
für geometrische Auflösungen wie bei Landsat bewährt haben (vgl. Jensen 2015
S. 378, Lillesand u.a. 2008 S. 559). Die Wahl mehrerer über das Bild verteilter
Trainingsgebiete für jede Klasse ist der Bildung eines einzigen großen Trainings-
gebietes vorzuziehen.
- In einem Trainingsgebiet sollten möglichst die Merkmalsausprägungen nur einer
Klasse erfasst sein.
- Die Trainingsgebiete sollten zwar homogen sein, aber dennoch die gesamte Va-
riabilität innerhalb des Spektralverhaltens einer thematischen Klasse widerspie-
geln (Repräsentativität).
- Die einzelnen Klassen sollten sich möglichst gut voneinander trennen lassen, um
den Umfang der Fehlklassifizierungen in Grenzen zu halten. Die Verteilungen um
die Clusterzentroide der verschiedenen Musterklassen sollten sich möglichst ge-
ring überlappen.
Eine Klassifikation kann nach verschiedenen Methoden erfolgen, wobei eine Kom-
bination von überwachter und unüberwachter Klassifikation sowie auch ein mehr-
stufiges Vorgehen möglich sind. Solch eine Strategie ist immer dann sinnvoll, wenn
verschiedene Klassen nur durch unterschiedliche Verfahren optimal identifiziert
werden können.
Bei einem klassischen, d.h. häufigen Vorgehen werden in einem iterativen Pro-
zess die verschiedenen Klassen nacheinander separiert. So können z.B. zunächst
relativ einfach über eine Quader-Klassifikation Wasser- und Landoberflächen ge-
trennt werden. Anschließend ist die Wasseroberfläche ausmaskierbar (zu Operatio-
nen auf Rasterdaten wie Maskieren vgl. Kap. 9.5.3). Die Klassifikation konzentriert
sich dann auf die Trennung verschiedener Landoberflächen. Über einen Vegetation-
sindex (vgl. Kap 10.6.3.1) ist danach z.B. die Trennung der vegetationsbedeckten
von vegetationsarmen Oberflächen möglich. Schließlich kann sich die Maximum-
Likelihood-Klassifikation voll auf die Unterscheidung verschiedener Vegetations-
formationen konzentrieren. Eine mehrstufige Klassifikationsstrategie bietet sich
auch bei Vorlage weiterer Ausgangsinformationen an. So können z.B. die Gebäu-
degrundflächen sowie die Verkehrs- und Wasserflächen, die aus der Automatisier-
ten Liegenschaftskarte abzuleiten sind, ausmaskiert werden, so dass die verbleiben-
den Pixel leichter im Hinblick auf Vegetationsdifferenzierungen klassifiziert wer-
den können.
492 Einführung in die Fernerkundung und digitale Bildverarbeitung
Häufig kommt es bei parametrischen Verfahren und gerade bei wenig aufgelös-
ten Bildern zu einem sog. Salz-und-Pfeffer-Effekt in der graphischen Präsentation.
Das dargestellte Klassifikationsergebnis zeigt eine unruhige Struktur (Einsprengsel,
unlogische Pixelwerte), die die Auswertung erschwert. Die Anwendung eines Tief-
passfilters (vgl. Kap. 10.6.4.1) kann weiterhelfen, der diesen Effekt beseitigt. Hier-
für werden zumeist Median- oder Modalfilter eingesetzt.
Eine steigende Auflösung erschwert erheblich das Auffinden (größerer) homo-
gener Bildelemente, die eine bestimmte Oberfläche repräsentieren. Ein einzelnes
Pixel kann nicht mehr isoliert, sondern muss als Teil eines größeren Objektes be-
trachtet werden muss. So werden bei sehr hochauflösenden Sensoren in einem Pixel
nicht mehr Baublöcke erfasst, sondern einzelne Gebäudeteile. Ebenso können in
einem Waldbestand kleinste Lücken bzw. Waldlichtungen abgebildet werden, die
von einem Standardverfahren wie der Maximum-Likelihood-Klassifikation als Of-
fenbodenbereiche oder Ackerland klassifiziert werden. Erst die Betrachtung der
Umgebung, d.h. die Berücksichtigung von Nachbarschaftsinformationen, lässt die
Waldlichtung erkennen. Bei der Klassifikation, Mustererkennung und Objektbil-
dung wird jetzt insbesondere die Betrachtung der Pixelumgebung wesentlich. Ne-
ben der Nachbarschaft tragen auch Textur und Form sowie Farbinformation bei ei-
nem menschlichen Interpreten zum Erkenntnisvorgang bei.
Verfahren der Bildsegmentierung lösen sich von der rein pixelbasierten Sichtweise.
Bildsegmentierung, d.h. das Herausarbeiten von Segmenten oder einzelnen Berei-
chen eines Bildes, ist grundsätzlich nicht neu. Zu den einfachsten Ansätzen gehören
alle Verfahren mit Schwellwertbildungen, d.h. (sukzessives) Ausmaskieren von Pi-
xeln ab einem vorgegebenen Wert (z.B. NDVI > 0.5). Im Hinblick auf die Klassifi-
kation mehrerer unterschiedlicher Bereiche eines Bildes werden allerdings keine
zufriedenstellenden Ergebnisse erzielt.
In einem weiteren Vorgehen wird auf erhebliches Vorwissen zurückgegriffen.
So können Grenzen von Objekten wie z.B. landwirtschaftliche Nutzflächen heran-
gezogen werden. Die Pixel bzw. ihre Spektralwerte einer bestimmten Fläche kön-
nen herangezogen werden, um die Fläche zu beschreiben. Bei diesem Ansatz wer-
den aber primär die Flächen und weniger die Pixel klassifiziert (sog. per-field An-
satz gegenüber einem per pixel-Ansatz).
Die objektorientierte Bildsegmentierung ist dadurch gekennzeichnet, dass die
Algorithmen sowohl spektrale als auch räumliche Informationen einbeziehen (zu-
meist auf Grundlage der Software eCognition, vgl. Trimble 2019, zu Hinweisen zu
freier Software vgl. Jensen 2015 S. 421). Dadurch unterscheiden sie sich grundsätz-
lich von den pixelbasierten Verfahren (zu einem breiten Überblick der Entwicklung
objektbasierter Analysen vgl. Blaschke 2010). Der Ansatz kann generell als eine
Region-Growing-Technik beschrieben werden (vgl. Bestimmung von Trainingsge-
bieten in Kap. 10.7.3). Das Verfahren startet, indem jedes Pixel ein Objekt oder eine
Region bildet. Bei jedem Schritt werden Objekte paarweise zu einem größeren Ob-
496 Einführung in die Fernerkundung und digitale Bildverarbeitung
Abb. 10.31: Modell eines Neurons mit zwei Eingängen und einem Ausgang
Ein Neuron kann als eine Verarbeitungseinheit verstanden werden, die (gewichtete)
Eingaben von anderen Neuronen erhält, sie addiert und ein Signal an andere Neu-
ronen schickt, falls die Summe der Eingabewerte einen Schwellwert überschreitet.
Die Informationsverarbeitung erfolgt vorwärts gerichtet (feed-forward), ausgehend
von den ersten Eingaben zu der letzten Ausgabe (vgl. Abb. 10.31). Zu diesem sehr
einfachen Ausgangsmodell kommt die (maschinelle) Lernfähigkeit hinzu. Bevor
das Modell zuverlässig arbeitet, muss es anhand von Trainingsdaten trainiert wer-
den (supervised learning, überwachtes Lernen). Zu Anfang werden die Gewichte
zufällig bestimmt. Da die aus den Eingabedaten anhand der Gewichte und der
Schwellwerte bestimmten Ausgangsdaten zunächst nicht mit der zugehörigen Klas-
sifikation der Trainingsdaten übereinstimmen, müssen die Gewichte und der
Schwellenwert angepasst werden. Mather und Koch vergleichen dieses Vorgehen
mit dem Leselernen eines Kindes (vgl. Mather u. Koch 2011 S. 251). Durch wie-
derholte Korrektur von Fehlern und Identifikation von Buchstaben verbunden mit
der Aussprache entwickelt sich die Lesefähigkeit. Auf diese Weise könnte auch z.B.
die logische „and“-Schaltung erlernt werden, bei der beide Eingänge den Wert 1
haben müssen, bevor als Ausgang eine 1 erfolgt:
Summe = ½ · Input1 und ½ · Input 2 und Schwellwert = 1
Gegenüber diesem einfachen Modell, das als einschichtiges Perzeptron bezeichnet
wird, besteht ein komplexeres Modell aus einem mehrschichtigen Perzeptron, das
zudem von einer komplexeren Schwellwertfunktion (stetige Ausgangswerte zwi-
schen 0 und 1) und von einer mehrschichtigen Anordnung der Neuronen in Layern
ausgeht. Statt diskrete Eingabewerte zu fordern, können die Inputwerte normalisiert
(d.h. zwischen 0 und 1) vorliegen. Im Beispiel der Abbildung 10.32 liefern die vier
Neuronen des Outputlayers Ausgaben, die als Grundlage der Klassifikation dienen.
In der mittleren, nicht sichtbaren Ebene befinden sich in diesem Beispiel zwei Neu-
ronen, die mit allen Neuronen des Input- und Outputlayers verbunden und gewichtet
sind. Diese Neuronen des sog. Hidden Layers setzen die Summen der Eingangs-
werte und die Schwellwertbildung um.
Das Modell könnte verwendet werden, um ein Pixel zu klassifizieren, für das
jeweils drei Grauwerte des sichtbaren Lichts als Input vorliegen. Das neuronale
Netz könnte derart trainiert werden, dass, falls das erste Ausgangsneuron einen Wert
in der Nähe von 1 hat und die verbleibenden Ausgangsneuronen Werte in der Nähe
von Null haben, das Eingangspixel einer ersten Klasse zugeordnet wird. Die Mus-
tererkennung bzw. Klassifikation eines Eingabepixels geht somit von einem be-
kannten Trainingsmuster aus (training data pixel, z.B. Grauwerte 20, 12, 0 bzw.
normalisiert 0.08, 0.05, 0 für die ersten drei Kanäle von Landsat), von dem bekannt
498 Einführung in die Fernerkundung und digitale Bildverarbeitung
ist, dass es zu einer bestimmte Klasse (hier Wasser) gehört. Das Verfahren liefert
für jeden Eingabevektor einen Wert für jedes Neutron des Outputlayers. Fast immer
besitzen sämtliche Neuronen des Outputlayers einen Wert 0. Nur für das bekannte
Trainingsmuster weist das Neuron, das die zugehörige Klasse bezeichnet, den Wert
1 auf. Das Lernen eines künstlichen neuronalen Netzes bedeutet hier, den Prozess
immer wieder für Eingabepixel zu wiederholen und die Gewichte bzw. Schwell-
werte derart zu justieren, dass Trainingspixel, d.h. Pixel mit einer bekannten Klas-
senzugehörigkeit, am Ende auch genau dieser Klasse zugewiesen werden.
Das mehrschichtige Perzeptron wird mit einer komplexen Lernregel trainiert, die
als Backpropagation, Backpropagation of Error oder auch Fehlerrückführung be-
zeichnet wird. Für jedes neue Pixel, das in das Lernverfahren aufgenommen wird,
unterscheidet sich der Ausgabevektor von dem Ausgabevektor des eindeutig klas-
sifizierten Trainingspixels um einen Betrag, der als Fehler bezeichnet wird. Ausge-
hend von diesem Fehler wird versucht, die Gewichte neu einzustellen. Gesucht wird
also eine Abbildung, die Eingabevektoren auf vorgegebene Ausgabevektoren abbil-
det, wobei keine mathematische Funktion gesucht, sondern stattdessen die Abbil-
dung durch Gewichte und Schwellwerte operationalisiert wird. Die Abbildungsgüte
wird durch eine Fehlerfunktion beschrieben, die minimiert werden muss, wobei
aber im Allgemeinen lediglich ein lokales Minimum gefunden wird.
Der Backpropagation-Algorithmus geht vereinfacht in drei Schritten vor (zur
mathematischen Formulierung vgl. z.B. Nielsen 2015 Kap. 2):
- Die Eingabewerte eines Pixels werden dem Netzwerk am Inputlayer zur Verfü-
gung gestellt und durch das Neuronale Netzwerk vorwärts gerichtet verarbeitet
(feed forward, forward propagation).
- Der Ausgabevektor, der vom Neuronalen Netzwerk geliefert wird, wird mit der
geforderten Ausgabe verglichen, da die Klassenzugehörigkeit des Eingabepixels
und somit die Besetzung der Ausgabeneuronen bekannt sind.
- Die Differenz der beiden Vektoren, d.h. der Fehler des Netzes, wird nun wieder
über den Output- zum Inputlayer zurückgegeben (error back propagation, woraus
sich der Name des Verfahrens erklärt). Die Gewichtungen der Neuronenverbin-
dungen und die Schwellwerte werden hierbei in Abhängigkeit ihres Einflusses
auf den Fehler geändert.
Klassifikation 499
Die Klassifizierung mit Hilfe einer Support Vector Machine stellt ein recht optima-
les Verfahren dar, da sie in der Regel genauere Klassifizierungsergebnisse als an-
dere Methoden liefert und mit recht wenigen Trainingsdaten auskommt (zu den An-
fängen in der Fernerkundung vgl. Huang u.a. 2002). Der Klassifikator Support Vec-
tor Machine stellt eine überwachte, nicht parametrisch-statistische Lernstrategie
dar, die keine Voraussetzung an die Verteilungsform der Daten stellt.
Abbildung 10.33 verdeutlicht das Grundprinzip für den einfachsten Fall einer
linearen, binären Klassifikation, die Pixel eines Trainingsgebietes in eine von zwei
möglichen Klassen einteilt. Grundlage ist somit wie bei allen überwachten Klassi-
fizierungsverfahren, dass die Klassenzugehörigkeit der Pixel des Trainingsgebietes
bekannt ist. Die Pixel stellen in Abbildung 10.33 Vektoren in einem zweidimensi-
onalen Vektorraum dar. Der Algorithmus versucht, eine Menge von Objekten derart
in Cluster zu zerlegen, dass zwischen den Objekten ein möglichst breiter Bereich
frei bleibt. Allgemein wird versucht, eine Hyperebene einzupassen, die die Trai-
ningsobjekte trennt. Dabei wird in der Mathematik als eine Hyperebene in Verall-
gemeinerung einer zweidimensionalen Ebene im dreidimensionalen Anschauungs-
raum ein (n-1-)dimensionaler Untervektorraum eines n-dimensionalen Raumes be-
zeichnet. Im Beispiel der Abbildung 10.33 ist im zweidimensionalen Vektorraum
eine Hyperebene dann eine eindimensionale Gerade.
In diesem Beispiel sind zwei mögliche Trenngeraden mit den jeweiligen Trenn-
bereichen eingezeichnet. Unter allen Trennbereichen besitzt einer eine Ausrichtung,
für die der Abstand zwischen den beiden am engsten zueinander liegenden Pixeln
(gleichbedeutend mit Vektoren) maximal wird. Diese Vektoren werden Stützvekto-
ren (support vectors, vgl. die orange markierten Symbole in Abb. 10.33) genannt.
Falls in diesem einfachen Fall nur eine Trenngerade bestimmt werden soll, müssen
mindestens zwei Stützvektoren vorhanden sein. Das Beispiel zeigt deutlich, dass
die Lage der Trenngeraden, nur von den Stützvektoren bestimmt wird. Die übrigen
Objekte, d.h. Vektoren, der Trainingsdaten werden nicht beachtet und beeinflussen
die Klassifizierung nicht. Daher bleibt die Klassifikation stabil, selbst wenn die
Trainingsdaten verändert werden, aber die Stützvektoren unverändert bleiben.
Klassifikation 501
Allerdings ist mit Hyperebenen nur eine lineare Trennung möglich. Zumeist sind
aber in der Realität die Klassen nicht einfach linear trennbar. Der Ansatz der Sup-
port Vector Machine löst dieses Problem dadurch, dass die Trainingsvektoren in
einen genügend höheren Vektorraum abgebildet werden, in dem eine trennende Hy-
perebene bestimmt werden kann. Dies ist möglich, da in einem Vektorraum ausrei-
chend hoher Dimension jede Vektormenge linear trennbar ist. Für diese Abbildung
stehen mehrere sog. Kernelfunktionen zur Verfügung, wobei die sog. radiale Basis-
funktion häufig benutzt wird. Allerdings sind die Parameter dieser Funktion daten-
spezifisch, so dass sie für jede Klassifikation neu bestimmt werden müssen.
Das Beispiel verdeutlicht nur die einfache Situation, dass Pixel genau einer von
zwei Klassen zugeordnet werden muss. In der Regel bestehen mehrere Klassen, so
dass modifiziert vorgegangen werden muss (vgl. Mather u. Koch 2011 S. 268).
- Das Vorgehen „eins gegen die anderen“ klassifiziert eine Klasse gegenüber allen
anderen Klassen, die zu einer Klasse zusammengefasst sind, wobei dieser Schritt
für alle Klassen wiederholt wird.
- Das Vorgehen „eins gegen eins“ vergleicht paarweise Klassen, wobei sich bei k
Klassen (k · (k-1))/2 Durchgänge ergeben.
- Für mehrere Klassen können auch mehrere, d.h. unterschiedliche Support Vector
Machines eingesetzt werden.
Support Vector Machines haben einen hohen mathematischen Anspruch. Sie sind
inzwischen aber Standardverfahren des maschinellen Lernens. Für die digitale Bild-
verarbeitung zeichnen sie sich dadurch aus, dass sie im Vergleich zu anderen Ver-
fahren keine großen Trainingsgebiete, d.h. Trainingspixel, benötigen und einfachere
Anforderungen an die Verteilungsform stellen (vgl. weitergehend Mountrakis u.a.
2011 u. Steinwart u. Christmann 2008). Sie sind somit insbesondere für die Klassi-
fikation hyperspektraler Daten geeignet, da zur Unterscheidung vieler Klassen na-
turgemäß nur relativ kleine Trainingsgebiete vorliegen. Allerdings bietet der Ran-
dom-Forest-Klassifikator mehr Vorteile, da er insbesondere weniger anfällig ist ge-
genüber Overfitting (d.h. Überanpassung an die Trainingsdaten).
502 Einführung in die Fernerkundung und digitale Bildverarbeitung
Literatur
Goodfellow I. u.a. (2016): Deep Learning. Cambridge, Mass.: MIT Press. http://www.deeplearn-
ingbook.org (29.11.2019)
Hänsch, R. u. O. Hellwich (2917): Random Forests. In: Heipke, C. (Hrsg.) Photogrammetrie und
Fernerkundung. S. 603-643. Handbuch der Geodäsie. (Hrsg. Freeden, W. u. R. Rummel). Ber-
lin: Springer.
Heipke, C. (2017a): Photogrammetrie und Fernerkundung – eine Einführung. In: Heipke, C. (Hrsg.)
Photogrammetrie und Fernerkundung. S. 1–27. Handbuch der Geodäsie. (Hrsg. Freeden, W. u.
R. Rummel). Berlin: Springer.
Heipke, C. (2017b): Photogrammetrie und Fernerkundung. Handbuch der Geodäsie. (Hrsg. Free-
den, W. u. R. Rummel). Berlin: Springer.
Hildebrandt, G. (1996): Fernerkundung und Luftbildmessung für Forstwirtschaft, Vegetationskar-
tierung und Landschaftsökologie. Heidelberg: Wichmann.
Huang, C. u.a. (2002): An assessment of support vector machines for land cover classification, In:
Int. J. Remote Sensing vol. 23, No. 4, S. 725–749.
Jensen, J.R. (2015): Introductory Digital Image Processing. A Remote Sensing Perspective. 4. Aufl.
Glen View, Ill.: Pearson. Pearson series in geographic information science
JPSS, Joint Polar Satellite System (2019a): Mission and Instruments.
https://www.jpss.noaa.gov/mission_and_instruments.html (29.11.2019)
JPSS, Joint Polar Satellite System (2019b): Visible Infrared Imaging Radiometer Suite (VIIRS).
https://www.jpss.noaa.gov/viirs.html (29.11.2019)
Jürgens, C. (1997): The modified normalized difference vegetation index (mNDVI) – a new index
to determine frost damages in agriculture based on Landsat TM data. In: International Journal of
Remote Sensing 18, S. 3583 - 3594
Kauth, R.J. u. G.S. Thomas (1976): The tasseled cap -a graphic description of the spectral-temporal
development of agricultural crops as seen as in Landsat. In: Proceedings on the Symposium on
Machine Processing of Remotely Sensed Data, West Lafayette, Indiana, June 29 – July 1, 1976.
Kraus, K. (2012): Photogrammetrie: Geometrische Informationen aus Photographien und La-
serscanneraufnahmen. Berlin De Gruyter. 7. Aufl.
Kruse, R. u.a. M. (2015): Computational Intelligence. Eine methodische Einführung in Künstliche
Neuronale Netze, Evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze. Springer.
Lillesand, T. Kiefer R.W. u. J.W. Chipman (2008): Remote Sensing and Image Interpretation.
Chichester: John Wiley. 6. Aufl.
Löffler, E. (1994): Geographie und Fernerkundung - Eine Einführung in die geographische Interpre-
tation von Luftbildern und modernen Fernerkundungsdaten. Stuttgart: Teubner. 2. Aufl.
Louis, J. u.a. (2016): SENTINEL-2 SEN2COR: L2A Processor for users. In: Proceedings of the
Living Planet Symposium 2016. https://elib.dlr.de/107381/1/LPS2016_sm10_3louis.pdf
(29.11.2019)
Markwitz, W. (1989): Vom Satellitensignal zur Bildkarte. Einsatz von Daten- und Informations-
techniken zur Fernerkundung der Erde. In: Markwitz, W. u. R. Winter (Hrsg.): Fernerkundung:
Daten und Anwendungen, S. 1–10. Karlruhe = Beiträge der Interessengemeinschaft Fernerkun-
dung, Leitfaden 1.
Mather, P.M. u. M. Koch (2011): Computer Processing of Remotely Sensed Images – An Introduc-
tion. Chichester: Wiley-Blackwell . 4. Aufl.
Mountrakis, G., J. Im u. C. Ogole (2011): Support vector machines in re-mote sensing: A review.
ISPRS Journal of Photogrammetry and Remote Sensing 66, S. 247 – 259.
NASA (2019a): Jet Propulsion Laboratory. ECOSTRESS Spectral Library. https://spe-
clib.jpl.nasa.gov/library (29.11.2019)
NASA (2019b): Landsat Science. Landsat sensors: pushbroom vs whiskbroom
https://svs.gsfc.nasa.gov/12754 (29.11.2019)
NASA (2019c): Landsat Science .The Worldwide Reference System. https://land-
sat.gsfc.nasa.gov/the-worldwide-reference-system/ (29.11.2019)
NASA Jet Propulsion Laboratory (2019d): Shuttle Radar Topography Mission.
https://www2.jpl.nasa.gov/srtm/index.html (29.11.2019)
508 Einführung in die Fernerkundung und digitale Bildverarbeitung