Direkt zum Inhalt | Direkt zur Navigation

Eingang zum Volltext

Lizenz

Bitte beziehen Sie sich beim Zitieren dieses Dokumentes immer auf folgende
URN: urn:nbn:de:bsz:25-opus-66389
URL: http://www.freidok.uni-freiburg.de/volltexte/6638/


Balic, Nebojsa

Implementation potential of the algorithm for automatic extraction of canyons in standalone and distributed GIS systems

Anwendungspotential eines Algorithmus für die automatische Delinierung von Schluchten in Standalone- und verteilten GIS-Systemen

Dokument1.pdf (2.337 KB) (md5sum: f9d8bd6cb32f96650388e90ee5b705fd)

Kurzfassung in Englisch

The importance of the accurate elevation data in geomorphological investigation is beyond any dispute. On the basis of elevation data measurements can be made providing important information about the terrain. These measurements are immensely facilitated by the advent of digital forms for representation of the terrain surface such as Digital Terrain Models (DTMs). In view of this, LIDAR technology gains more recognition as a source through which the highly accurate DTMs can be generated at a decreasing price.
This thesis focuses on two proposed algorithms for the automatic extractions of canyons and man-made channels based exclusively on LIDAR data as well as the potential of the implementation of the former in either a desktop environment and as web applications. The first task in the development of the algorithms is to identify metric parameters that describe geometric properties of the landform to be extracted. The automatic procedure for the extraction of canyons is based on the following parameters:
- maximal width,
- minimal width,
- minimal depth,
- minimal inclination of slopes on the canyon flanks, and
- minimal length.
In the initial phase of the extraction procedure, all DTM points are identified as belonging to lines that satisfy spatial requirements defined by the arameters for maximal width, minimal inclination of slopes and minimal depth. These lines are regarded as potential cross-sections of canyons. Next, the DTM points representing cross-sections are grouped into regions applying the 8-connectivity criterion. Then, the length of each region is calculated and compared with the parameter of the minimal length. If the length of the region exceeds the value of the parameter for the minimal length, the region is classified as an identified canyon area.
A similar extraction approach is implemented in the proposed algorithm for the automatic extraction of a man-made channel. This algorithm employs the following parameters:
- maximal width,
- minimal depth and
- minimal length.
An additional requirement is that the main course of the channel is straight. All lines that could present the cross-sections or transects of the channels are identified in the Digital Terrain Model (DTM) image. The points in DTM representing these lines are grouped into regions in which length and linearity is further investigated.
Both algorithms are implemented as modules in the software package TreesVis. This has been accomplished using a library of the machine vision software HALCON. The feasibility of deploying the algorithm for the canyon extraction as a web application has also been investigated. In this endeavour, two approaches are employed. In the first approach, the algorithm is deployed on the Tomcat web server as a java based web application that can be accessed via a web site. This web site allows users to upload their DTM image as well as to select values for the given parameters. The calculation procedure is triggered by clicking on the corresponding button. If the extraction has been successful, a link appears on the screen to an output image containing the extracted areas of canyon. By clicking on the link, a user can download the image.
The second approach is related to the deployment of the algorithm for the automatic extraction of canyons as an OGC’s WebProcessing Service. This has been accomplished utilizing the WPS server developed by the company 52° North.
In both cases the implementation has been successful.


Kurzfassung in Englisch

Die Bedeutung genauer Höhendaten in geomorphologischen Untersuchungen ist
unbestritten. Auf der Grundlage von Höhendaten werden Messungen durchgeführt, die wertvolle Informationen über das untersuchte Gelände bieten. In dieser Hinsicht gewinnt die LIDAR - Technologie zunehmend an Bedeutung, zumal sie die Herstellung von präzisen Geländemodellen mit niedrigen Kosten ermöglicht.
Schwerpunkt dieser Arbeit ist die Entwicklung von Algorithmen für die automatische Extrahierung von Schluchten und künstlichen Gräben. Es wird auch untersucht, ob einer von diesen Algorithmen in der Desktop-Umgebung sowie als Webapplikation verwendet werden kann.
Die erste Aufgabe im Prozess der Entwicklung eines Algorithmus ist die Identifikation der metrischen Parameter, die den geometrischen Eigenschaften der zu extrahierenden Geländeform entsprechen.
Das automatische Verfahren für die Extrahierung von Schluchten beruht auf folgenden
Parametern:
- maximale Breite,
- minimale Breite,
- minimale Tiefe,
- minimale Neigung der Hänge auf den Seiten einer Schlucht,
- minimale Länge.
In der Anfangsphase der Extrahierung werden alle Punkte innerhalb eines digitalen Geländemodells identifiziert, die zu Linien gehören, die die Voraussetzungen bezüglich der Parameter für minimale Breite, minimale Tiefe und minimale Neigung erfüllen. Diese Linien werden als potentielle Profile einer Schlucht betrachtet. Als nächstes werden die identifizierten Punkte anhand des 8-connectivity Kriteriums in Regionen zusammengefasst. Sodann wird die Länge jeder dieser Regionen bestimmt und mit dem Parameter für minimale Länge verglichen. Wenn die berechnete Länge einer Region größer als der Wert dieses Parameters ist, wird sie als Schlucht klassifiziert. Ein ähnliches Extrahierungsverfahren wird für künstliche Gräben angewendet. Der hierfür zu entwickelnde Algorithmus basiert auf folgenden Parametern:
- maximale Breite,
- minimale Länge,
- minimale Tiefe.
Eine zusätzliche Bedingung ist, dass die Gräben geradlinig verlaufen. Alle Linien, die Profile von Gräben darstellen, werden durch das digitale Geländemodell bestimmt. Die Punkte, die zu den Profilen gehören, werden wie bei der Extrahierung der Schluchten in Regionen gruppiert, deren Länge und Linearität in der folgenden Phase des Algorithmus untersucht werden.
Die beiden Algorithmen für die Extrahierung von Schluchten und künstliche Gräben werden als Module in die Software TreesVis eingebaut. Dabei kommt das Bildverarbeitungsprogramm Halcon zum Einsatz.
Untersucht werden auch die Möglichkeiten der Verwendung des Algorithmus für die Extrahierung von Schluchten als Webapplikation. Dabei werden zwei Ansätze angewendet.
Im ersten Ansatz wird der Algorithmus als java-basierte Webapplikation am Tomcat Server zur Verfügung gestellt. Die Webapplikation wird durch eine gewöhnliche Seite zugänglich gemacht. Diese Seite ermöglicht dem Nutzer, eine eigene Datei (DGM) herunterzuladen und die gewünschten Werte der Eingabeparameter einzutragen. Der Extrahierungsprozess wird durch den Klick auf einen Button in Gang gesetzt. War die Extrahierung erfolgreich, dann erscheint ein Link auf dem Bildschirm, der das Herunterladen des Ausgabebildes ermöglicht und die Ergebnisse der Extrahierung werden gezeigt.
Der zweite Ansatz bezieht sich auf die Erstellung eines von OGC standardisierten Web Dienstes (WebProcessing Service), der den Algorithmus für die Schluchtenerkennung über das Internet zur Verfügung stellt. Dabei kommt der von der Firma 52°Nort entwickelte WPS- Server zum Einsatz.
Beide Ansätze wurden erfolgreich angewandt.


SWD-Schlagwörter: Geoinformationssystem , Fernerkundung , Geomorphologie
Freie Schlagwörter (deutsch): WebGIS , Geomorphometrie,
Freie Schlagwörter (englisch): WebGIS , Remote Sensing , Landscape Analysis Digital Image Processing
Institut: Institut für Forstökonomie
Fakultät: Fakultät für Forst- und Umweltwissenschaften
DDC-Sachgruppe: Land- und Forstwirtschaft, Veterinärmedizin
Dokumentart: Dissertation
Erstgutachter: Koch, Barbara (Prof. Dr.)
Sprache: Englisch
Tag der mündlichen Prüfung: 29.01.2009
Erstellungsjahr: 2008
Publikationsdatum: 29.09.2009
Indexliste