2024-03-29T06:05:17Z
https://freidok.uni-freiburg.de/oai/oai2.php
oai:freidok.uni-freiburg.de:9
2015-12-08T18:20:45Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Verteilte Visualisierung geometrischer Algorithmen und Anwendungen auf Navigationsverfahren in unbekannter Umgebung
Bröcker, Christoph A.
Algorithmische Geometrie
Visualisierung
Suchverfahren
Diese Arbeit befaßt sich mit zwei Themengebieten:
<br>Algorithmenvisualisierung und Suchstrategien.
<br>
<br>Da Algorithmen abstrakt und meist recht komplex
<br>sind, kann eine gute bildliche Darstellung
<br>ihr Verständnis erleichtern.
<br>Wir beschreiben verschiedene Aspekte,
<br>die beim Entwurf von Visualisierungssystemen von
<br>Bedeutung sind und geben einen vergleichenden
<br>Überblick über vorhandene Systeme.
<br>Ein neues System 'Vega' wurde speziell für
<br>geometrische Algorithmen entwickelt
<br>und verwirklicht eine Reihe interessanter
<br>Konzepte.
<br>
<br>Bei der Suche in unbekannten Umgebungen soll ein
<br>Roboter von einem Startpunkt zu einem unbekannten
<br>Zielpunkt gelangen. Ein Abbild seiner unmittelbaren
<br>Nachbarschaft empfängt er durch einen visuellen Sensor.
<br>Wir entwickeln kompetitive Suchverfahren,
<br>deren Umweg in Bezug auf den kürzesten Pfad beschränkt ist,
<br>für verschiedene Umgebungsklassen.
<br>
<br>Die Verbindung der beiden genannten Themengebiete
<br>geschieht in der Programmbibliothek 'Eon' zur
<br>Visualisierung geometrischer Suchverfahren.
1999
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/9
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-92
https://freidok.uni-freiburg.de/dnb/download/9
https://freidok.uni-freiburg.de/data/9
oai:freidok.uni-freiburg.de:21
2020-05-04T12:51:00Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Entwicklung waveletbasierter Kompressionsverfahren für Fernerkundungsdaten und deren Einsatz in einem Geographischen Informationssystem
Triebfürst, Bernd
Fernerkundung
Geoinformationssystem
Kompression
Rauschunterdrückung
Wavelet
Elektronische Publikation
Schnell wachsende Bestände digitaler Flächendaten - neue Satellitensysteme mit besserer räumlicher und spektraler Auflösung sowie eine zunehmend bessere Verfügbarkeit schon vorhandener Daten - und die Perspektive, diese Daten in Geo-Informationssystemen bearbeiten, verwalten und übertragen zu müssen, erfordern den Einsatz verlustbehafteter Kompressionstechnologien, die hohe Kompressionsraten (größer 3:1) ermöglichen.
<br>Verlustbehaftete Kompressionsverfahren finden derzeit in geowissenschaftlichen Anwendungen kaum Einsatz, da sie einerseits in bestehenden Geo-Informationssystemen nicht verfügbar sind und zum anderen Unklarheit über die Qualität der Daten nach einer verlustbehafteten Kompression besteht.
<br>In einer vergleichenden Untersuchung verschiedener Kompressionsverfahren hinsichtlich ihrer Eignung zur Kompression von Fernerkundungsdaten zeigten waveletbasierte Kompressionsverfahren die besten Ergebnisse.
<br>Basierend auf diesen Untersuchungen wurde das Freiburger Kompressionsmodul (FREIKOM) zur waveletbasierten Kompression und Analyse von Fernerkundungsdaten entwickelt und in das Raster-GIS Erdas/Imagine integriert.
<br>FREIKOM ermöglicht eine unterschiedliche Kompression einzelner Bildbereiche sowie bestimmter Frequenzanteile und kann damit zur Bildverarbeitung eingesetzt werden.
<br>Anhand von Anwendungsbeispielen aus den Bereichen der multispektralen und der Radarfernerkundung wurde untersucht, wie sich die verlustbehaftete Kompression auf den Informationsgehalt von Fernerkundungsdaten auswirkt. Es konnte gezeigt werden, daß sich mit Hilfe von FREIKOM die verlustbehaftete Kompression gezielt zur Unterdrückung unerwünschter Bildstrukturen (Rauschen, Speckle, Detailstrukturen) einsetzen läßt.
<br>Die Arbeit wurde am Institut für Informatik und am Institut für Physische Geographie der Universität Freiburg erstellt und im Rahmen des DFG-Schwerpunktprogrammes 'Interoperable Geoinformationssysteme' durch die DFG gefördert.
1999
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/21
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-216
https://freidok.uni-freiburg.de/dnb/download/21
https://freidok.uni-freiburg.de/data/21
oai:freidok.uni-freiburg.de:28
2016-03-04T12:30:46Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Lernen und Interpretieren Strukturierter Dokumente - ein Qualitativer Ansatz
Walischewski, Hanno
Maschinelles Lernen
Qualitative Methode
Automatische Inhaltsanalyse
Online-Ressource
Technical interpretation is usually done on documents having a certain kind of structure. In the overall
<br>layout of such documents components belonging together are grouped and hence geometrically
<br>separated from other parts. The rules used for arranging components on
<br>documents depend on the document's domain, the author's cultural background and many other things.
<br>In order to extract the meaning of such document parts, the creation rules have to be known.
<br>Therefore, a graph representation of structured documents as well as domains of such documents
<br>has been developed, whereby the nodes stand for the components and the edges represent weighted
<br>qualitative spatial relations among nodes. These relations are derived from Allen's qualitative
<br>relations among time intervals. The representation of domains can be derived automatically from
<br>sets of labeled documents.
<br>From a learned models, consistent scenarios can be extracted and then be visualized. This makes it
<br>more easy for the user to examine learned models. Models of domains can then be used to assign
<br>labels to unseen documents by means of a heuristic search for inexact subgraph isomorphisms
<br>between a model graph and a document graph.
1999
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/28
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-280
https://freidok.uni-freiburg.de/dnb/download/28
https://freidok.uni-freiburg.de/data/28
oai:freidok.uni-freiburg.de:41
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Rot-Schwarz-Bäume in Mehrbenutzerumgebungen
Hanke, Sabine
Suchbaum
Paralleler Algorithmus
Simulation
Relaxed-Balancing ist in den letzten Jahren zu einem häufig
<br>verwendeten Konzept beim Entwurf von Suchbaum-Algorithmen für
<br>Mehrbenutzerumgebungen geworden. Viele verschiedene
<br>Relaxed-Balancing-Algorithmen sind vorgeschlagen worden, insbesondere
<br>für Rot-Schwarz-Bäume und AVL-Bäume. Über die tatsächliche
<br>Effizienz dieser Algorithmen auf einer Mehrprozessor-Maschine
<br>lassen sich bislang jedoch noch keine Aussagen machen.
<br>
<br>Mit Hilfe der Simulation einer Mehrprozessormaschine wird in dieser
<br>Arbeit die Leistung von drei Relaxed-Balancing-Algorithmen für
<br>Rot-Schwarz-Bäume experimentell untersucht und mit der des Standard
<br>Rot-Schwarz-Baumes verglichen. Ferner wird ein effizienter Algorithmus
<br>für Gruppen-Wörterbuchoperation in Rot-Schwarz-Bäumen vorgestellt und
<br>analysiert.
<br>
2000
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/41
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-411
https://freidok.uni-freiburg.de/dnb/download/41
https://freidok.uni-freiburg.de/data/41
oai:freidok.uni-freiburg.de:57
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Motivation, Handlungskontrolle und Zielmanagement in autonomen Agenten
Dorer, Klaus
Agent (Informatik)
Autonomer Roboter
Künstliche Intelligenz
Die Arbeit widmet sich dem Problem der Handlungskontrolle autonomer Agenten in dynamischen, nicht-deterministischen und kontinuierlichen Umgebungen.
<br>Aufbauend auf Arbeiten von Maes wird vorgeschlagen, Handlungskontrolle mit Hilfe von erweiterten Verhaltensnetzwerken durchzuführen.
<br>Diese erlauben die Berücksichtigung mehrerer, auch in Konflikt zueinander stehender Ziele bei der Verhaltensauswahl auf der einen Seite,
<br>als auch eine schnelle, situationsspezifische Verhaltensauswahl.
<br>Weiterhin erlauben erweiterte Verhaltensnetzwerke die Berücksichtigung kontinuierlicher Zustände, die parallele Berechnung der Verhaltensauswahl,
<br>die parallele Ausführung von Verhalten sowie eine situationsspezifische Intensität der Verhaltensausführung.
<br>Der praktische Nutzen wird mittels empirischer Untersuchungen in der RoboCup Domäne, einer simulierten Fußballumgebung, beispielhaft demonstriert.
<br>Bei der RoboCup-WM 1999 konnten die mittels erweiterter Verhaltensnetzwerke gesteuerten Agenten den zweiten Platz erringen.
1999
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/57
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-573
https://freidok.uni-freiburg.de/dnb/download/57
https://freidok.uni-freiburg.de/data/57
oai:freidok.uni-freiburg.de:63
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Das Authoring on the Fly System
Bacher, Christian
Multimedia
In dieser Arbeit wird ein neues System zur Erstellung hochqualitativer
<br>Lehrsoftware vorgestellt. Das System verwirklicht die Idee,
<br>live gehaltene Vorlesungen und Vorträge durch synchrone Aufzeichnung
<br>direkt in multimediale Lehrsoftware zu transferieren.
<br>Die entstehenden multimedialen Vorlesungsdokumente
<br>sind offline nutzbar -- es werden wesentliche Bedingungen wie
<br>Verfolgbarkeit der Vorlesung, geringer Produktionsaufwand,
<br>geringer Datenaufwand, Editierbarkeit, Random Access und Visible Scrolling
<br>erfüllt.
<br>
<br>Kern des Systems ist ein neues Datenformat zur Speicherung animierter
<br>Vektorgrafik, das Random Access und Visible Scrolling gestattet,
<br>sowie der Vorlesungsviewer syncview, der eine exakte Audio-Grafik
<br>Synchronisation des Audio- und Grafikstroms einer Vorlesung durchführen kann.
<br>Aufgrund der Random Access Eigenschaft der Vorlesungsdokumente ist es möglich,
<br>auf Teile der Vorlesung direkt zuzugreifen. Dies ermöglicht die Entwicklung
<br>von Lehr- und Lernumgebungen, in denen vielerlei Material wie Lehrbücher,
<br>Artikel, Animationen mit den Vorlesungsabschnitten verknüpft werden können.
1999
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/63
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-631
https://freidok.uni-freiburg.de/dnb/download/63
https://freidok.uni-freiburg.de/data/63
oai:freidok.uni-freiburg.de:124
2018-08-20T10:28:53Z
pub-type:master_thesis
ddc:004
has-source-swb:true
hasFile:true
Direkte und rechnervermittelte kooperative Konstruktion von Begriffsnetzen
Collaborative computer-mediated and face-to-face construction of concept-maps
Bodemer, Daniel
Computer Supported Cooperative Work
Computerunterstützte Kommunikation
Kooperation
Problemlösen
Visualisierung
In einer Untersuchung zum kooperativen Problemlösen auf der Grundlage gemeinsamer Visualisierungen wurden Personen systematisch unterschiedliche aber sich wechselseitig ergänzende Informationen über einen Gegenstandsbereich zur Verfügung gestellt. Anschließend wurde Paaren von Personen, denen zuvor systematisch unterschiedliche Informationen vermittelt worden war, Probleme vorgelegt, die zu ihrer erfolgreichen Bearbeitung die Nutzung beider Informationsbestände erforderten. Die Bearbeitung der Probleme erfolgte auf der Grundlage der kooperativen Konstruktion von Begriffsnetzen, mit denen die in Frage stehenden Informationen gemeinsam visualisiert wurden. Insgesamt wurden 40 Paare unter vier verschiedenen Bedingungen untersucht. Die Bedingungen unterschieden sich hinsichtlich der sozialen Präsenz (Problemlösen von Angesicht zu Angesicht versus rechnervermitteltes Problemlösen mit Videokonferenzsystem) und hinsichtlich des zur Verfügung stehenden Werkzeugs zur Konstruktion von Begriffsnetzen (Papierkarten versus Rechnerwerkzeug). Hinsichtlich der Problemlöseeffektivität zeigte sich, daß rechnervermitteltes Problemlösen genau so effektiv verlief wie Problemlösen von Angesicht zu Angesicht. Hinsichtlich der Problemlöseeffizienz ergab sich eine Wechselwirkung zwischen der sozialen Präsenz und dem Problemlösewerkzeug.
In an experiment on cooperative problem-solving on the basis of joint visualizations, subjects received systematically different but complementary information about the problem domain. Subsequently, pairs of subjects who received systematically different information solved problems which demanded the use of all information. The problems were solved on the basis of the cooperative construction of concept maps which served to visualize the information. Fourty pairs of subjects were investigated under four different conditions. The conditions differed with respect to the social presence (problem-solving from face to face versus computer-mediated problem-solving with a video conferencing system) and with respect to the problem-solving tool utilized for the construction of concept maps (paper cards versus computer tool). Computer-mediated problem-solving was as effectiv as problem-solving from face to face. With respect to problem-solving efficiency, an interaction between social presence and problem-solving tool was observed.
1998
ger
master_thesis
pdf
free
https://freidok.uni-freiburg.de/data/124
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-1245
https://freidok.uni-freiburg.de/dnb/download/124
https://freidok.uni-freiburg.de/data/124
oai:freidok.uni-freiburg.de:147
2018-07-09T13:11:34Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
AVALANCHE - Ein agentenbasierter dezentraler Koordinationsmechanismus für elektronische Märkte
AVALANCHE - an agent-based decentralized coordination mechanism for electronic marketplaces
Eymann, Torsten
Agent (Künstliche Intelligenz)
Mehragentensystem
Electronic Commerce
Koordination
Die Dissertation 'AVALANCHE - Ein agentenbasierter dezentraler Koordinationsmechanismus für elektronische Märkte' untersucht grundlegende Fragen der Gestaltung elektronischer Marktplätze. Ziel ist es, einen dezentralen Koordinationsmechanismus für elektronische Märkte zu entwickeln, welcher es autonom handelnden Softwareagenten ermöglicht, planmäßig eine nutzenverbessernde Ressourcenallokation anzustreben. Nur in diesem Fall kann es zukünftig eine Akzeptanz der Technologie der Softwareagenten als transaktionskostenmindernde Repräsentanten menschlicher Marktteilnehmergeben. Um dieses Ziel zu erreichen, müssen zwei Ergebnisse gezeigt werden.
<br>Zum einen die Funktionsfähigkeit der marktlichen Koordination als Instrument der Gestaltung von Multi-Agenten-Systemen. Zum anderen die experimentelle Betrachtung der gewählten Realisierung, um durch Messungen und Analysen marktliche Koordination zu erforschen und eine Vergleichbarkeit mit realen Märkten herbeizuführen.
<br>AVALANCHE ist eine prototypische Implementation eines dezentralen marktlichen Koordinationsmechanismus und zeigt dessen Leistungsfähigkeit anhand der Koordination einer Wertschöpfungskette. Die Koordination auf den Marktplätzen und über die Wertschöpfungskette insgesamt ergibt eine 'spontane Ordnung' von Angebot und Nachfrage, obwohl auf der Systemebene keine steuernden Regeln in dieser Hinsicht definiert wurden.
<br>Die für Avalanche gewählte Realisierung des Koordinationsmechanismus kann zum einen im Sinne der Wirtschaftsinformatik als Gestaltungsoption für die Koordination von Systemen eigennütziger Agenten verstanden werden. Andererseits ist Avalanche nicht nur ein weiterer elektronischer Marktplatz, sondern durch die Abstraktion der Koordinationsschicht vom Anwendungskontext auch zur experimentellen Untersuchung und Simulation unterschiedlicher Koordinationsprobleme in den Wirtschaftswissenschaften einsetzbar.
The dissertation 'AVALANCHE - an agent-based decentralized coordination mechanism for electronic marketplaces' researches fundamental questions of electronic marketplace design. Goal of the dissertation is the development of a decentraliced coordination mechanism for electronic markets, which allows utility maximization by autonomously planning and acting software agents. Only if this goal is achievable, any acceptance for software agent technology can be assumed. To reach this goal, two results have to be shown.
<br>The first result to be achieved is the efficiency of a market coordination mechanism as an instrumental institution for the design of multiagent systems. On the other hand the chosen realization has to be experimentally evaluated, which means measuring and analyzing market coordination and to compare the results to real market behavior. Only both results together allow using future software agents as transaction-cost-minimizing representants of human market participants.
<br>The multiagent system AVALANCHE is a prototypical implementation of a decentralized market coordination mechanism, and shows its efficiency by means of coordination a supply chain. The coordination result on the basic marketplaces and along the whole supply chain follows from a 'spontaneous order' of supply and demand in a Hayekian realization of neo-austrian economics, where no central control is existent.
<br>This realization of the coordination mechanism is first a design option for the coordination of IT systems consisting of selfish agents. Second, AVALANCHE is usable as an experimental simulation tool for reseaching into coordination issues in economics. (Dokument_1.zip contains the AVALANCHE software für Win32 operating systems, which requires Java 1.2 and Voyager 3.0. Dokument_2.pdf contains the complete text of the PhD dissertation.)
2000
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/147
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-1470
https://freidok.uni-freiburg.de/dnb/download/147
https://freidok.uni-freiburg.de/data/147
oai:freidok.uni-freiburg.de:166
2015-06-17T12:15:59Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Ein Vertrauens- und Reputationsmodell für Multi-Agenten Systeme
A trust- and reputationmodell for multi agent systems
Padovan, Boris
Internet
Vertrauen
Handel
Softwareagenten können ihre menschlichen Nutzer auf elektronischen Märkten repräsentieren. Um Transaktionen auf elektronischen Märkte durchzuführen ist jedoch häufig Vertrauen zwischen den Transaktionspartnern notwendig. In der vorliegenden Dissertation wird ein Mechanismus erarbeitet, mit dem Softwareagenten untereinander Vertrauen aufbauen können. Anhand mehrerer Testläufe wird dieser Mechanismus evaluiert und kritisch dikutiert.
Software Agents are able to represent their human principal in electronic markets. But very often trust between the transaction partners is neccessary to conduct a transaction on electronic markets. This PhD thesis developps a mechanism with which software agents are able to build trust between one another. This mechanism is evaluated through several test runs and discussed.
2000
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/166
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-1668
https://freidok.uni-freiburg.de/dnb/download/166
https://freidok.uni-freiburg.de/data/166
oai:freidok.uni-freiburg.de:180
2015-06-11T13:21:14Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
EXOR-basierte Logiksynthese mit Kronecker Functional Decision Diagrams
Hengster, Harry
Logiksynthese
Integrierte Schaltung
Testbarkeit
Entscheidungsgraph
OKFDD
Online-Ressource
In dieser Arbeit wird ein Syntheseverfahren zur Analyse der
<br>Abhängigkeiten in KFDDs vorgestellt.
<br>In KFDDs wird neben der Shannon Dekomposition auch die Davio
<br>Dekomposition eingesetzt, die auf der EXOR-Operation basiert.
<br>Daher wird die Verwendung von EXOR-Gattern in den
<br>synthetisierten Schaltkreisen auf natürliche Weise impliziert.
<br>
<br>Daneben wird eine Reihe von lokalen Vereinfachungen für die
<br>Schaltkreisrealisierung vorgestellt, die
<br>während der Synthese implizit durchgeführt werden können.
<br>Dadurch wird die Größe weiter optimiert sowie
<br>eine geringe Tiefe und damit eine geringe Verzögerungszeit
<br>für den Schaltkreis erreicht.
<br>
<br>Zusätzlich wird gezeigt, daß auch direkte Abhängigkeiten zwischen
<br>Knoten aus nicht benachbarten Leveln
<br>unmittelbar in der Schaltkreisrealisierung umgesetzt werden
<br>können. Die für das verallgemeinerte Syntheseverfahren nötigen
<br>Anforderungen an die Struktur des KFDDs können mit erheblich
<br>weniger Knoten erfüllt werden.
<br>
<br>Die Testbarkeit der synthetisierten Schaltkreise wird bzgl.
<br>des stuck-at Fehlermodells untersucht. Durch Analyse der
<br>Graphstruktur des verwendeten KFDDs kann erreicht werden,
<br>daß in den erzeugten Schaltkreisen keine konstanten
<br>Signale existieren. Für die so erzeugten Schaltkreise
<br>wird gezeigt, daß sie vollständig testbar sind.
<br>Dazu werden Verfahren vorgestellt, mit denen Testmuster für
<br>alle stuck-at Fehler bereits während der Synthese bestimmt werden.
<br>Die Anwendung von automatischer Testmustergenerierung für
<br>die synthetisierten Schaltkreise ist somit nicht mehr
<br>erforderlich.
<br>Allerdings ist die Anzahl der erzeugten Testmuster sehr hoch,
<br>so daß eine Kompaktierung der erzeugten Testmengen nötig wird.
<br>
<br>Schließlich wird noch gezeigt, daß die Größe und Tiefe der
<br>synthetisierten Schaltkreise durch Verschmelzen von
<br>äquivalenten Gattern weiter reduziert werden kann.
<br>Für die dabei erzeugten Schaltkreise kann die vollständige
<br>Testbarkeit jedoch nur experimentell nachgewiesen werden.
<br>
2001
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/180
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-1807
https://freidok.uni-freiburg.de/dnb/download/180
https://freidok.uni-freiburg.de/data/180
oai:freidok.uni-freiburg.de:209
2015-06-11T13:21:42Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Video coding with adaptive vector quantization and rate distortion optimization
Videokodierung mit adaptiver Vektorquantisierung und Raten/Fehler Optimierung
Wagner, Marcel
Vektorquantisierung
Codierung
Optimierung
Nebenbedingung
Datenkompression
Online-Ressource
The object of this dissertation is to investigate
<br>rate-distortion optimization and to evaluate the prospects of adaptive
<br>vector quantization for digital video compression.
<br>Rate-distortion optimization aims to improve compression performance
<br>using discrete optimization algorithms. We first describe and classify
<br>algorithms that have been developed in the literature to date.
<br>One algorithms is extended in order to make it generally applicable; the correctness of this new procedure is proven. Moreover, we compare the complexity of the aforesaid algorithms, first
<br>implementation-independent and then by run-time experiments.
<br>Finally, we propose a technique to speed up one of the aforementioned algorithms.
<br>Adaptive vector quantization enables adaption to sources with unknown or non-stationary statistics. This feature is important for digital
<br>video data since the statistics of two subsequent
<br>frames is usually similar, but in the long run the general statistics of
<br>frames may change even if scene changes are neglected.
<br>We examine combinations of adaptive vector quantization with various state-of-the-art video compression techniques.
<br>First we present an adaptive vector quantization based codec that is able to encode and decode in real-time using current PC technology. This codec is rate-distortion optimized and adaptive vector quantization is applied in
<br>the wavelet transform domain. The organization of the wavelet coefficients is then made more efficient using adaptive partition techniques. Moreover, the main adaptability mechanism of adaptive vector quantization, the so-called codebook update, is studied.
<br>Finally, a combination of adaptive vector quantization and motion compensation is taken into consideration. We show that for very low bitrates adaptive vector quantization performs on prediction
<br>residual frames better or at least as well as discrete cosine transform coding.
2000
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/209
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-2093
https://freidok.uni-freiburg.de/dnb/download/209
https://freidok.uni-freiburg.de/data/209
oai:freidok.uni-freiburg.de:399
2016-11-09T14:48:06Z
pub-type:master_thesis
ddc:004
has-source-swb:true
hasFile:true
Laienberatung im Internet : Untersuchung geschlechtstypischer Kommunikationsstrukturen in einer Newsgroup
Nonprofessional advising in the internet : investigation of gender typical communication structures in a newsgroup
Borgmann, Kerstin
Kommunikation
Internet
Newsgroup
Geschlechterforschung
Online-Ressource
Mailen oder Chatten gewinnen als moderne Kommunikationsformen auch für weibliche Internetnutzer zunehmend an Bedeutung. Frauen sind in Deutschland mit derzeit (Frühjahr 2000) 26,1% im Internet vertreten. Aber die Zahlen belegen, Frauen nutzen das Medium Internet immer stärker. In den USA sind sogar im Mai 2001 die Frauen mit 50,75 % leicht in der Überzahl gegenüber den Männern. Durch die Initiative „Frauen ans Netz“ des Bundesministeriums für Bildung und Forschung und die Einrichtung eines „europaweit einmaligen Kompetenzzentrums für Frauen in der Informationsgesellschaft und Technologie“ sollen „so schnell wie möglich mindestens 50% aller Internetnutzer Frauen sein und bis 2005 sollen unter denen, die sich für den Studiengang Informatik oder Ingenieurwissenschaften oder auch für einen IT-Beruf entscheiden, 40% Frauen sein.“ Ob jedoch der zahlenmäßige Zuwachs an Frauen im Netz auch eine Reduzierung von geschlechtsstereotypen Zuschreibungen und Verhaltensweisen mit sich bringt, bleibt dahingestellt. Werden Frauen z.B. mit ihren Kommunikationsstrategien, die sie in der realen Welt erworben haben, im Netz weiterkommen? Oder bietet ihnen das Netz etwa vorurteilslose und geschlechtsneutrale Freiheit? Werden Männer ihrerseits ihre Kommunikationsweisen überdenken und gegebenenfalls verändern? Haben vielleicht beide Geschlechter die Chance in der schönen neuen virtuellen Welt unbelastet von stereotypen Rollenerwartungen mit einander umzugehen? In dieser Arbeit will ich den Versuch unternehmen für den Bereich Sprache und Kommunikation herauszufinden, ob Männer und Frauen sich kommunikativ-sprachlich im Netz in denselben Merkmalen unterscheiden, wie in der außernetzlichen Realität. Dazu werde ich die konkrete Untersuchung einer Newsgroup-Diskussion darstellen und die Ergebnisse diskutieren.
2001
ger
master_thesis
pdf
free
https://freidok.uni-freiburg.de/data/399
https://nbn-resolving.org/urn:nbn:de:bsz:25-freidok-3997
https://freidok.uni-freiburg.de/dnb/download/399
https://freidok.uni-freiburg.de/data/399
oai:freidok.uni-freiburg.de:423
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Binäre Expression-Diagramme
Binary expression-diagrams
Hett, Andreas
Binäres Entscheidungsdiagramm
Logiksynthese
Verifikation
CAD
Online-Ressource
Durch die stetig steigenden Anforderungen an die Leistungsfähigkeit moderner Schaltungen besteht fortwährend die Notwendigkeit, immer effizientere Datenstrukturen und darauf operierende Algorithmen zur Beherrschung der steigenden Komplexitäten zu entwicklen. Die vorliegende Arbeit stellt Theorie und Praxis der binären Expression-Diagramme (BEDs), eine Weiterentwicklung der populären binären Entscheidungs-Diagramme (BDDs) vor, die im Bereich der Logiksynthese und Verifikation des Rechnerentwurfs ihre Anwendung finden.
Due to a continuous requirement of performance increases in modern circuits there exists the necessity of permanently improving data structures as well as thereupon operating algorithms in order to handle the ascending complexities. This work introduces theory and implementation aspects of binary expression diagrams (BEDs), an advancement of the popular binary decision diagrams (BDDs), applied in the field of logic-level synthesis and verification in the computer system design process.
2002
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/423
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-4234
https://freidok.uni-freiburg.de/dnb/download/423
https://freidok.uni-freiburg.de/data/423
oai:freidok.uni-freiburg.de:538
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Region-based Program Specialization
Regionsbasierte Programmspezialisierung
Helsen, Simon
Programmoptimierung
Funktionale Programmiersprache
Speicherverwaltung
Online-Ressource
Program specialization or partial evaluation is a proven program optimization technique dating back to the early seventies. One common flavor of program specialization is offline partial evaluation. It employs a program analysis to determine what operations can be reduced at specialization time. Historically, offline systems used simple binding-time annotation techniques, or considered simply-typed programming languages. These approaches have hampered offline methods in reaching their full potential. In this thesis, we aim to address these limitations. We describe the development of a new and entirely operational theory for offline polymorphic specialization of ML-like languages by combining techniques from dynamic memory management with program specialization. Our approach is based on the region calculus of Tofte and Talpin, a polymorphically typed lambda calculus with annotations that make memory allocation and deallocation explicit. The formal correctness proof of our novel specialization technique based on a region type system requires two theoretical building blocks: a type soundness proof for the region calculus and a correctly proven equational theory between region-annotated terms. Putting these together yields a new method for offline partial evaluation of functional programming languages with an ML-style typing discipline. Our method comprises a polymorphic binding-time analysis with polymorphic recursion, which is conceived as a constraint analysis on top of region inference. The relation between program specialization and regions is a result of regarding binding times as properties of regions.
2002
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/538
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-5387
https://freidok.uni-freiburg.de/dnb/download/538
https://freidok.uni-freiburg.de/data/538
oai:freidok.uni-freiburg.de:631
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Feature histograms for content-based image retrieval
Merkmalhistogramme zur inhaltsbasierten Bildsuche
Siggelkow, Sven
Mustererkennung
Merkmalsextraktion
Histogramm
Bilddatenbank
Information Retrieval
Online-Ressource
Die ständig wachsende Menge an verfügbaren Multimediadaten erfordert neuartige Methoden, die einen gezielten Zugriff auf diejenigen Daten ermöglichen, an denen man interessiert ist. Insbesondere hinsichtlich visueller Dateninhalte existiert noch keine befriedigende Lösung. Der klassische Ansatz - ein manuelles Umschreiben des Bildinhaltes - kann mit dem schnellen Wachstum der Datenmengen nicht mehr mithalten. Daher haben sich in den letzten Jahren zahlreiche Wissenschaftler unterschiedlicher Ausrichtungen des Themas 'Inhaltsbasierte Bildsuche' angenommen. Viele Systeme lassen jedoch eine klare Definition des verwendeten Ähnlichkeitsbegriffs für Bildinhalte vermissen. Andere basieren auf nicht robusten Vorverarbeitungsschritten. In dieser Arbeit legen wir hingegen erst einen Ähnlichkeitsbegriff fest und entwickeln daraufhin robuste, kompakte Merkmale, die keinerlei Vorverarbeitungsschritte erfordern und zudem schnell zu bestimmen sind.
<br>
<br>Wir gehen von der Annahme aus, daß Objektbewegungen innerhalb der Bilder irrelevant für die Bildähnlichkeit sind und schlagen daher vor, invariante Merkmale zu verwenden. Besonders geeignet erweisen sich invariante Histogramme lokaler Bildcharakteristika. Da das traditionelle Histogramm jedoch eine unstetige Abbildung darstellt, ersetzen wir es durch ein gewichtetes Histogramme mit stetigen Abbildungseigenschaften. Um die Bildanalyse zu beschleunigen, führen wir eine Merkmalschätzung durch, anstatt die Merkmale deterministisch zu berechnen.
<br>
<br>Die drei genannten theoretischen Konzepte - Kombination von invarianten Merkmalen und Histogrammen, gewichtete Histogramme und schnelle Merkmalschätzung - wurden in zwei Applikationen umgesetzt: einem allgemein anwendbaren System zur Bildsuche namens SIMBA - Search IMages By Appearance, und zur Briefmarkenerkennung und Suche nach ähnlichen Motiven. Letztere Anwendung demonstriert zudem, daß der gewählte allgemeine Ansatz leicht durch applikationsspezifisches Wissen ergänzt werden kann.
<br>
The ever increasing amount of multimedia data creates a need for new sophisticated methods to retrieve the information one is looking for. Especially for the visual content this is still an unsolved problem. The classical approach - manual annotation - alone cannot keep up with the rapid growth of available data anymore. Thus content-based image retrieval attracted many researchers of various fields. There exist many systems for image retrieval meanwhile. However, many lack a clear definition of similarity or rely on noise-sensitive preprocessing steps like segmentation or edge-detection. Instead we first define, what shall be considered similar, and then develop robust, compact features that do not require any preprocessing steps. Additionally these can be calculated fast.
<br>
<br>We start from the assumption, that object position and orientation are irrelevant for image similarity, and consequently propose to use invariant features which we combine with histograms thus obtaining invariant feature histograms. However, the traditional histogram is a discontinuous mapping. So we construct a fuzzy histogram which has continuous mapping properties. By applying different local feature kernels, we construct joint feature histograms that catch different cues of image content. By a weighted combination of these features, the user can adapt the similarity measure according to his needs. In order to speed up the feature extraction, we estimate the feature histograms instead of calculating them deterministically.
<br>
<br>These three theoretical concepts - combination of invariant features and histograms, fuzzy histograms, and fast feature estimation - have been realized within two image retrieval systems: a general purpose image retrieval system called SIMBA - Search IMages By Appearance, and a stamp recognition and retrieval system. The latter one proves that the concepts can be easily adapted to incorporate additional application specific information.
<br>
2002
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/631
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-6319
https://freidok.uni-freiburg.de/dnb/download/631
https://freidok.uni-freiburg.de/data/631
oai:freidok.uni-freiburg.de:791
2015-06-11T13:26:40Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Directed search for the verification of communication protocols
Gerichtete Suche für die Verifikation von Kommunikationsprotokollen
Lluch Lafuente, Alberto
Heuristik
Suche
Verifikation
Kommunikationsprotokoll
Online-Ressource
There is a need for formal methods to verify correctness of software
<br>and hardware systems. Automated verification techniques basically
<br>explore the state space of a system in order to establish whether or
<br>not it behaves correctly. The main drawback of such methods is the state explosion problem. The size of the state space can grow
<br>exponentially in the number of components of the system, especially in
<br>asynchronous concurrent systems. In early stages of system
<br>development, errors are likely to appear. As a matter of fact, in practice,
<br>automated verification has been shown to be more successful in finding errors in
<br>systems than in proving correctness. Usually, one applies reachability algorithms like
<br>depth-first, and breadth-first search for this purpose. Breadth-first
<br>search is, in general, not memory-efficient, but offers shortest
<br>counterexamples. On the other hand, depth-first search is more
<br>memory-efficient, but delivers suboptimal counterexamples.
<br>
<br>We propose and analyze the use of classic heuristic search
<br>algorithms for a more efficient error detection. First, heuristic
<br>search can help mitigate the effects of the state explosion
<br>problem by guidining the search into error states. Second, some of these
<br>algorithms can guarantee optimal counterexamples. This is important
<br>for the error correction process since, in general, the shorter a
<br>counterexample is, the easier it is to understand what it really means.
<br>
<br>We distinguish two main problems: finding an error quickly, and
<br>finding a short(est) counterexample. Each problem has different
<br>requirements and calls for different strategies.
<br>Heuristic functions are applied to guide the search. We propose
<br>and analyze several such functions. Moreover, we analyze how heuristic
<br>search combines with other techniques usually applied to avoid the
<br>state explosion problem, namely partial order reduction and bitstate hashing.
<br>
<br>We basically concentrate on the detection of
<br>safety errors, which are just reach
2003
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/791
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-7916
https://freidok.uni-freiburg.de/dnb/download/791
https://freidok.uni-freiburg.de/data/791
oai:freidok.uni-freiburg.de:1067
2018-06-07T17:05:02Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Micromachined transmission lines for microwave applications
Mikrostrukturierte Signalleitungen für Mikrowellenanwendungen
Osorio, Ricardo
Streifenleitung
Mikroelektronik
Mikrosystemtechnik
Mikrowellentechnik
Hochfrequenztechnik
Photopolymere
Online-Ressource
This thesis reports on the design, fabrication, characterization, and modeling of micromachined strip lines. The challenge of structuring this three-dimensional transmission line is solved by using the photosensitive resin SU-8 as the micromachinable material and as the dielectric in the strip line. Additionally, electrodeposition is applied to reinforce conductive structures to a thickness of 3µm and to fill out 15 µm deep vias. The fabrication of the strip line, which is independent of the substrate, is described in detail. The characterization of the strip lines is performed directly on-wafer with microwave coplanar probes. The S-parameters of the strip lines are measured with frequencies of up to the millimeter-wave range (48 GHz). Based on these measurements the transmission line properties of the strip line are analyzed and the corresponding equivalent circuit model is also extracted. To the author’s best knowledge, this is the first time that the dielectric constant and the loss tangent of SU-8 are measured in the millimeter-wave frequency region.
<br>Micromachining techniques applied to microwave transmission lines were limited to planar ones, like microstrip or coplanar lines. In this work the property of micromachining techniques to fabricate three-dimensional lines, such as the strip line, is demonstrated. The value of the dielectric thickness in the strip line is 30 µm. The conductors in the strip line consist of a sputtered TiW-Ni seed layer followed by a electrodeposited 3 µm thick Cu-layer. The structuring of SU-8 is performed by using the simplest method of IC-technology: spin-on and photolithography. In particular, with SU-8 excellent structures with large aspect ratios can be fabricated. Moreover, SU-8 itself is photosensitive making an additional process step superfluous. The feasibility of SU-8 as the micromachinable material and as dielectric in strip lines is investigated. In spite of the simple processing of SU–8, there were some problems, which are reported: poor adhesion and cracking. These problems are systematically solved leading in the end to an improved SU–8 process. In this process there is almost no cracking and adhesion of SU-8 to copper and nickel layers is improved. The total dielectric thickness was achieved by deposition and structuring of two 15 µm thick SU-8 layers.
<br>Strip lines with strip lengths ranging between 0.5 mm and 3 mm and with strip width values between 4 µm and 30 µm are designed in order to completely characterize the strip lines. The transition from the strip line to the contact pads, also placed on the wafer, is discussed. These contact pads, which have coplanar configuration and 50 * characteristic impedance, are indispensable for on-wafer characterization of the strip lines.
<br>The Finite Element (FE) code was programmed in order to calculate the characteristic impedance of the strip line by solving the Laplace equation of the electrical potential along the line’s cross section, which is a two-dimensional domain. This program can be applied to sensitivity calculations of the characteristic impedance on deviations related to the process and the geometrical dimensions.
<br>The S-parameters of the fabricated strip lines are measured on-wafer with frequencies of up to 48 GHz. From the S-parameters the characteristic impedances and the propagation constants for the strip lines are calculated and the elements per unit length of the corresponding equivalent circuit model are extracted. For the first time the relative dielectric constant and loss tangent of SU-8 are measured with millimeter-wave frequencies. At 48 GHz, the relative dielectric constant of SU-8 is 3.2 and the loss tangent is 0.043. The strip line with 48.2 * characteristic impedance shows an attenuation constant of 0.58 dB/mm at 48 GHz. From full-wave simulations, an amount of 0.2 dB/mm is assigned to the skin-effect in the copper conductive layers, whereas 0.38 dB/mm corresponds to the loss tangent of the SU-8 dielectric.
Diese Dissertation befaßt sich mit dem Entwurf, der Herstellung, der Charakterisierung und der Modellierung von Strip-Leitungen. Dabei werden Techniken aus der Mikrosystemtechnik eingesetzt, um der Herausforderung der dreidimensionalen Strukturierung der Strip-Leitungen besser zu begegnen. Einerseits wurde Galvanik zur Verstärkung von metallischen Strukturen auf 3 µm und zum Auffüllen von 15 µm vias eingesetzt, und andererseits wurde der photoempfindliche SU-8 Lack, gleichzeitig, als das mikrostrukturierbares Material und als Dielektrikum der Strip-Leitung verwendet. Auf die vollständige Herstellung der Strip-Leitungen, welche substratunabhängig ist, wird detailliert eingegangen. Die Charakterisierung der Strip-Leitungen erfolgt direkt auf dem Substrat (on-wafer) mit koplanaren, mikrowellentauglichen Testspitzen, mit denen die S-Parametern der Strip-Leitung bei Frequenzen bis zum millimeterwellen Bereich (48 GHz) gemessen werden. Anhand der Messungen werden die Leitungseigenschaften analysiert und schließlich ein Ersatzschaltbildmodell für die Strip-Leitung extrahiert. Laut der bisherigen Recherche des Autors, werden, zum ersten Mal, die relative Dielektrizitätszahl und der Verlustwinkel von SU-8 im millimeterwellen Bereich gemessen.
<br>Der Einsatz der Mikrosystemtechnik im Bereich der Mikrowellenleitungen hat sich bisher auf planare Leitungen, wie Microstrip- und Koplanarleitungen, beschränkt. Diese Arbeit setzt Techniken der Mikrostrukturierung bei der Herstellung von dreidimensionalen Mikrowellenleitungen ein, wie dies die Strip-Leitung darstellt. Das Dielektrikum der Strip-Leitung erreicht eine nominelle Höhe von 30 µm. Die leitenden Strukturen der Strip-Leitung bestehen aus einer gesputterten TiW-Ni Startschicht und einer auf 3 µm galvanisch verstärkten Kupferschicht. Der SU-8 Lack läßt sich mit den einfachsten Mitteln der IC-Technologie strukturieren: Aufschleudern und Photolithographie. Das besondere dabei ist allerdings, daß damit Strukturen mit großen Aspektverhältnissen erreicht werden können. Dazu kommt, daß SU-8 selbst photoempfindlich ist und dadurch ein zusätzlicher Prozeßschritt gespart wird. Der Einsatz von SU-8 als mikrostrukturierbares Material und als Dielektrikum bei der Herstellung von Strip-Leitungen wird untersucht. Trotz des einfachen technologischen Prozesses von SU-8, stößt man auf Schwierigkeiten, wie Haftungsprobleme und Risse im Lack. Diese Schwierigkeiten werden systematisch aufgehoben, mit dem Ergebnis, daß ein ausgereifter SU-8 Prozeß entsteht. Bei diesem Prozeß sind dann die Risse der SU-8 Strukturen nahezu verschwunden und die Haftungseigenschaften zu galvanischer Nickel- und Kupferschichten deutlich verbessert. Die Gesamthöhe des Dielektrikums wurde durch zwei SU-8 Schichten von jeweils 15 µm Dicke erreicht.
<br>Strip-Leitungen mit Leitungslängen zwischen 0.5 mm und 3 mm, und Leitungsbreiten zwischen 4 µm und 30 µm werden entworfen, um die Strip-Leitung vollständig zu charakterisieren. Außerdem wird über den Übergang der Strip-Leitung zu den Kontaktflächen auf dem Substrat diskutiert. Diese Kontaktflächen, die ein koplanares Leitungsstück darstellt und 50 * Leitungsimpedanz aufweisen sollen, werden bei der on-wafer Messung der Strip-Leitungen benötigt. Das numerische Verfahren der Finite Elemente (FE) wird einprogrammiert, um die Laplace-Gleichung des elektrischen Potentials im Leitungsquerschnitt zu lösen um daraus die Leitungsimpedanz der Strip-Leitung zu extrahieren. Das Programm kann auch bei der Empfindlichkeitsanalyse der Leitungsimpedanz auf geometrischen Abweichungen, die mit Technologietoleranzen verbunden sind, eingesetzt werden.
<br>Die S-parametern der hergestellten Strip-Leitungen werden direkt auf dem Substrat mit Frequenzen bis 48 GHz gemessen. Aus den S-parametern werden die Leitunsgsimpedanzen und Ausbreitungskonstanten der Leitungen berechnet und daraus die Elemente des Ersatzschaltbildmodells extrahiert. Ebenfalls aus diesen Mikrowellenmessungen werden die elektrischen Eigenschaften von SU-8 zum ersten Mal bei Frequenzen im millimeterwellen Bereich extrahiert. Eine relative Dielektrizitätszahl von 3.2 und einen Verlustwinkel von 0.043 bei 48 GHz werden gemessen. Die Dämpfungskonstante für die Strip-Leitung mit 50 * Leitungsimpedanz beträgt 0.58 dB/mm bei 48 GHz. Aus full-wave Simulationen werden 0.2 dB/mm dem Skin-Effekt der Kupferleitung und etwa 0.38 dB/mm dem Verlustwinkel des SU-8 Dielektrikums zugeordnet.
2003
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1067
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-10679
https://freidok.uni-freiburg.de/dnb/download/1067
https://freidok.uni-freiburg.de/data/1067
oai:freidok.uni-freiburg.de:1234
2018-06-07T17:00:23Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
System verification tools based on Monadic Logics
Werkzeuge zur Systemverifikation basierend auf monadischen Logiken
Ayari, Abdelwaheb
Monadenlehre
Entscheidung
Logik
Entscheidbarkeit
Online-Ressource
In der Mitte des letzten Jahrhunderts erschienen die ersten Arbeiten über monadische Logiken zweiter Stufe. Das Interesse an diesen Logiken lag zunächst hauptsächlich an Entscheidbarkeitsfragen von arithmetischen Theorien. Die monadischen Logiken zweiter Stufe über Wörter und Bäume gehören zu den ausdrucksstärksten Logiken, die noch entscheidbar sind. Gegenwärtig werden monadische Logiken auch in der Informatik zum Zweck der formalen Systemverifikation verwendet. Entscheidungsverfahren für diese Logiken wurden in verschiedenen Werkzeugen wie z.B. Mona, MOSEL und dem Step System implementiert und teilweise erfolgreich in unterschiedlichen Anwendungsgebieten, vor allem in der Hardware- und Protokoll-verifikation, eingesetzt. <br>Der Erfolg der auf monadischen Logiken basierten Verifikationswerkzeuge wird allerdings durch zwei große Nachteile, die diese Logiken mit sich bringen, erheblich vermindert. Zum einen sind diese Logiken wegen ihres geringen Abstraktionsgrades als Spezifikationssprachen ungeeignet; die Formalisierung von Systemen und Systemeigenschaften in diesen Logiken bedarf eines hohen Maßes an Erfahrung und Detailkenntnissen und ist mit der Programmierung in Assembler vergleichbar. Zum anderen haben die Entscheidungsverfahren für diese Logiken eine sehr hohe Berechnungskomplexität; oft brechen die oben genannten Werkzeuge ihre Berechnung aus Mangel an Speicherressourcen ab.<br>Die vorliegende Arbeit stellt mehrere Verfahren vor, die die erwähnten Nachteile überwinden und machen somit die monadischen Logiken für die Praxis besser nutzbar. Nachfolgend stellen wir die Beiträge in unserer Arbeit dar. Wir entwickeln zunächst eine neue auf monadische Logik über endliche Bäume basierende Spezifikationssprache, die intuitiv und benutzerfreundlich ist und Sprachkonstrukte bereitstellt, die einen höheren Abstraktionsgrad ermöglichen. Außerdem geben wir eine syntaktische Charakterisierung von Klassen von Formeln der neu entwickelten Spezifikationssprache an, die eine akzeptable Berechungskomplexität haben. <br>Desweiteren untersuchen wir das Problem der sogenannten Zustandsraumexplosion: Bei der Verifikation von großen Systemen in monadischen Logiken kann der Zustandsraum nicht-elementar groß werden. Um dieses Problem zu vermeiden, geben wir ein Verfahren an, das für die Generierung von Gegenbeispielen eine effektive und nicht-elementare Verbesserung gegenüber den herkömmlichen Entscheidungsverfahren bietet.<br>Schließlich beschäftigen wir uns auch mit der Frage, wie man, ausgehend von der Kernidee dieser Methode zur Generierung von Gegenbeispielen, monadische Logiken über endlichen Wörtern zum Nachweis von Eigenschaften nicht-terminierender Systeme benutzen kann.<br>Unsere Resultate ergeben, daß man sowohl Sicherheits- als auch Lebendigkeitseigenschaften in monadischen Logiken über endlichen Wörtern formalisieren und dadurch automatisch beweisen kann.<br>Die Praxistauglichkeit unserer theoretischen Resultate stellen wir durch die Implementierung von verschiedenen Verifikationswerkzeugen (Lisa, Monaco und Qubos) unter Beweis. Anwendbarkeit und Skalierbarkeit dieser Werkzeuge werden anhand nicht-trivialer Fallbeispiele evaluiert.
Fundamental work on monadic second-order logics began about forty
<br>years ago. These logics are amongst the most expressive logics that
<br>are known to be decidable. Their first application domain was
<br>mathematics, where they were for example used to decide theories of
<br>arithmetics. Recently, they have also been applied to formally reason
<br>about a number of problems in computer science: despite their
<br>non-elementary complexity, decision procedures for monadic logics over
<br>finite words and finite trees have been implemented in numerous tools
<br>(eg, Mona, MOSEL, and Step) and have been successfully
<br>applied to problems such as the verification of hardware and software
<br>systems. These logics suffer, however, from two drawbacks that
<br>strongly limit their application, namely the low-level language they
<br>provide to specify systems and properties, and the demanding
<br>computational complexity of their decision procedures.
<br>
<br>
<br>
<br>To make system verification based on monadic logics more viable in
<br>practice, in this thesis we systematically address both these problems
<br>at once. To this end, we first improve the existing approaches (i) by
<br>formalizing a new specification language which is expressive,
<br>intuitive and more user-friendly, and (ii) by providing a handle on
<br>the complexity of the logics' decision procedures. Second, we develop
<br>new efficient algorithms and approaches to cope with the state-space
<br>explosion problem. Third, we investigate how to employ the monadic
<br>logic over finite words to reason about non-terminating systems.
<br>Finally, we implement our methods in three tools (Lisa, Monaco,
<br>and Qubos) and show their applicability and scalability.
2003
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1234
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-12344
https://freidok.uni-freiburg.de/dnb/download/1234
https://freidok.uni-freiburg.de/data/1234
oai:freidok.uni-freiburg.de:1248
2018-06-07T17:07:29Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Symbolic methods for testing digital circuits
Symbolische Methoden für das Testen von digitalen Schaltungen
Keim, Martin
Testen
Datenstruktur
Binäres Entscheidungsdiagramm
Entscheidungsgraph
OBDD
Logische Schaltung
Halbleiterschaltung
Testmuster
Online-Ressource
This study investigates the usability of symbolic methods, realized by Boolean Decision Diagrams (BDDs), in the field of testing both combinational and synchronous sequential digital circuits at gate level.
<br>Both major topics, fault simulation and automated test pattern generation (ATPG), have been examined, among others, like build-in self-test, computing reset sequences for a sequential circuit, identifying uninitializable memory elements, or computing approximations for signal probabilities for sequential circuits.
Das Ziel dieser Arbeit ist die Untersuchung der Frage ob symbolische Methoden im Bereich des Testens von kombinatorischen und synchronen sequentiellen Schaltungen auf Gatterebene erfolgreich eingesetzt werden können. Dabei basiert die symbolische Representation auf den Boolean Decision Diagrams (BDDs).
<br>Es werden Details der jeweiligen Lösungen zu den Gebieten der Fehlersimulation, der Testmustergenerierung und des Selbsttestes vorgestellt. Darüber hinaus werden zwei weitere Routinen, die Resetsequenz Berechnung und die Signalwahrscheinlichkeits-Berechnung, durch symbolische Methoden verbessert.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1248
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-12489
https://freidok.uni-freiburg.de/dnb/download/1248
https://freidok.uni-freiburg.de/data/1248
oai:freidok.uni-freiburg.de:1253
2018-06-07T17:06:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Model driven security from UML models to access control architectures
Modellgetriebene Sicherheit: von UML-Modellen zu Zugriffskontrollarchitekturen
Lodderstedt, Torsten
Rollenbasierte Zugriffskontrolle
Zugriffskontrolle
MDA (Vorgehensmodell)
UML
OCL (Programmiersprache)
Sicherheitsplanung
Computersicherheit
Online-Ressource
We present a new approach to building secure systems. In our approach, which we call Model Driven Security, designers specify system models along with their security requirements and use tools to automatically generate system architectures from the models including complete, configured security infrastructures. In that way, Model Driven Security helps to tightly integrate
<br>security into the software development process. As a result, our approach can
<br>be used to improve both the productivity of the developers of secure software
<br>systems and the quality of the resulting systems.
<br>
<br>Rather than fixing one particular modeling language for this process, we propose a schema for constructing such languages that combines languages for modeling systems with languages for modeling security. Thus the schema allows language designers to leverage expert know-how that is required to define a modeling language for a particular area as well as accompanying methods and tools.
<br>
<br>We present different instances of this schema, which combine different
<br>UML modeling languages with a security modeling language for formalizing
<br>access control requirements. From models in these languages, we automatically
<br>generate access control architectures for distributed applications. The
<br>modeling languages and generation process are semantically well-founded and
<br>are based on an extension of role-based access control. We have implemented
<br>this approach in a prototypical tool that we used to conduct a case study
<br>and report on experiences.
Wir schlagen eine neue Methode zur Entwicklung sicherer Software-Systeme vor. Die Kernidee unserer Methode, die wir Model Driven Security nennen, ist, daß Softwaredesigner IT-Systeme in Modellen spezifizieren, welche auch die gewünschten Sicherheitseigenschaften des Systems beschreiben. Basierend auf diesen Modellen werden dann mit Hilfe von Werkzeugen Systemarchitekturen mit
<br>kompletten und vollständig konfigurierten Sicherheitsmechanismen generiert.
<br>Auf diese Weise ermöglicht Model Driven Security die enge Integration von Sicherheit in den Entwicklungsprozess. Unsere Methode kann daher verwendet werden, um die Produktivität bei der Entwicklung von sicheren Softwaresystemen zu erhöhen und die Qualität der resultierenden Systeme zu verbessern.
<br>
<br>Anstatt eine einzige Modellierungssprache für diesen Prozeß vorzugeben, schlagen wir ein Schema für die Definition solcher Sprachen vor, in welchem Sprachen für die Systemmodellierung mit solchen für die Modellierung von Sicherheitseigenschaften kombiniert werden.
<br>
<br>Wir präsentieren verschiedene Beispiele für die Anwendung dieses Schemas, in welchen UML-basierte Modellierungssprachen mit einer Sprache für die Spezifikation von Zugriffskontrollmodellen kombiniert werden. Wir zeigen außerdem, wie auf der Basis von Modellen in diesen Sprachen Zugriffskontrollarchitekturen für verteilte Systeme generiert werden können. Die Modellierungssprachen und der Generierungsprozess sind semantisch wohl fundiert und basieren auf einer Erweiterung von rollenbasierter Zugriffskontrolle. Wir haben unsere Methode in einem Werkzeug implementiert, welches wir im Rahmen einer Fallstudie angewendet haben, und wir berichten von unseren Erfahrungen.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1253
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-12532
https://freidok.uni-freiburg.de/dnb/download/1253
https://freidok.uni-freiburg.de/data/1253
oai:freidok.uni-freiburg.de:1277
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Annotieren von grafischen Darstellungen auf dem Bildschirm
Annotating graphical representations on the computer screen
Riedewald, Sandra
Grafische Darstellung
Bildschirm
Annotation
Online-Ressource
Jeder von uns, der Dokumente liest und schreibt, ist mit Annotieren vertraut. Annotationen sind sehr kurze, oft rudimentäre oder symbolhafte schriftliche Äußerungen oder kleine Zeich-nungen, die jeweils auf eine bestimmte Stelle in einem Dokument bezogen und in das Dokument integriert sind. Wer beispielsweise während des Lesens unterstreicht oder einkreist, Gliederungszahlen, Symbole oder kurze Bemerkungen an den Rand schreibt - der annotiert. Annotieren gehört zu einem aktiven Lesen von Fachtexten dazu und ist ein wesentlicher Grund dafür, warum Dokumente bevorzugt ausgedruckt anstatt am Bildschirm gelesen wer-den.
<br>Bei der Durchsicht der Literatur fallen einige Dinge auf. (1) Das Thema Annotationen hat seit Mitte der 90er Jahre zunehmendes Interesse gefunden. Es sind eine ganze Reihe unter-schiedlichster Annotationssysteme (Software und Hardware) für verschiedene Anforderungen entstanden, die ein mehr oder weniger komfortables Annotieren, Verwalten und Verteilen von Annotationen ermöglichen. (2) In den theoretischen Betrachtungen und empirischen Studien erscheint der Begriff Annotation nur in Verbindung mit Lesen: beim Lernen aus Texten und beim Korrekturlesen. (3) Annotieren wird nicht in Verbindung mit Problemlösen oder explizit auf grafische Darstellungen bezogen erwähnt. (4) Der Begriff Annotieren wird uneinheitlich verwendet und die Abgrenzung zum Anfertigen von Notizen bleibt unklar.
<br>Mit anderen Worten: Einer vielfältigen und umfangreichen technischen Entwicklung steht eine relativ einseitige sowie wenig systematische theoretische und empirisch-experimentelle Aufarbeitung des Annotierens gegenüber. Es fehlt an theoretischen Überlegungen und empiri-schen Untersuchungen zum Annotieren von grafischen Darstellungen und zum Annotieren beim Problemlösen.
<br>In einem ersten Schritt wird daher geklärt, was eigentlich mit guten Gründen als Annotation bezeichnet werden kann. Dabei wird in einer systematischen Aufarbeitung zum einen der Begriff der Annotation gegen den Begriff der Notiz abgegrenzt. Zum anderen wird Annotieren nicht nur im Kontext von Lesen betrachtet, sondern der Blick auf die allgemeine Nutzung externer Ressourcen erweitert. Dabei stellt sich heraus, dass die umfangreiche Literatur zum Problemlösen mit Hilfe externer Ressourcen und Repräsentationen dem Annotationsbegriff sehr eng verwandte Begriffe und eine Reihe von für Annotationen relevante Untersuchungen über Problemlösen in enger Interaktion mit den Ressourcen der Umwelt enthält - nur, dass der Begriff Annotation nicht dafür verwendet wird.
<br>Die vorliegende Arbeit hat sich daher zum Ziel gesetzt, die Befunde über Annotieren aus verschiedenen Forschungsbereichen systematisch aufzuarbeiten. Insbesondere soll die bisherige Definition von Annotieren, die sich auf das Lesen von Dokumenten beim Lernen und Korrekturlesen beschränkt, auf das Annotieren von grafischen Darstellungen insbesondere beim Problemlösen erweitert werden. Ein wichtiger Anknüpfungspunkt sind dabei frühere Arbeiten über die Interaktion mit grafischen externen Repräsentationen. Grundlage für die Erörterung sind kognitionswissenschaftliche Paradigmen, die die enge Verknüpfung menschlichen Handelns und Denkens mit der Umwelt und mit Werkzeugen betonen.
<br>Welchen Nutzen Annotieren während des Problemlösens mit grafischen Repräsentationen hat, und welche Rolle dabei interindividuelle Unterschiede spielen, ist bisher kaum untersucht worden. Für computerbasiertes Problemlösen fehlen solche Untersuchungen völlig. Die empirische Untersuchung soll diese Lücke schließen.
<br>Eine Bedingung mit freier Annotation (elektronischer Stift mit Grafiktablett, schreiben beliebiger Zeichen/Bemerkungen etc.) und eine Bedingung mit fester symbolischer Annotation (Auswahl von Symbolen per Maus) wurden einer Kontrollbedingung ohne Annotationsmöglichkeit gegenübergestellt. Die Versuchsteilnehmer hatten visuelle Suchaufgaben in einer Baumstruktur (elektronische Schaltkreise) zu bewältigen. Der Versuch wurde als gemischter Speed- und Power-Test durchgeführt. Als Kontrollvariablen wurden die Kapazität des räumlichen Arbeitsgedächtnisses, die Konzentrationsfähigkeit sowie das Studienfach erhoben, als abhängige Variable die Anzahl der korrekten Lösungen. Eine Regressionsanalyse gemäß ALM zeigte eine bessere Leistung in den Experimentalbedingungen. Unerwartet war jedoch, dass Annotieren vor allem den Probanden mit einer höheren Kapazität des räumlichen Ar-beitsgedächtnisses zugute kam.
<br>Zurückblickend auf den Theorieteil endet die Arbeit mit einer Diskussion über die Auswahl des am besten geeigneten Annotationswerkzeuges. Diese Diskussion wird aus einer umfassenden Anwendungsperspektive heraus geführt. Dabei werden zwei Schlüsselkonzepte vorgestellt, die einen wesentlichen Einfluss auf die Nützlichkeit eines Werkzeuges haben: die Werkzeugpalette und das Aufgabenuniversum.
<br>
<br>
Everybody concerned with reading documents is familiar with annotating. Annotations are short, often rudimentary or symbolic written marks or small pictures. Some examples are underlining and circling text or writing short remarks, numbers or symbols like question marks in the margin. Annotations are connected to a special location in the annotated document and are integrated into it. Annotating is a substantial part of active reading and the main reason why people prefer to read printed documents instead of electronic text.
<br>A lot of research has been done on annotating text in the context of learning or proof-reading. And there are also quite a lot of technical systems for more or less comfortable annotating, sharing and managing annotations. On the other hand there seems to be only very little research done on annotating pictures or diagrams or annotating during the problem-solving process. Maybe, annotating is just not important in these contexts. However, our experience tells us that we do annotate pictures. Furthermore diagrams are common in computer-supported learning and problem-solving environments. Since almost every such system offers an extra windows for notes, it raises the question whether an additional opportunity for free annotating is needed. Therefore, the question about annotating pictures is relevant. And it is only at first glance that research on graphical external representations has nothing to say about annotating. Of course, the main topics in that context are graphical versus propositional representations, multiple versus single representations, internal versus external representations and interactive/dynamic versus static representations. But a closer look reveals notions quite similar to the notion of annotation and a significant number of investigations showing the importance of closely interacting with graphical representations during problem-solving.
<br>Hence, this work intends to bring together the work from different research areas relevant for annotating. Especially, the notion of annotation that until now has been defined only for reading documents will be broadened to include annotating pictures and annotating in the course of problem-solving as well. The argument is based on cognitive science paradigms, emphasizing the close link between our thoughts and actions on the one side and our environment and our tools on the other side. The description of some existing technical systems for handwritten annotations and for annotating pictures will complete the theoretical part.
<br>Only a few studies have investigated how useful annotations are during problem-solving with graphical representations for different individuals (and none of these included computer-based annotations). The empirical part of this work is intended to close this gap.
<br>Free annotation (electronic pen with graphic tablet, arbitrary marks) and symbolic annotation (using the mouse, choice of symbols) were compared with a control condition (no annotation possible). The participants had to solve visual search tasks in a tree structure (electronic circuits). The trials were run as a mixed speed and power test. Spatial working memory, a concentration test and the subject’s disciplines were used as control variables, and the number of correct answers as the dependent variable. Regression analysis confirmed an advantage of the annotation conditions over the control condition. Surprisingly, annotating was associated with better performance for the participants with high spatial working memory capacity.
<br>Looking back at the theoretical part, the work closes with a discussion of what tools we should use for annotating in our everyday work. Of course, there is no simple answer to this question, but the notions of a “palette of tools” and “the universe of work places” of a person are introduced as a useful framework for this kind of decision.
<br>
2003
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1277
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-12776
https://freidok.uni-freiburg.de/dnb/download/1277
https://freidok.uni-freiburg.de/data/1277
oai:freidok.uni-freiburg.de:1362
2018-06-07T17:13:42Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Mobile robot navigation in dynamic environments
Navigation mobiler Roboter in dynamischen Umgebungen
Bennewitz, Maren
Mobilität
Robotik
Online-Ressource
Service robots which act in environments populated by humans have
<br>become very popular in the last few years. A variety of systems exists
<br>which act for example in hospitals, office buildings, department
<br>stores, and museums. Furthermore, several multi-robot systems have
<br>been developed for tasks which can be accomplished more efficiently by
<br>a whole team of robots than just by a single robot. These tasks
<br>include surface cleaning, deliveries, and the exploration of unknown
<br>terrain. Whenever teams of mobile robots are operating in the same
<br>environment their motions have to be coordinated in order to avoid
<br>congestions or collisions. At the same time the robots should perform
<br>their navigation tasks in a minimum amount of time. Thus,
<br>sophisticated path planning techniques are needed that fulfill these
<br>requirements. Since the joint configuration space of the robots is
<br>typically huge and grows exponentially with the number of robots,
<br>existing path planning methods for single robot systems cannot
<br>directly be transferred to multi-robot systems.
<br>
<br>Many existing path planning methods for multi-robot systems are
<br>decoupled, which means that they first plan paths for the individual
<br>robots independently. Afterward, they check if the robots would get
<br>too close to each other if the paths were executed. In such a case the
<br>paths are recomputed to avoid these conflicts. Many decoupled methods
<br>assign priorities to the individual robots. These priorities define an
<br>order in which the paths of the robots have to be recomputed. By
<br>computing the path of a robot, the paths of the robots with higher
<br>priority are considered as fixed. This way, the size of the search
<br>space is extremely reduced. Most of the existing prioritized decoupled
<br>methods use a fixed priority scheme (order of the robots). However,
<br>the order in which the paths of the robots are recomputed has a
<br>serious influence on whether a solution can be found at all and on how
<br>efficient the solution is for the overall multi-robot system.
<br>
<br>In the first part of this thesis we present an approach which searches
<br>in the space of all priority schemes to find an order of the robots
<br>for which a solution to the path planning problem can be computed.
<br>During the search, we utilize constraints between the priorities of
<br>the robots which are automatically derived from the task
<br>specification. After an appropriate priority scheme has been found,
<br>our technique tries to improve it by using a hill-climbing strategy.
<br>Our search method can be used to find and optimize paths generated by
<br>any prioritized path-planning technique. In several experiments with a
<br>real-robot system as well as in simulation we show that our approach
<br>produces efficient solutions even for difficult path planning
<br>problems.
<br>
<br>The second part of this thesis is focused on robots acting in
<br>environments populated by humans. These systems can improve their
<br>behavior if they react appropriately to the activities of the
<br>surrounding people and do not interfere with them. In contrast to a
<br>multi-robot path planning system, the future movements of people are
<br>not known. Therefore, the robots have to be able to detect people
<br>with their sensors, to identify them, and to learn their intentions in
<br>order to be able to make better predictions of their future behavior.
<br>In this thesis we present an approach to learn typical motion patterns
<br>of people from sensor data using the EM algorithm. Furthermore, we
<br>describe how the learned patterns can be used to predict future
<br>movements of the people. Afterward, we explain how this knowledge can
<br>be integrated into the path planning process of a mobile robot.
<br>Finally, we introduce a method which automatically derives Hidden
<br>Markov Models (HMMs) from the learned motion models. These HMMs can be
<br>used by a mobile robot to predict the positions of multiple persons
<br>even when they are outside its field of view. To update the HMMs based
<br>on laser-range data and vision information we apply Joint
<br>Probabilistic Data Association Filters. In practice, the robot becomes
<br>uncertain about the positions of people if it does not observe them
<br>for a long period of time. We therefore propose a decision-theoretic
<br>approach to determine observation actions that are carried out while
<br>the robot is executing its tasks. Practical experiments carried out
<br>with our mobile robot demonstrate that our method is able to learn
<br>typical motion patterns of people, that the navigation behavior of the
<br>robot can be improved by predicting the motions of people based on the
<br>learned motion patterns, that the derived HMMs can be used to reliably
<br>maintain a probabilistic belief about the current positions of
<br>multiple persons even if they are currently not in its field of view,
<br>and that our technique generates effective actions that seriously
<br>reduce the uncertainty in the belief about the positions of people.
Service-Roboter, die in von Menschen bevölkerten Umgebungen
<br>agieren, sind in den letzten Jahren immer populärer geworden. Es
<br>existieren schon eine Reihe von Systemen, die beispielsweise in
<br>Krankenhäusern, Bürogebäuden, Kaufhäusern und Museen
<br>eingesetzt werden. Darüber hinaus sind auch verschiedene
<br>Mehrrobotersysteme entwickelt worden, da einige Aufgaben von einem
<br>Team von Robotern effizienter erledigt werden können
<br>als von einem einzelnen Roboter.
<br>
<br>Immer wenn Teams von mobilen Robotern in der selben Umgebung
<br>eingesetzt werden, müssen ihre Bewegungen koordiniert werden, damit
<br>die einzelnen Roboter sich nicht gegenseitig behindern. Außerdem
<br>sollte ihre gemeinsame Aufgabe so schnell wie möglich erledigt werden.
<br>Viele existierende Pfadplanungsmethoden für Mehrrobotersysteme sind
<br>entkoppelt, was bedeutet, dass sie zuerst Pfade für die einzelnen
<br>Roboter unabhängig voneinander planen. Anschließend überprüfen sie, ob
<br>sich die Roboter zu nahe kämen, wenn sie sich entlang dieser Pfade
<br>bewegten. In solchen Fällen werden die Pfade neu berechnet, um diese
<br>Konflikte zu umgehen. Dabei weisen viele entkoppelte Methoden den
<br>einzelnen Robotern Prioritäten zu. Diese geben an, in welcher
<br>Reihenfolge die Pfade neu berechnet werden. Bei der Berechnung des
<br>Pfades für einen Roboter werden dabei die Pfade aller Roboter mit
<br>höherer Priorität als gegeben und unveränderbar angesehen. Auf diese
<br>Weise wird der Suchraum extrem eingeschränkt und die Suche nach einer
<br>Lösung des kombinierten Planungsproblems beschleunigt. Die meisten
<br>existierenden entkoppelten Ansätze benutzen dabei ein festes
<br>Prioritätsschema, d.h. eine feste Ordnung der Roboter. Die
<br>Reihenfolge, in der Pfade berechnet werden, hat jedoch einen großen
<br>Einfluss darauf, ob überhaupt eine Lösung für das kombinierte
<br>Pfadplanungsproblem gefunden werden kann und darauf, wie effizient
<br>diese Lösung für das gesamte Mehrrobotersystem ist.
<br>
<br>Im ersten Teil dieser Dissertation stellen wir einen Ansatz vor, der
<br>in dem Raum aller Prioritätsschemata nach einer Ordnung der
<br>Roboter sucht, für die eine Lösung des Pfadplanungsproblems
<br>berechnet werden kann. Dabei nutzt unser Verfahren Constraints zwischen den Prioritäten der Roboter aus, welche
<br>automatisch von der Aufgabenspezifikation abgeleitet werden. Nachdem
<br>ein geeignetes Prioritätsschema gefunden wurde, versucht
<br>unser Verfahren dieses mithilfe einer Hill-Climbing-Strategie zu
<br>verbessern. Unsere Suchmethode kann für beliebige entkoppelte
<br>Planungsysteme eingesetzt werden. In verschiedenen Experimenten
<br>mit einem realen Mehrrobotersystem sowie in Simulationen zeigen
<br>wir, dass unser Verfahren effiziente Lösungen auch für
<br>komplizierte Pfadplanungsprobleme finden kann.
<br>
<br>Der zweite Teil dieser Dissertation konzentriert sich auf Roboter, die
<br>in von Menschen genutzten Umgebungen eingesetzt werden. Im Gegensatz
<br>zu einem Mehrrobotersystem sind die zukünftigen Bewegungen von
<br>Menschen aber nicht bekannt. Deswegen müssen die Roboter in der Lage
<br>sein, die Menschen mittels ihrer Sensoren wahrzunehmen, zu
<br>identifizieren und ihre Intentionen zu lernen, damit sie bessere
<br>Vorhersagen über das Verhalten der Menschen machen können. In dieser
<br>Dissertation stellen wir eine Technik vor, die typische
<br>Bewegungsmuster von Personen aus Sensordaten mithilfe des
<br>EM-Algorithmus' lernt. Wir beschreiben außerdem, wie die gelernten
<br>Muster dazu benutzt werden können, um potentielle zukünftige
<br>Bewegungen der Personen vorherzusagen. Anschließend erklären wir, wie
<br>dieses Wissen im Pfadplanungprozess eines mobilen Roboters
<br>berücksichtigt werden kann. Danach führen wir eine Methode ein, die
<br>aus den gelernten Verhaltensmustern automatisch Hidden Markov Modelle
<br>(HMMs) ableitet. Diese HMMs können von einem mobilen Roboter benutzt
<br>werden, um die Positionen von mehreren Personen vorherzusagen, auch
<br>wenn sie außerhalb seines Sichtfelds sind. Um die HMMs mithilfe von
<br>Kamera- und Laserdaten zu aktualisieren, wenden wir Joint
<br>Probabilistic Data Association Filter an. In der Regel wird ein
<br>Roboter unsicher über die Positionen von Personen, wenn er sie längere
<br>Zeit nicht beobachtet. Deswegen untersuchen wir auch, wie
<br>entscheidungstheoretisch geeignete Beobachtungsaktionen bestimmt
<br>werden können, welche ausgeführt werden, während der Roboter seine
<br>sonstigen Aufgaben verrichtet.
<br>
<br>Praktische Experimente, die wir mit unserem mobilen Roboter
<br>durchgeführt haben, zeigen, dass unsere Methode typische
<br>Bewegungsmuster von Personen lernen kann, dass das
<br>Navigationsverhalten des Roboters verbessert werden kann, indem er die
<br>gelernten Muster benutzt, um Vorhersagen über die Bewegungen von
<br>Personen zu machen, dass die abgeleiteten HMMs eingesetzt werden
<br>können, um zuverlässig einen probabilistischen Glauben
<br>über die Positionen von mehreren Personen zu behalten, und dass unsere
<br>Technik effektive Aktionen generiert, welche die Unsicherheit des
<br>Roboters über die Positionen von Personen stark reduzieren.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1362
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-13627
https://freidok.uni-freiburg.de/dnb/download/1362
https://freidok.uni-freiburg.de/data/1362
oai:freidok.uni-freiburg.de:1398
2018-06-07T17:13:01Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Kombinatorische integrierte Prefetching- und Cachingalgorithmen für Einzel- und Mehrplattensysteme
Combinatorical integrated prefetching- and cachingalgorithms for single- and multidiscsystems
Büttner, Markus
Algorithmentheorie
Online-Ressource
Prefetching und Caching sind effiziente Strategien, um in Computersystemen die Zugriffsgeschwindigkeit auf langsame Datenträger zu beschleunigen. In dieser Arbeit werden für verschiedene Modelle Prefetching- und Cachingstrategien vorgestellt und analysiert.
Prefetching- and Caching are effizient strategies to improve the performance of discs or other slow memory devices. We consider different models and analyse efficient prefetching- and caching strategies.
2004
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1398
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-13985
https://freidok.uni-freiburg.de/dnb/download/1398
https://freidok.uni-freiburg.de/data/1398
oai:freidok.uni-freiburg.de:1439
2018-06-07T17:15:53Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Automata-based decision procedures for weak arithmetics
Automaten-basierende Entscheidungsverfahren für schwache Arithmetik
Klaedtke, Felix
Automatentheorie
Entscheidungsverfahren
Beschränkte Arithmetik
Online-Ressource
Around forty years ago, mathematicians such as Büchi and Rabin
<br>discovered that automata are a useful mathematical tool for
<br>understanding the decidability of different weak systems of
<br>arithmetic. A prominent example is the weak monadic second-order logic
<br>of one successor, WS1S for short, which is tightly connected to
<br>automata over finite words. Nowadays, automata have also emerged as a
<br>tool for effectively mechanizing decision procedures for such logical
<br>theories. A notable example is Presburger arithmetic for which
<br>effective decision procedures can be built using automata. Despite
<br>the practical use of automata, many research questions in the
<br>automata-based approach to decide weak systems of arithmetic are open.
<br>For instance, both lower and upper bounds on the sizes of the automata
<br>produced by the automata-based approach for deciding Presburger
<br>arithmetic are still unknown.
<br>
<br>This thesis comprises two parts. In the first part, we analyze the
<br>automata-based approach for deciding Presburger arithmetic. We prove
<br>that the number of states of the minimal deterministic finite word
<br>automaton for a Presburger arithmetic formula is triple exponentially
<br>bounded in the length of the formula. This upper bound is established
<br>by comparing the automata for Presburger arithmetic formulas with the
<br>automata for formulas produced by a quantifier elimination method. We
<br>also show that this triple exponential bound is tight. Moreover, we
<br>provide optimal automata constructions for linear equations and
<br>inequations, and present new techniques for mechanizing an
<br>automata-based decision procedure for Presburger arithmetic.
<br>
<br>In the second part of this thesis, we focus on another system of
<br>arithmetic and investigate several decision problems for it. More
<br>precisely, we look at WS1S extended with linear cardinality
<br>constraints of the form |X_1|+...+|X_r|<|Y_1|+...+|Y_s|, where the
<br>X_is and Y_js range over finite sets of natural numbers. We delimit
<br>the boundary between decidability and undecidability for WS1S with
<br>cardinality constraints. Our investigation is based on the fact that
<br>the classical connection between automata and WS1S carries over to a
<br>fragment of the extension of WS1S and finite word automata with an
<br>extended acceptance condition. The extended acceptance condition is
<br>based on a generalization of the commutative image of a word. We
<br>identify a decidable fragment of WS1S with cardinality constraints,
<br>which non-trivially extends WS1S, and give applications for this
<br>decidable fragment.
Mathematiker wie Büchi und Rabin haben vor ungefähr vierzig Jahren
<br>entdeckt, dass Automaten ein nützliches mathematisches Werkzeug sind,
<br>um die Entscheidbarkeit von bestimmten Teilsystemen der Arithmetik zu
<br>verstehen. Ein bedeutendes Beispiel hierfür ist die schwache
<br>monadische Logik zweiter Stufe mit einer Nachfolgerfunktion
<br>(WS1S). Diese Logik steht in engem Zusammenhang mit Automaten über
<br>endlichen Wörtern. Heutzutage werden Automaten auch als Werkzeug
<br>eingesetzt, um Entscheidungsprozeduren für solche logischen Theorien
<br>umzusetzen. Ein erwähnenswertes Beispiel ist die
<br>Presburger-Arithmetik~(PA), für die es leistungsfähige
<br>Automaten-basierte Entscheidungsprozeduren gibt. Trotz des hohen
<br>praktischen Nutzens von Automaten in diesem Gebiet sind viele
<br>Forschungsfragen bezüglich des auf Automaten beruhenden Ansatzes noch
<br>unbeantwortet. Ungeklärt sind zum Beispiel sowohl obere als auch
<br>untere Schranken für die Größe der Automaten, die bei einer auf
<br>Automaten basierenden Entscheidungsprozedur für PA erzeugt werden.
<br>
<br>Die vorliegende Dissertation gliedert sich in zwei Teile. Im ersten
<br>Teil analysieren wir die auf Automaten beruhende Herangehensweise, um
<br>PA zu entscheiden. Wir zeigen, dass die Anzahl der Zustände des
<br>minimalen, deterministischen, endlichen Automaten dreifach
<br>exponentiell in der Länge der PA-Formel beschränkt ist. Wir beweisen
<br>die Existenz dieser oberen Schranke dadurch, dass wir die Automaten
<br>für PA-Formeln mit den Automaten vergleichen, die wir aus PA-Formeln
<br>erhalten, aus denen die Quantoren durch ein
<br>Quantoreneliminationsverfahren entfernt wurden. Des Weiteren zeigen
<br>wir, dass diese obere, dreifach exponentielle Schranke scharf ist.
<br>Darüber hinaus liefern wir optimale Automatenkonstruktionen für
<br>lineare Gleichungen und Ungleichungen und präsentieren neue
<br>Techniken, die es erlauben, eine auf Automaten basierende
<br>Entscheidungsprozedur für PA zu implementieren.
<br>
<br>Im zweiten Teil der Arbeit betrachten wir ein anderes System der
<br>Arithmetik und widmen uns der Untersuchung von mehreren
<br>Entscheidbarkeitsfragen darin. Genauer: Wir erweitern WS1S um lineare
<br>Kardinalitätsvergleiche der Form
<br>|X_1|+...+|X_r|<|Y_1|+...+|Y_s|. Hierbei sind die X_i und Y_i
<br>Variablen zweiter Stufe, die durch endliche Mengen natürlicher Zahlen
<br>interpretiert werden. Wir zeigen die Grenze zwischen Entscheidbarkeit
<br>und Unentscheidbarkeit in diesem System auf. Unsere Untersuchung von
<br>Entscheidbarkeitsfragen beruht auf der Übertragung der bekannten
<br>Beziehung zwischen WS1S und endlichen Automaten. Wir führen dazu einen
<br>neuen Akzpetanzbegriff für Automaten ein, der auf dem kommutativen
<br>Bild von Wörtern basiert. Das sich daraus ergebende erweiterte
<br>Automatenmodell entspricht hinsichtlich der Ausdrucksmächtigkeit, wie
<br>wir zeigen, einem Fragment von WS1S mit Kardinalitätsvergleichen.
<br>Schließlich beweisen wir die Entscheidbarkeit eines Fragments von WS1S
<br>mit Kardinalitätsvergleichen und zeigen Anwendungen für eben dieses
<br>Fragment auf.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1439
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-14395
https://freidok.uni-freiburg.de/dnb/download/1439
https://freidok.uni-freiburg.de/data/1439
oai:freidok.uni-freiburg.de:1459
2018-06-07T17:02:20Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Untersuchung zum Teilnehmernutzen von Vorausschauen
Benefits for foresight participants, an examination
Pechmann, Agnes
Technologie
Prognose
Nutzen
Teilnehmer
Online-Ressource
Technikvorausschauen dienen der Orientierung und als Grundlage von zukunftsbezogenen Entscheidungen in den Bereichen Politik, Wirtschaft und Gesellschaft. Als Partizipationsverfahren ist die Vorausschau auf die Teilnahme von kompetenten Experten, zum großen Teil Naturwissenschaftlern und Ingenieure, angewie¬sen. Von dem Wissen der Teilnehmer und ihrem Engagement hängt im großen Maße die Qualität der Ergebnisse ab. Durch diese Voraussetzung ist es notwendig, die Motivation der Teilnehmer für die Vorausschau zu sichern. Dieser Punkt wird noch durch den Umstand verstärkt, dass die Teilnehmer i.d.R. keinen finanziellen Ausgleich für ihren Einsatz bekommen. Insofern stellt sich die Frage, ob Vorteile bzw. Nutzen, die sich durch die Teilnahme an der Vorausschau ergeben, als alleinige Motivation für eine Teilnahme in Frage kommen. Ausgehend von diesem Hintergrund wurde in dieser Arbeit versucht, den (möglichen) Teilnehmernutzen bei Vorausschauen zu beleuchten. Es wurde zum einen untersucht, welchen Nutzen Vorausschauexperten für die Teilnehmer sehen und zum anderen welche Er¬wartungen die Teilnehmer selbst von Vorausschauen bezüglich ihrer Teilnahme hegen und wel¬chen Nutzen sie, aus ihrer eigenen Sicht, tatsächlich erfahren. Die Untersuchung basiert zum einen auf einer Lite¬raturstudie und zum anderen auf einer, auf einem Fallbeispiel beruhenden, fünfwelligen Panelanalyse als Primärerhebung. Der Schwerpunkt der Untersuchung wird dabei auf die Erwartungen und den Nutzen aus Teilnehmersicht gelegt.
<br>Das 2001/2 durchgeführte Four Motors Foresight Projekt Baden-Württemberg (FoMoFo) diente als Fallbeispiel.
<br>Ergänzend zu der Literaturstudie und der auf dem FoMoFo-Fall basierenden Untersu¬chung wurden als Ergänzung drei zusätzliche Untersuchungen mit einbezogen: eine Umfrage zur „Regional Foresight Association“, eine Umfrage zu Erwartungen der Teilnehmer des eForesee-Projektes (Malta) und einige Aspekte aus der Evaluierung der oberösterreichischen Clusterinitativen.
<br>
Technology Foresight is used for orientation and as an information base for future-oriented decisions in the area of politics, economy and society. As a participatory process it is dependent on qualified experts, willing to share their knowledge during the process. For this reason it is eminent, that the motivation to participate in foresight needs to be secured and if possible supported. To do so, one must know if the foresight process provides benefits to its participants, if yes, whether they are of motivating character to the participants, what the participants themselves expect as benefits, and what benefits they experience from there point of view. The examination is based on a literature survey, a case study including a panel analysis and three other surveys. The case study is based on the Four Motors Foresight Project Baden-Wuerttemberg (FoMoFo). During this project the foresight participants were interviewed regarding their motivation to participate in this exercise and how useful it appeared to them for their own business and private purposes. For the interviews a panel design with five rounds was used.
2003
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1459
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-14599
https://freidok.uni-freiburg.de/dnb/download/1459
https://freidok.uni-freiburg.de/data/1459
oai:freidok.uni-freiburg.de:1632
2018-06-07T17:10:38Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Mapping with mobile robots
Kartenbau durch mobile Roboter
Hähnel, Dirk
Zustandsschätzung
Autonomer Roboter
Mobiler Roboter
Online-Ressource
Today, mapping is largely considered the most difficult perceptual
<br>problem in robotics. Different problems like the statistical
<br>dependence, the correspondence problem, or dynamic elements makes
<br>mapping so hard. The basic technique for mapping is incremental scan
<br>matching. We present a method, which maximizes the likelihood of a
<br>scan, given a motion model and the map built so far. This approach is
<br>the constitutive techniques for further methods which addresses
<br>special topics of the previous described problems. In this thesis we
<br>describe following methods:
<br>
<br>We present a technique which combines a people tracker in the mapping
<br>process to filter measurements caused by walking people. Additional
<br>to the fact that maps contains less spurious objects, the accuracy of
<br>the results can be increased.
<br>
<br>We present a second technique which is able to filter measurements
<br>caused by dynamic objects. This time dynamic objects are not limited
<br>to walking persons, every dynamic object can be filtered out if the
<br>place of this object was seen as both: as free space as well as
<br>occupied space. An EM-technique is used to optimize the mapping
<br>results and in several practical experiments we will show that this
<br>approach can effectively filter beams of different dynamic objects
<br>like humans, cars etc.
<br>
<br>A famous problem in mapping is the so called closing loop problem.
<br>When closing the cycle, the robot has to find out where it is relative
<br>to its previously built map. This problem is complicated by the fact
<br>that at the time of cycle closing, the robot's accumulated pose error
<br>might be unboundedly large. We describe an efficient version of the
<br>Rao-Blackwellized mapping approach. Using a Rao-Blackwellized
<br>particle filter is a good techniques for estimating the posterior. In
<br>combination with the scan matching technique we can decrease the
<br>number of particles, so that it can be executed online.
<br>
<br>The Rao-Blackwellized mapping approach suffers from the inherent
<br>problem of all particle filters: the particle depletion problem. We
<br>present a new algorithm for data association in SLAM. In essence, our
<br>approach searches the combinatorial tree of possible data association
<br>decisions. The search is lazy: only when an alternative assignment
<br>shows promise will it be evaluated. We tested our approach, and
<br>consistently found that it produces accurate maps, even if for maps
<br>with many large cycles.
<br>
<br>It can be difficult to distinguish places with data from range sensors
<br>as measurements can look the same at different positions. RFID tags
<br>have to nice property to be unique, they can report their
<br>identification numbers which are easy to distinguish. Unfortunately
<br>they don't provide any distance information, so that estimating the
<br>location of the RFID tags is a difficult problem. We present an
<br>approach to generate maps of RFID tags with mobile robots. We present
<br>a sensor model that allows us to compute the likelihood of tag
<br>detections given the relative position of the tag with respect to the
<br>robot. Additionally we describe how to compute a posterior about the
<br>position of a tag after the trajectory and the map is generated with a
<br>highly accurate Rao-Blackwellized mapping algorithm for laser range
<br>scans.
<br>
<br>We propose a technique for simultaneous scan registration and scan
<br>deformation for modeling nonrigid objects. The deformation is made
<br>possible through the definition of (soft) links between neighboring
<br>scan points, whose configuration is calculated during registration.
<br>To tackle the resulting optimization problem efficiently, we describe
<br>a hierarchical optimization techniques that operate on thinned graphs.
<br>Experimental results obtained using a mobile robot illustrate the
<br>viability of this approach.
<br>
<br>Finally, we present two examples for complete systems which are able
<br>to map their environment. The first system designed to autonomously
<br>explore and acquire 3D maps of abandoned mines is a 1,500 pound
<br>vehicle, nicknamed "Groundhog". The core of the Groundhog navigation
<br>system is comprised of a software package that solves the SLAM problem
<br>by acquiring 2D maps. Our research demonstrates that the autonomous
<br>acquisition of maps of abandoned mines is indeed feasible with
<br>autonomous robotic systems. The second system is an instrumented
<br>helicopter platform for 3D ground modeling. A real-time algorithm is
<br>developed that integrates pose estimates from multiple sensors with
<br>range data, acquired by a 2D laser range finders oriented
<br>perpendicular to the vehicle's flight direction. The algorithm uses a
<br>fast optimization technique to generate maps in real-time.
Einer der entscheidenden Faktoren bei der Konstruktion eines
<br>vollständig autonomen mobilen Roboters ist das Erstellen von Karten.
<br>Diese Arbeit bietet Lösungsmöglichkeiten für unterschiedliche
<br>Fragestellungen, die beim Kartenbau auftreten. Üblicherweise
<br>beinhalten Karten nur die Beschreibungen von statischen Objekten in
<br>der Umgebung, wie zum Beispiel Wände, Gebäude oder Straßen.
<br>Dynamische Elemente, umhergehende Menschen oder ähnliches sind im
<br>Allgemeinen nicht erwünscht. Ziel ist es daher, die Messungen, die
<br>durch diese dynamischen Objekte verursacht werden, zu erkennen und zu
<br>filtern. Neben der Reduzierung von unerwünschten Gegenständen in der
<br>Karte kann dadurch auch die Genauigkeit der Karte erhöht werden. In
<br>zahlreichen Experimenten wird demonstriert, dass die gefundenen
<br>Methoden effektiv Messungen von diversen dynamischen Objekten, wie zum
<br>Beispiel von Personen oder Autos detektieren und filtern können. Der
<br>inkrementelle Vergleich von Abstandsbildern, das so genannte
<br>"Incremental Scan Matching", ist ein elementarer Bestandteil vieler
<br>hier gezeigter Ansätze. Diese Methode ermöglicht die Korrektur
<br>lokaler Fehler und erlaubt die Erzeugung örtlich konsistenter Karten.
<br>Kleinere Ungenauigkeiten in der Positionsbestimmung können sich
<br>allerdings über die Zeit akkumulieren, und es kann daher leicht
<br>passieren, dass eine globale Inkonsistenz eintritt, sobald ein vorher
<br>gesehener Bereich wieder betreten wird. Eine weitere Schwierigkeit
<br>beim Kartenbau ist demzufolge häufig das korrekte Schließen von
<br>Zyklen. Hierbei muss der Roboter den akkumulierten Positionsfehler
<br>erkennen und korrigieren, auch wenn dieser Fehler erheblich sein
<br>sollte. Für diese Problematik werden zwei unterschiedliche Lösungen
<br>vorgestellt. Die Erste basiert auf dem Einsatz von Rao-Blackwellized
<br>Partikelfiltern, der allerdings die Notwendigkeit von erheblichen
<br>Berechnungen impliziert. Es wird gezeigt, dass durch eine Kombination
<br>mit dem vorgenannten Scan Matching, eine Realisierung in Echtzeit
<br>möglich wird. Daneben wird ein Verfahren vorgestellt, das
<br>Kartenabschnitte kombinatorisch verwaltet und Beziehungen zwischen den
<br>Abschnitten nachträglich ändern kann, sofern ein Fehler erkannt wird.
<br>In Experimenten wird gezeigt, dass mit Hilfe dieser Methoden Karten
<br>von Umgebungen mit zahlreichen, auch verschachtelten, Schleifen
<br>erstellt werden können. Neben des Problems der Erstellung von
<br>geometrischen Karten werden in der vorliegenden Arbeit Techniken zur
<br>Ermittlung von Position und Form einzelner Objekte vorgestellt. Zur
<br>eindeutigen Identifizierung der Objekte werden in der Praxis
<br>RFID-Systeme immer populärer. Die genaue Ortung der so genannten
<br>RFID-Marken ist jedoch schwierig, da sie ihrerseits keine
<br>Abstandsinformationen liefern und der Detektionsbereich der Antennen
<br>mehrere Meter betragen kann. Es wird ein Verfahren gezeigt, das mit
<br>Hilfe von mobilen Robotern detaillierte Karten dieser RFID-Marken
<br>erstellt. Eine andere Technik ermöglicht es, aus Teilansichten eines
<br>deformierbaren Objekts ein komplettes Modell zu generieren. Zur
<br>Berechnung der Deformation werden die genauen Konfigurationen von
<br>beweglichen Verbindungen zwischen benachbarten Messpunkten
<br>herangezogen. Um das resultierende Optimierungsproblem zu
<br>vereinfachen, wird eine hierarchische Darstellung benutzt.
<br>Experimentelle Resultate zeigen die Realisierbarkeit des Ansatzes.
<br>Schließlich werden, als Anwendungen der dargestellten Techniken, zwei
<br>komplexe Systeme vorgestellt, die in der Lage sind, autonom ihre
<br>Umgebung zu modellieren. Das erste System, das entwickelt wurde, um
<br>dreidimensionale Karten von stillgelegten Minen zu erstellen, ist ein
<br>800 kg schwerer Roboter mit dem Namen "Groundhog". Das
<br>Basisnavigationssystem beinhaltet ein Softwarepaket, das das Problem
<br>des Kartenbaus mittels zweidimensionaler Karten löst. Daneben wurde
<br>ein mit unterschiedlichen Sensoren ausgestatteter Modellhelikopter
<br>entwickelt, der eine dreidimensionale Karte eines Geländes erzeugen
<br>kann. Ein zweidimensionales Lasermesssytem, das senkrecht zur
<br>Flugrichtung orientiert ist, erlaubt es, in Echtzeit diese Karten zu
<br>generieren.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1632
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-16326
https://freidok.uni-freiburg.de/dnb/download/1632
https://freidok.uni-freiburg.de/data/1632
oai:freidok.uni-freiburg.de:1657
2018-06-07T17:18:55Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Multimediale Informationssuche in Vortrags- und Vorlesungsaufzeichnungen
Multimedia information search in presentation and lecture recordings
Hürst, Wolfgang
Information Retrieval
Online-Ressource
Der vermehrte Einsatz von Systemen zur automatischen Vortrags- und Vorlesungsaufzeichnung führt sehr schnell zu einer immensen Datenmenge. Für eine gewinnbringende Nutzung der damit erstellten Dokumente sind daher komfortable, flexible und zuverlässige Verfahren zum Zugriff auf und zur Suche in aufgezeichneten Vorträgen zwingend erforderlich. Dieser Arbeit beschäftigt sich mit der Frage, wie die Informationssuche eines Benutzers in aufgezeichneten Vorträgen unterstützt werden kann. Dabei stehen zwei spezielle Arten der Informationssuche im Mittelpunkt: Zum einen die Suche durch Anfrageverarbeitung, bei der ein Anwender eine Anfrage an ein System stellt, welches ihm daraufhin eine Liste von Dokumenten liefert, die für diese Anfrage relevant sind; zum anderen die Suche durch Browsing, bei der der Benutzer selbst aktiv wird und eine Menge von Dokumenten oder ein einzelnes Dokument auf eine bestimmte Information hin durchsucht.
<br>
<br>Im Zusammenhang mit der Suche durch Anfrageverarbeitung wird zunächst darauf eingegangen, ob und wie eine Suche im aufgezeichneten Sprachsignal möglich ist. Ferner werden verschiedene Studien vorgestellt, bei denen die Suche im Audiostrom mit der Suche im Whiteboard-Strom, der die Folien eines Vortrags enthält, verglichen wird und gegenseitige, für die Suche relevante Wechselbeziehungen zwischen beiden Strömen untersucht werden.
<br>
<br>An eine Suchanfrage schliesst sich meist eine Suche durch Browsing an, da Suchmaschinen in der Regel nie ein völlig "exaktes" Ergebnis liefern. Daher muss ein System den Benutzer dabei unterstützen, für ihn in einer bestimmten Situation relevante Dokumente identifizieren zu können und die entsprechenden Daten auszufiltern. Neben der Frage, wie die Ergebnisse einer Suche hierfür bestmöglich repräsentiert werden können, wird hier vor allem darauf eingegangen, wie sich ein interaktives, zeitabhängiges Browsing der kontinuierlichen Medien "Whiteboard-Strom" und "Audio-Strom" realisieren lässt. Dabei werden neue Schnittstellenkonzepte und Interaktionsmechanismen vorgestellt, die eine interaktive Navigation in den Daten ermöglichen.
This thesis deals with the question, if and how a system can support a user who is searching for information in a database containing recorded lectures and presentations. Two kinds of search techniques are addressed: First, search via query processing, where the user sends a query to a system which then returns a list of relevant documents. Second, search via browsing, where the user actively skims the data in search for information. In relation to search via query processing, we first address the question if and how search in the speech signal can be done. In addition, several studies are presented where a search done in the whiteboard stream (which contains the slides used in a lecture) is compared to a search in the speech signal. Relationships between both signals are analyzed in respect of their influence on the search result.
<br>
<br>Search engines generally do not just return relevant data but also documents which might be irrelevant for a particular user in a specific situation. Therefore, searching via query processing is usually followed by some sort of browsing. In the second part of this thesis we address the question if and how a system can support a user in this filtering process by offering flexible and intuitive techniques for multimedia data browsing. First, different approaches for static browsing are discussed. Here, continuous, time-dependent multimedia signals are represented through a static, time-independent representation of the data. Then, different techniques for dynamic browsing are introduced where a user can actively skim through visual as well as acoustic data streams along the time line. Different usability evaluations are presented which prove the feasibility of the proposed approaches and their usefulnes for information search in multimedia data.
2005
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1657
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-16578
https://freidok.uni-freiburg.de/dnb/download/1657
https://freidok.uni-freiburg.de/data/1657
oai:freidok.uni-freiburg.de:1779
2018-06-07T17:41:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Erzeugung und Wiedergabe zeitabhängiger und inhaltsverzweigter Datenströme
Creation and replay of time-dependent and content branching data streams
Lienhard, Jochen
Datenstrom
Online-Ressource
Die Frage nach zeitlicher und inhaltlicher Synchronisierung von Medienströmen ist Thema dieser Arbeit. Das Erzeugen und Abspielen von Vorlesungsaufzeichnungen, die mit privaten Annotationen angereichert sind, dienen als Motivation. Neben einem generischen Modell für die Problemstellung wird auch eine praktische Realisierung durch das Multi-Layer Prinzip erläutert. Ausgehend von Überlegungen, wie man den Medienbruch zwischen der digitalen und der Papier-Stift basierten Welt überbrücken könnte, wurde ein Verfahren entwickelt, um diese Kluft zu überwinden. Die Umsetzung dieser Theorie erweitert das Authoring-on-the-Fly Prinzip.
The subject of this work is the question about time-dependent and content sensitive synchronization of media streams. The creating and replaying of lecture recordings enriched with private annotations is the base motivation. Beside a generic model for the problem a practical realisation using the multi-layer concept is discussed. Based on the considerations, how to solve the break of media between digital and pen-based world, there was developed a method to bridge this claft. The implementation of this theory extends the Authoring-on-the-Fly principle.
2005
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1779
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-17791
https://freidok.uni-freiburg.de/dnb/download/1779
https://freidok.uni-freiburg.de/data/1779
oai:freidok.uni-freiburg.de:1780
2018-06-07T17:17:28Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Query equivalence and containment on relational and tree databases
Das Query Containment Problem auf relationalen und baumstrukturierten Datenbanken
Wei, Fang
Datenbanksystem
ERRGND
XML
Online-Ressource
The query containment problem is to check if the answer set of one query is always a subset of another query for any given database. Algorithms for query containment are crucial in several contexts in databases. <br><br>As far as the query containment problem is concerned, various algorithms and complexity results can be obtained, depending on the following three factors:<br>the query language,<br>whether some constraints are considered,<br>the structure of the database.<br><br>In this work, we address the query containment problem from the above three different aspects by giving algorithms and complexity results.
Das ,,Query Containment'' Problem handelt von der "Überprüfung der Teilmengenrelation zweier Ergebnismengen die von zwei Anfragen an eine beliebige Datenbank resultieren.<br><br>Algorithmen zur Lösung des ,,Query Containment'' Problems spielen eine wichtige Rolle inerhalb verschiedenster Teilbereiche von Datenbanken.<br><br>Das ,,Query Containment'' Problem kann im Wesentlichen unter den folgenden drei Kriterien betrachtet werden:<br>die Anfragesprache,<br>die Berücksichtigung von Constraints,<br>die Struktur der Datenbank.<br><br>In der vorliegenden Arbeit werden unter Berücksichtigung dieser drei Kriterien, Algorithmen und Komplexitätsangaben für das "Query Containment" Problem vorgestellt.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1780
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-17805
https://freidok.uni-freiburg.de/dnb/download/1780
https://freidok.uni-freiburg.de/data/1780
oai:freidok.uni-freiburg.de:1795
2018-06-07T17:16:37Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Laserstrahlverfahren zur Fertigung kristalliner Silizium-Solarzellen
Laserbeam processes for the production of crystalline silicon solar cells
Schneiderlöchner, Eric
Laser
Solarzelle
Fertigung
Automation
Online-Ressource
Die von Eric Schneiderlöchner verfasste Arbeit "Laserstrahlverfahren zur Fertigung kristalliner Silizium-Solarzellen" beleuchtet ausgehend vom Stand der Technik den Einsatz von Laserstrahltechnologien in der industriellen Fertigung von Siliziumsolarzellen.
<br>Insbesondere werden erstmals Einsatzmöglichkeiten für Festkörperlasersysteme mit Spiegelscannern zur kostensenkenden Produktion von Siliziumwafer - Solarzellen aufgezeigt. Im Vergleich zu den in der Vergangenheit untersuchten Laseranlagen mit motorischen Achsen zur Waferpositionierung erlaubt die direkte Strahlpositionierung im Falle von oberflächennahen Strukturierungen höhere Prozessgeschwindigkeiten.
<br>Zur besseren Beurteilung der Eignung von Laserstrahlverfahren in der industriellen Solarzellenfertigung wird weiterhin aufgezeigt, welche zentralen Randbedingungen und zukünftigen Entwicklungen in der Solarzellenproduktion berücksichtigt werden müssen.
<br>Die patentierte "Laser - Fired Contacts (LFC)" - Technologie zielt auf die Steigerung des Wirkungsgrads industriell gefertigter Solarzellen durch die großtechnische Umsetzung eines hocheffizienten, dielektrisch passivierten Rückseitenkontakts für Solarzellen. Die im Rahmen der Arbeit entwickelte Laser-Prozesstechnologie ermöglicht die Ausbildung der hierfür benötigten Kontaktpunkte durch einzelne Laserpulse eines gütegeschalteten Festkörperlasers in knapp 1,5 bis 2,3 Sekunden.
<br>Anhand von SNMS - Messungen sowie EBIC - Untersuchungen an LFC - kontaktiertem Silizium konnte nachgewiesen werden, dass eine Aluminium p+ - Dotierung in der Kontaktzone erzielt wird. Diese p+ - Dotierung führt zur Ausbildung eines lokalen Aluminium Rückseitenfeldes (L-Al-BSF), wodurch der Kontaktwiderstand reduziert wird. Zusätzlich wird durch das L-Al-BSF die effektive Oberflächenrekombinationsgeschwindigkeit (ORG) der Rückseite im Vergleich zur Standard-PERC Solarzelle mit aufgedampften Kontakten abgesenkt. Damit bietet die LFC - Technologie im Vergleich zu alternativen Verfahren wie der Photolithographie oder dem mechanischen Öffnen der dielektrischen Schicht nicht nur eine vorteilhafte Prozessführung, sondern sie erlaubt auch die Realisierung höherer Wirkungsgrade.
<br>Eine Verbiegung oder Aufwölbung der Wafer, wie sie von Siliziumsolarzellen mit ganzflächigem Aluminiumrückseitenfeld (Al-BSF) bekannt ist, tritt bei der LFC - Technologie, auch bei 40 µm dünnen PERC - Solarzellen, nicht auf. Dies stellt einen wichtigen prozesstechnischen Vorteil für die zukünftig prognostizierte Verarbeitung von weniger als 200 µm dünnen Siliziumwafern dar. Auch die überlegenen elektrischen und optischen Eigenschaften der LFC - Rückseite konnten vom Autor anhand von 12,5 x 12,5 cm² großen LFC-Solarzellen mit Siebdruckvorderseite aufgezeigt werden. Auf 170 µm dünnen, 1 Ohmcm FZ-Solarzellen mit Oxid-passivierter Rückseite und Laser-gefeuerten Kontakten wurden 17,1 % Wirkungsgrad erzielt, im Vergleich zu 16,4 % mit ganzflächigen siebgedruckten Al-BSF.
<br>
<br>Das zweite im Rahmen der Promotionsarbeit von Herrn Schneiderlöchner entwickelte Laserstrahlverfahren behandelt die Problemstellung der Kantenisolation von Siliziumsolarzellen. Mit Hilfe dieses ebenfalls an einem Lasersystem mit Spiegelscanner entwickelten Prozesses zur Laserkantenisolation (LKI), kann eine kostengünstige und effiziente Alternative zum bislang industriell eingesetzten "Plasmaätzen im Stapel" kurzfristig etabliert werden. Durch die Einbringung eines Lasergrabens entlang der Kante der Solarzelle wird ein im Verlauf des Herstellungsprozesses ausgebildeter elektrischer Kurzschluss zwischen Vorder- und Rückseite der Solarzelle unterbrochen. Die sich daraus ergebenden Vorteile sind insbesondere die Verbesserung des Materialflusses und die Einsparung der kostenintensiven Ätzgase.
<br>Die durchgeführten Untersuchungen belegen, dass bei geeigneter Wahl der Laserparameter und Einbringen des Lasergrabens von der Vorderseite Solarzellen mit hervorragendem Parallelwiderstand über 10 kW cm² hergestellt werden können. Anhand von thermographischen Untersuchungen wurden weiterhin lokal begrenzte Störungen im Bereich der Waferkante nachgewiesen, aufgrund derer die Laserkantenisolation von der Rückseite nur unzureichende Parallelwiderstände realisiert.
<br>An 125 x 125 mm² großen, multikristallinen Solarzellen aus den Produktionslinien der 'Deutschen Cell GmbH' aus Freiberg und der "ErSol AG" aus Erfurt wurde in umfangreichen Versuchen die industrielle Tauglichkeit des entwickelten LKI - Prozesses erprobt. Dabei konnten mit Hilfe der LKI von der Vorderseite im Mittel gleiche Füllfaktoren (± 1 %) und Wirkungsgrade (± 0,5 %) erzielt werden wie mittels des industriell eingesetzten Plasmaätzens.
<br>
<br>Sowohl das "Laser-Fired Contacts" - Verfahren als auch die Laserkantenisolation belegen erstmals das hohe Umsetzungspotential von Laserbeschriftungsanlagen mit Spiegelscannern für die Fertigung von Silizium-Wafer-Solarzellen.
<br>
Eric Schneiderlöchner's thesis "Laser Beam Technologies for the Production of Crystalline Silicon Solar Cells" is an overview on the field of application of laser beam technologies in industrial production of silicon solar cells.
<br>Particularly the potential of solid state lasers featuring a scanning mirror head to cheapen the production of silicon solar cells is demonstrated for the first time. Compared to laser systems having electrically driven axes for wafer positioning, the direct beam positioning by scanning mirrors allows higher process speeds in case of near surface applications.
<br>For a more detailed evaluation of laser beam technologies in an industrial environment it is presented, which main constraints and future developments in industrial solar cell production have to be considered. Thus, it gets evident that laser beam processes for selective production steps show the highest potential for industrial implementation.
<br>The patented "laser-fired contacts (LFC)" technology aims for an efficiency increase by means of transfering a high efficiency passivated rear electrode concept into industrial production. The developed laser process technology now allows the implementation of the herefor needed contact points by single laser pulses of a q switched solid state laser in just 1.5 to 2.3 seconds.
<br>By means of SNMS-measurements and EBIC-examinations of LFC contacted silicon it could be proven that an aluminium p+ doping is realised in the laser contact region. This p+ doping helps in reducing the contact resistance as well as in lowering the effective rear surface recombination velocity. Therefore the LFC-technology benefits compared to other competing technologies not only from its very easy, fast and stable laser processing, it furthermore also allows higher solar cell efficiencies.
<br>A bending or warping of the wafers as known from the full area screen-printed aluminium back surface field contact does not appear when using the LFC-technology even on 40 µm thin solar cells. This is a main technical advantage especially in future when processing silicon wafers thinner than 200 µm. Furthermore the LFC-rear structure's superiour electrical and optical properties could be demonstrated on 12.5 x 12.5 cm² solar cells with screen-printed front contacts. On 170 µm thin, 1 Ohmcm float zone silicon solar cells having an oxide-passivated rear and laser-fired contacts an efficiency of 17.1 % has been realised compared to 16.4 % of the reference solar cells having a screen-printed aluminium back surface field rear contact.
<br>
<br>The second laser beam process discussed by Mr. Schneiderlöchner in his thesis deals with the edge isolation of silicon solar cells. The developed laser edge isolation process can be seen as a cost effective alternative to the industrially used plasma etching and has been optimised on a solid state laser system with scanning mirrors as well. Even more important, the laser edge isolation process could be established already in the near future.
<br>By laser ablating a groove alongside the edge of a solar cell the diffused electrical connection between front and rear electrode of the solar cell is cut through. Productive advantages compared to the plasma etching are especially the better material flow and that there is no need for costive etching gases and their disposal.
<br>Optimised laser process parameters allow the production of solar cells having a very good shunt resistance as high as 10 kW cm². In extensive experiments on industrially processed 12.5 x 12.5 cm² solar cells the industrial feasibility of the developed laser edge isolation process could be demonstrated successfully. In cooperation with two German solar cell manufacturers, "Deutsche Cell GmbH, Freiberg" and "ErSol AG, Erfurt" it could be shown, that in average the same fill factors (± 1 %) and efficiencies (± 0.5 %) are reached as with the industrial plasma etching reference process.
<br>The optimised laboratory laser process uses a beam velocity of 130 mm / s resulitng in less than 4 seconds process time for a 12.5 x 12.5 cm² solar cell. When transferring the process to state of the art Nd:YVO4 laser beam sources having pulse peak powers of more than 20 kW at 30 kHz pulse repetition rate, even a significant reduction of the process time is expected.
<br>
<br>Recapitulating it can be stated, that in present circumstances and the ongoing developments in industrial solar cell production laser beam technologies seem to be well suited to reduce the production costs of silicon solar cells. This is especially true when processing thin silicon wafers. In connection to this the laser-fired contact technology as well as the laser edge isolation document for the first time the high implementation potential of laser systems with scanning mirror head when they are used for the production of silicon solar cells.
<br>
2004
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1795
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-17959
https://freidok.uni-freiburg.de/dnb/download/1795
https://freidok.uni-freiburg.de/data/1795
oai:freidok.uni-freiburg.de:1804
2018-06-07T17:36:28Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Towards decentralized recommender systems
Dezentrale Empfehlungssysteme
Ziegler, Cai-Nicolas
Information Retrieval
Maschinelles Lernen
Online-Ressource
Automated recommender systems make product suggestions that are tailored
<br>to the human user's individual needs and represent powerful means to combat
<br>information glut. However, their practical applicability has been largely confined to scenarios where all information relevant for recommendation making
<br>is kept in one single, authoritative node.
<br>
<br>Recently, novel distributed infrastructures are emerging, e.g., peer-to-peer and
<br>ad-hoc networks, the Semantic Web, the Grid, etc., and supersede classical
<br>client/server approaches in many respects. These infrastructures could likewise
<br>benefit from recommender system services, leading to a paradigm shift
<br>towards decentralized recommender systems.
<br>
<br>In this thesis, we investigate the challenges that decentralized recommender
<br>systems bring up and propose diverse techniques in order to cope with those
<br>particular issues. The spectrum of methods proposed ranges from the employment
<br>of product classification taxonomies as powerful background knowledge,
<br>alleviating the sparsity problem, to trust propagation mechanisms designed
<br>to address the scalability issue. Empirical investigations on the correlation of
<br>interpersonal trust and interest similarity provide the component glue that
<br>melds these results together and renders the eventual creation of a decentralized recommender framework feasible.
<br>
<br>While these building bricks, namely taxonomy-driven filtering, topic diversification, and the Appleseed trust metric, are vital for the conception of our trust-based decentralized recommender, they are also valuable contributions
<br>in their own right, addressing issues not only confined to the universe of decentralized recommender systems.
Automatisierte Recommender-Systeme berechnen Produktvorschläge, welche
<br>genau auf die Interessen und Bedürfnisse ihrer Benutzer zugeschnitten sind
<br>und stellen somit exzellente Mittel dar, um der stetig wachsenden Informationsflut Herr zu werden. Allerdings sieht sich deren praktische Einsetzbarkeit bis dato weithin auf Szenarien beschränkt, bei denen man alle für die zur Berechnung von Empfehlungen relevante Information als in einem einzigen
<br>Knoten gekapselt annehmen konnte.
<br>
<br>Seit einigen Jahren nehmen verteilte Infrastrukturen, wie zum Beispiel Peer-to-
<br>Peer und Ad-Hoc Netzwerke, das Semantic Web, der Grid etc., immer
<br>deutlichere Konturen an und ersetzen klassische Client/Server-Modelle bereits
<br>in vielerlei Hinsicht. Diese Infrastrukturen könnten gleichwohl von den
<br>von Recommender-Systemen bereitgestellten Diensten profitieren und somit
<br>einen Paradigmenwechsel hin zu dezentralisierten Recommender-Systemen
<br>einläuten.
<br>
<br>Im Rahmen dieser Dissertation untersuchen wir zunächst die neuen Herausforderungen, denen es sich im Hinblick auf die Konzeption dezentraler
<br>Recommender-Systeme zu stellen gilt, und schlagen diverse neue Ansätze
<br>vor, mit deren Hilfe man speziell jene Probleme zu bewältigen vermag. Das
<br>Spektrum der vorgestellten Methoden reicht dabei von der Verwendung von
<br>mächtigen Taxonomien zur Klassifikation von Produkten zwecks künstlicher
<br>Verdichtung der Daten, bis hin zu Vertrauensmetriken, die entworfen wurden,
<br>um Fragen der Skalierbarkeit derartiger Systeme zu lösen. Empirische Untersuchungen bezüglich der Korrelation interpersonellen Vertrauens und Interessengleichheit stellen den Mörtel dar, welcher jene einzelnen Bausteine zusammenfügt und die schlussendliche Realisierung eines exemplarischen Frameworks für dezentrale Recommender-Systeme ermöglicht.
<br>
<br>Während die angesprochenen Bausteine, im namentlichen Taxonomie-basiertes
<br>Filtern, Topic Diversification und die Appleseed Vertrauensmetrik, notwendige
<br>Komponenten für die Konzeption eines auf sozialem Vertrauen basierten,
<br>dezentralen Recommender-Systems darstellen, so sind diese gleichermaßen
<br>wichtige wissenschaftliche Beiträge per se und auch außerhalb der Fragestellung
<br>"Dezentrale Recommender-Systeme" von praktischer Relevanz.
2005
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1804
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-18041
https://freidok.uni-freiburg.de/dnb/download/1804
https://freidok.uni-freiburg.de/data/1804
oai:freidok.uni-freiburg.de:1843
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
On change in length of stay associated with an intermediate event: estimation within multi-state models and large sample properties
Zur Änderung der Aufenthaltsdauer nach einem intermediären Ereignis: Schätzung innerhalb von Mehrstadienmodellen und Eigenschaften für große Stichproben
Beyersmann, Jan
Biostatistik
Hospitalismus (Hygiene)
Ereignisdatenanalyse
Online-Ressource
This thesis is on the impact of an intermediate on a terminal event.
<br>More precisely, it is concerned with quantifying such an impact in
<br>terms of (expected) change in length of stay until occurrence of the
<br>terminal and associated with the intermediate event. Essentially, we
<br>treat the situation as a random time interval problem, with length of
<br>the time interval (possibly zero) equal to the time spent in the
<br>intermediate state. We suggest and study functionals quantifying
<br>change in length of stay. Our approach applies quite generally to
<br>functionals summarizing the impact of an intermediate on a terminal
<br>event.
Diese Arbeit behandelt die Auswirkung eines intermediären auf ein
<br>terminales Ereignis. Genauer: Ziel ist es, die Auswirkung mittels der
<br>(erwarteten) Änderung der Aufenthaltsdauer bis zum Eintreten des
<br>terminalen und nach Eintreten des intermediären Ereignisses zu
<br>quantifizieren. Unser wesentlicher Ansatz ist es, diese Situation als
<br>ein zufälliges Zeitintervall-Problem zu beschreiben, dessen Länge
<br>(möglicherweise Null) der Aufenthaltsdauer im intermediären Zustand
<br>entspricht. Wir schlagen Funktionale vor, die die Änderung der
<br>Aufenthaltsdauer quantifizieren, und analysieren diese. Unser Ansatz
<br>ist allgemein geeignet zur Behandlung von Funktionalen, die die
<br>Auswirkung eines intermediären auf ein terminales Ereignis
<br>zusammenfassend beschreiben.
2005
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1843
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-18439
https://freidok.uni-freiburg.de/dnb/download/1843
https://freidok.uni-freiburg.de/data/1843
oai:freidok.uni-freiburg.de:1886
2018-06-07T17:21:00Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Methoden zur Konstruktion invarianter Merkmale für die Texturanalyse
Methods for the construction of invariant features for texture analysis
Schael, Marc
Bildverarbeitung
Mustererkennung
Texturanalyse
Online-Ressource
Oberflächen von Gegenständen der realen Welt sind in der Regel mit sichtbaren Strukturen belegt, die sich in der Variation von Intensität und Wellenlänge des reflektierten Lichtes äußern. In der Erscheinung inhomogene Objektregionen werden gemeinhin als Texturen bezeichnet und repräsentieren eine intrinsische Eigenschaft des Objekts resp. der Objektoberfläche. Für viele Bereiche des maschinellen Sehens ist es wesentlich, Objekttexturen, die sich i.a. formal nicht beschreiben lassen, analysieren zu können. Schwierigkeiten bei der Analyse der Texturen bereiten, neben einer fehlenden formalen Beschreibung, die nicht normierten Aufnahmebedingungen der Oberflächen bei der Bildakquirierung. Verfahren der Texturanalyse müssen gegenüber variierender Aufnahmebedingungen und den daraus resultierenden Transformationen auf die Bildsignale invariant sein. Ein Großteil der konventionellen Ansätze der Texturanalyse erfordern normierte Aufnahmebedingung, was deren breite Einsatzfähigkeit einschränkt.
<br>
<br>In dieser Arbeit werden Methoden hergeleitet, die es ermöglichen, Merkmale für die Texturanalyse zu konstruieren, die invariant gegenüber geometrischen und grauwertbasierten Transformationen sind. Dabei beschränkt sich der verfolgte Ansatz auf die Analyse von Grauwertbildern planarer Oberflächentexturen, die sich parallel und in konstanter Distanz zur Kameraebene befinden. Die hergeleiteten Texturmerkmale sind invariant in Bezug auf die Euklidische Bewegung in der Ebene (Rotation und Translation in 2D) und streng monoton steigenden Grauwerttransformationen. Um dies zu erreichen, wurden zwei Ansätze kombiniert: die Mittelung über die 2D Euklidische Transformationsgruppe und die Verwendung relationaler Kernfunktionen, die auf der Fuzzy-Theorie basieren.
<br>
<br>Es konnte gezeigt werden, daß die in dieser Arbeit hergeleiteten Methoden zur Konstruktion invarianter Texturmerkmale sich für zwei typische Anwendungen der Texturanalyse, die Texturdefektdetektion und die Texturklassifikation, vorteilhaft einsetzen lassen. Durch ihre Invarianzeigenschaften sind die Texturmerkmale besonders für Problemstellungen der Texturanalyse geeignet, bei denen keine optimalen Bedingungen für die Bildakquirierung herzustellen sind. D.h., durch die Verwendung der Texturmerkmale sind beliebige Orientierungen der Texturvorlage und eine variierende Beleuchtung bei der Aufnahme der Textur zulässig. Es sind keine Lagenormierung der Textur und Korrektur der Beleuchtung als Vorverarbeitungsschritte notwendig. Auch entfallen aufwendige Trainingsphasen des Klassifikators mit umfangreichen Bildmengen transformierter Texturbilder, die ansonsten bei Verwendung von Texturmerkmalen ohne die genannten Invarianzeigenschaften notwendig wären.
<br>
<br>
Object surfaces of the real world have visible structures which reflects light in varying intensity and wave length. Object regions which are inhomogeneous in their appearance are generally known as textures. These textures are intrinsic properties of the object and object surface, respectively. For many areas of Computer Vision it is essential to analyse the object textures, which can be seldom formally described. Due to the lack of a formal description of textures and not normalised image acquiring conditions texture analysis is difficult. Texture analysis methods have to deal with varying image acquiring conditions and the resulting transformations of the image signals. Many of the known approaches of texture analysis do require normalised image acquiring conditions, which reduces their usability.
<br>
<br>In this work we derive methods for the construction of texture analysis features which are invariant w.r.t. geometrical and intensity based transformations. The approach is limited to the analysis of grey scale images of planar object surface texures, which are in parallel to the camera plane. The features are invariant w.r.t. Euclidean motion in the plane (rotation and translation in 2D) and stricly monotonic increasing grey scale transformations. To archieve this invariance properties two methods were combined: the integration of the 2D Euclidean group and relational kernel functions, which are based on the Fuzzy theory.
<br>
<br>Two typical problems of the texture analysis were used to analyse the performance of the texture features: the texture defect detection and the texture classification. For both applications the experimental results reveal the excellent performance of the new invariant features. The methods are particularly suitable for texture analysis problems where no normalised image acquiring conditions can be guaranteed. Thus, free orientation and varying lighting of the object surface are possible. No normalisation of the texture and no shading correction of the image signals have to be performed. Additionally no costly trainings of the classifier with huge amounts of transformed images are necessary.
<br>
<br>
2005
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1886
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-18862
https://freidok.uni-freiburg.de/dnb/download/1886
https://freidok.uni-freiburg.de/data/1886
oai:freidok.uni-freiburg.de:1918
2015-04-29T10:21:49Z
pub-type:master_thesis
ddc:004
has-source-swb:true
hasFile:true
Multi-State models for the long-term prognosis of breast cancer
Meier-Hirmer, Carolina
Brustkrebs
Ereignisdatenanalyse
Modellierung
Wahrscheinlichkeitstheorie
Schätzung
Zensierte Stichprobe
Online-Ressource
Typically in oncological trials, after the appearance and the remission of the first diagnosed tumour, the patients are at risk of recurrence and death.
<br>The objective of this diploma thesis is to use multi-state models to capture the influence of the first isolated locoregional tumour recurrence (ILRR), i.e. the appearance of a local or regional recurrence before the diagnosis of distant failure or death, on disease development in breast cancer patients. The specific model used by Schmoor (2000) is embedded in the general context of multi-state models. The calculations and results presented here are based on the data from this article.
<br>The prognostic significance of the ILRR of breast cancer has been subject of several investigations and controversial discussions. One opinion is that recurrences restricted to the same breast would not alter the prognosis of these patients. In this case the effect of the ILRR would be only transitory, and has to be considered as time-dependent.
<br>In other articles, however, it is often suggested that the ILRR is a predictor of the disease development, especially for the appearance of metastases. Under this hypothesis, the effect of the ILRR would be a constant increase of the risk of death. Some authors even argue that uncontrolled local disease may not only be an indicator, but also a source of distant metastases. The discussion is far from being over.
<br>
<br>This work tries to bridge between statistic theory and practical application. We will concentrate on the disability model or illness-death model to model the disease development of breast cancer. We will also investigate different underlying distributions of the stochastic process that describes the multi-state model and examine the effect of different additional covariates on the transition hazards and the stage occupation probabilities. We also include time-varying covariates to investigate whether the occurrence of the ILRR has a time-varying effect.
<br>
<br>Chapter 2 introduces classical survival analysis whereas chapter 3 gives the definition of multi-state models, presents different state structures that can be used to model long-term effects in breast cancer and classifies the underlying processes. Known theoretical results, which are necessary for the calculations within multi-state models, will be presented s well.
<br>Chapter 4 describes the implementations and the calculations carried out and chapter 5 presents existing literature for multi-state models and recurrences in breast cancer. In chapter 6 we will discuss the results and explain what are the difficulties and the advantages of the multi-state framework. The results will be compared to those in the literature. To conclude, a few topics for further research will be presented.
<br>
<br>Based on our data we find that the ILRR must be modeled time-dependently. The occurrence of a recurrence increases the risk of death. If the recurrence arises early after the first diagnosis, the risk increases even more. The risk decreases after a successful treatment of the ILRR, but remains on a high level.
<br>
<br>For the estimation of the underlying probability densities of the multi-stages model the lognormal distribution shows good results. The famous Cox model gives similar results, but it requires the non-parametric estimation of the baseline hazard. The number of positive lymph nodes is the most important prognostic factor. The probability densities clustered by the number of positive lymph nodes, seem to go along with medical knowledge. A large number of concerned lymph nodes increases death probability, with or without ILRR. In addition, it increases the risk of getting a recurrence.
<br>For the computation of transition probabilities, parametric models, such as the lognormal model, are easier to handle. As they give - in our case – similar results to these of the Cox model, we can justify their use. When the transition hazards are examined one by one, parametric models may be based on hypothesis, which cannot be justified.
<br>
<br>Multi-State models are an extension of classical survival analysis. In addition to the interpretation of the hazards for every event, they allow computing transition probabilities for the entire model, i.e. for the entire disease development. For the computation of these probabilities all transition hazards are used. At fixed time, the distribution of the states is regarded. This informs about the disease process. Since the whole disease is observed, a transition hazard effects several transition probabilities. The interaction of all hazard functions, which determines the trend of the process, can be computed and interpreted using the presented methods for Multi-State models.
Die vorliegende Diplomarbeit beschreibt die Anwendung von Mehr-Stadien Modellen auf onkologische Daten. Die Berechnungen von Schmoor (2000), die den Einfluß eines lokalen oder regionalen Rezidivs (ILRR) auf den weiteren Krankheitsverlauf bei Brustkrebspatienten beschreiben, werden in ein Mehr-Stadien Modell eingebettet. Auf dem in dieser Veröffentlichung benützten Datensatz beruhen alle Berechnungen dieser Arbeit.
<br>Welche prognostischen Faktoren sich auf den Krankheitsverlauf von Brustkrebs auswirken und auch der Einfluß des lokoregionären Rezidivs sind keineswegs unumstritten. Immer wieder greifen medizinische Veröffentlichungen dieses Thema auf, die Ergebnisse sind zum Teil widersprüchlich. Ob ein lokoregionäres Rezidiv ein Indiz für einen sich ausbreitenden Krebs ist, oder ob nach der erfolgreichen Entfernung des Rezidivs kein zusätzliches Risiko besteht, ist nicht befriedigend geklärt. Auch die Auffassung, daß ein Rezidiv der Auslöser für Fernmetastasen sein kann, wird vertreten. Oft werden die Auswertungen in diesen Artikeln vereinfacht, indem auf eine zeitabhängige Modellierung des Einflusses des ILRR verzichtet wird. Diese Arbeit versucht, eine Brücke zwischen einer statistischen Methode und der praktischen Anwendung zu schlagen.
<br>
<br>Kapitel 2 gibt eine kurze Einführung in die klassische Überlebenszeitanalyse. Kapitel 3 stellt Mehr-Stadien Modelle vor, die zur Modellierung von Krebserkrankungen verwendet werden können und definiert die den Modellen zugrunde liegenden Prozesse. Kapitel 4 beschreibt die durchgeführten Berechnungen und enthält die Ergebnisse. Kapitel 5 führt beispielhaft existierende Literatur zu Brustkrebserkrankung mit Rezidiv und zu Mehr-Stadien Modellen auf.
<br>Kapitel 6 enthält eine Diskussion der Ergebnisse. Ein Ausblick auf weitere Modellierungsmöglichkeiten wird gegeben.
<br>
<br>Basierend auf unseren Daten schließen wir, daß das ILRR zeitabhängig modelliert werden muß. Das Auftreten eines Rezidivs erhöht das Risiko, zu versterben. Tritt das Rezidiv früh nach der Ersterkrankung auf, erhöht dies das Risiko zusätzlich. Das Risiko nimmt nach einer erfolgreichen Behandlung des ILRR wieder ab, bleibt aber insgesamt auf einem höheren Niveau.
<br>
<br>Bei der Schätzung der zu den Mehr-Stadien Modellen gehörenden Aufenthaltswahrscheinlichkeiten zeigte die lognormale Verteilung gute Ergebnisse. Das weit verbreitete Cox Modell lieferte ähnliche Ergebnisse, hier besteht aber das Problem der nichtparametrischen Schätzung der zugrundeliegenden Hazardfunktion.
<br>Die Anzahl der positiven Lymphknoten ist der wichtigste prognostische Faktor. Die Aufenthaltswahrscheinlichkeiten gesplittet nach der Anzahl der positiven Lymphknoten, scheinen mit dem medizinischen Wissen übereinzustimmen. Eine große Anzahl von betroffenen Lymphknoten erhöht allgemein die Wahrscheinlichkeit zu versterben, mit oder ohne ILRR. Sie erhöht zusätzlich das Risiko, ein Rezidiv zu bekommen. Diese letzte Interpretation beruht auf den geschätzten Regressionsparametern des Cox Modells. Die Aufenthaltswahrscheinlichkeiten liefern diesbezüglich keinen Hinweis. Die Wahrscheinlichkeit im Zustand ILRR zu verbleiben, ist so gering, daß sie bezüglich der Anzahl der betroffenen Lymphknoten nicht zu unterscheiden sind. Eine geringe Aufenthaltswahrscheinlichkeit erhält man, wenn das betreffende Ereignis selten eintritt oder ein sehr schneller Übergang in nachfolgende Stadien stattfindet. Dies ist beim ILRR der Fall.
<br>Bei der Berechnung von Aufenthaltswahrscheinlichkeiten, sind parametrische Modelle einfacher zu handhaben. Da sie in unserem Fall gleiche Ergebnisse wie das Cox-Modell geliefert haben, ist diese Vereinfachung der Modelle gerechtfertigt. Betrachtet man jedoch die Übergangshazards einzeln, machen parametrische Modelle möglicherweise nicht zu rechtfertigende Vereinfachungen.
<br>
<br>Mehr-Stadien Modelle sind eine Erweiterung der klassischen Überlebenszeitanalyse. Sie erlauben es, zusätzlich zur Betrachtung der Hazards einzelner Ereignisse, auch Aufenthaltswahrscheinlichkeiten für das gesamte Modell, d.h. für die gesamte Krankheitsentwicklung zu berechnen. Zur Berechnung dieser Aufenthaltswahrscheinlichkeiten werden alle Übergangshazards verwendet. An einem bestimmten Zeitpunkt wird die Verteilung der Zustände betrachtet. Dies gibt Aufschluß über den Krankheitsverlauf. Da der ganze Krankheitsverlauf betrachtet wird, hat ein Übergangshazard Auswirkungen auf mehrere Aufenthaltswahrscheinlichkeiten. Die Zusammenwirkung der Hazardfunktionen, die dann den Verlauf des Prozesses bestimmen, kann mit Hilfe der vorgestellten Methoden für Mehr-Stadien Modelle berechnet und interpretiert werden.
2002
eng
master_thesis
pdf
free
https://freidok.uni-freiburg.de/data/1918
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-19184
https://freidok.uni-freiburg.de/dnb/download/1918
https://freidok.uni-freiburg.de/data/1918
oai:freidok.uni-freiburg.de:2053
2018-06-07T17:14:30Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Robust recovery of piled box-like objects in range images
Robuste Rückgewinnung von gestapelten kistenähnlichen Gegenständen in Tiefenbildern
Katsoulas, Dimitrios
Entladung
Roboterarm
Tiefenbild
Bildsegmentierung
Maschinelles Sehen
Online-Ressource
This work addresses the vision-guided, robotic bin-picking problem, in the context of which a number of piled objects, should be localized, grasped and transferred by a robotic hand from the position they reside, to a specific place defined by the user. We deal in particular with the depalletizing problem according to which deformable box-like objects piled on a rectangle platform, the {\it pallet}, should be unloaded. The requirement of a robust system for dealing with this problem stems from almost all industrial sectors, and is expected to substantially reduce the costs associated with product handling and distribution.
<br>
<br>From the hardware point of view, our system comprises a six degrees-of-freedom industrial robotic arm, on the hand of which a laser sensor is mounted for data acquisition. Besides, a vacuum gripper is mounted on the hand of the robot for object grasping. The object removal process is as follows: Firstly, the top side of the object configuration is scanned by linearly moving the robotic hand along the pallet, and a range image is acquired. Secondly, the image is analyzed and the graspable objects in the pile are localized. Thirdly, the robot grasps the recovered objects from their exposed surfaces and places them at a user defined position. This procedure is executed iteratively, until no objects lie on the pallet.
<br>
<br>This thesis mainly focuses on the object localization or recovery process, that is, the way in which given a range image the position and dimensions of the objects is determined. Our strategy for object recovery is model based, uses geometric parametric entities for object modeling, and has two aspects, in both of which, in addition to the input range image a boundary image obtained by the former by means of edge detection is employed. Firstly, globally deformable superquadrics are used for modeling our target objects. The object recovery is posed as an optimization problem, in the context of which given the input range image, the posterior probability of the parameters of all graspable objects in the pile is maximized. Our approach extends the recover-and-select paradigm, the most widespread framework for superquadric recovery from range images, since it incorporates object boundary information into the recovery process. This is the main reason why our approach outperforms the recover-and-select framework in terms of both computational efficiency, and robustness.
<br>
<br>Secondly, the boundary of the exposed surfaces of the target objects is modeled as a three dimensional rectangle. The Hough transform is employed to recover the target objects from the boundary image of the object configuration. The seemingly difficult problem of recovering three dimensional rectangles is straightforwardly solved by decomposing the Hough transform into two problems of lower dimensionality: The pose of the objects is recovered, followed by the recovery of their dimensions. This results to a computationally efficient framework.
<br>
<br>The decision on which strategy should be adopted for object recovery depends on the rigidity of the objects. The latter strategy does not account for object deformations, but it is faster than the former. Hence, if we know beforehand that the configuration comprises rigid boxes only, the latter strategy is used and in every other case, the former. Experimental results demonstrate that the resulting robotic system exhibits a variety of advantages such as robustness, flexibility, accuracy, and computational efficiency, the combination of which cannot be found in any existing system up to our knowledge.
Diese Arbeit befasst sich mit dem robotergestützten "bin-picking" Problem, bei dem eine Anzahl Objekte unterschiedlicher Abmessungen, Oberflächenstruktur und Art automatisch erkannt, ergriffen und von einer Palette (rechteckigen Unterlage), auf der sie liegen, zu einem bestimmten benutzerdefinierten Ort transportiert werden müssen. Im Speziellen beschäftigen wir uns mit dem Problem der Entpallettierung, bei dem die Palette deformierbare kistenähnliche Objekte enthält. Der Bedarf für zuverlässige und allgemein einsetzbare automatische Entpalettierungssysteme besteht vor allem in der Automobil- und Nahrungsmittelindustrie. Automatische Entpalettierungssysteme sind von großer Bedeutung, da sie eine Aufgabe ausführen, die für Menschen sehr monoton, anstrengend und manchmal auch gefährlich ist. Zusätzlich kann die zuverlässige und schnelle Umsetzung von der Ausgangspalette zur Zielposition (Palette, Fließband, usw.) die logistischen Abläufe in der Industrie und der Lagerhaltung deutlich beschleunigen, wodurch viel Zeit und Arbeit gespart und die Kosten gesenkt werden.
<br>
<br>Für die Handhabung der Objekte benutzen wir einen Industrieroboter mit sechs Freiheitsgraden auf dessen Greifer ein Lasersensor zur bildlichen Erfassung der Stapel angebracht ist. Ein Vakuumgreifer, der ebenfalls am Roboter montiert ist, wird benutzt um die erkannten Objekte an ihren sichtbaren Oberflächen zu greifen. Der Entpalletierungsprozess besteht aus drei Teilen: Erstens, die Oberseite des Stapels wird gescannt, und ein Tiefenbild wird gewonnen. Zweitens, das Bild wird analysiert, und die greifbaren Objekte im Stapel werden lokalisiert. Drittens, der Roboter greift die lokalisierten Objekte von ihrer sichtbaren Oberfläche, und liegt Sie zu einer benutzerdefinierten Position. Dieser Prozess ist iterativ durchgeführt, bis die Palette entleert ist.
<br>
<br>Diese Dissertation richtet sich besonderes auf das Objektlokalisierungsproblem. Unsere Strategie für Objektlokalisierung ist modelbasiert. Sie verwendet geometrische parametrische Einheiten zur Objektmodellierung, und besteht aus zwei Aspekten, jede von denen im Zusatz zum Inputtiefenbild ein Kantenbild, das durch einen Kantengewinnungsprozess erhalten ist, benutzt wird: Erstens, global deformierbare Superquadriken werden zur Objektmodellierung verwendet. Objektlokalisierung ist als Optimierungsproblem gestellt, bei dem, ein Tiefenbild gegeben ist, die a-posteriori Wahrscheinlichkeit der Parameter aller greifbaren Objekte maximiert wird. Unser Verfahren erweitert "Recover-and-select"den weit verbreiteten Ansatz zur Rückgewinnung von Superquadriken in Tiefenbilder, weil es sowohl Tiefeninformation als auch Kanteninformation berücksichtigt. Das ist der Hauptgrund warum unser Verfahren den "Recover-and-select" sowohl an Robustheit als auch an Effizienz übertrifft.
<br>
<br>Zweitens, der Rand der sichtbaren Oberflächen der Zielobjekte ist als drei-dimensionales Rechteck modelliert. Die Houghtransformation wird verwendet zur Lokalisierung der Zielobjekte im Kantenbild. Das schwierige Problem der Rückgewinnung drei-dimensionaler Rechtecken ist gelöst durch die Zerlegung der Houghtransformation in zwei Probleme von geringer Dimensionalität: Die Lage der Objekte wird zuerst berechnet, und danach ihre Dimensionen. Der größte Vorteil dieses Ansatzes ist seine Effizienz.
<br>
<br>Die Entscheidung welcher Ansatz benutzt werden soll, hängt davon ab in wie fern die Objekte starr sind. Die zweite Strategie berücksichtigt keine Objektdeformationen, ist aber schneller als die erste. Infolgedessen, wenn wir wissen dass der Stapel nur starre Kisten enthält, wird die zweite Strategie verwendet, und sonst die erste. Experimentelle Ergebnisse beweisen dass das resultierende System eine Vielfalt von Vorteilen zeigt, zum Beispiel Flexibilität, Robustheit und Effizienz. Die Kombination dieser Vorteile kann in existierenden Systemen nicht gefunden werden.
2004
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2053
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-20530
https://freidok.uni-freiburg.de/dnb/download/2053
https://freidok.uni-freiburg.de/data/2053
oai:freidok.uni-freiburg.de:2096
2018-03-15T10:03:53Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Development of an efficient 3-D CFD software to simulate and visualize the scavenging of a two-stroke engine
Entwicklung einer effizienten 3-D CFD Software zur Simulation und Visualisierung des Spülvorgangs eines Zweitaktmotors
Trescher, Dirk
Zweitaktmotor
Numerische Strömungssimulation
Kurzschlussstrom
Navier-Stokes-Gleichung
Finite-Volumen-Methode
Parallelisierung
Online-Ressource
The two-stroke engine is widely used in many different devices. But the environmentally problematic exhaust characteristic is a big drawback of this type of engine. In the scavenging process, when the fresh charge displaces the exhaust gas in the cylinder, lies the biggest opportunity to improve the exhaust data by geometry optimization.
<br>Therefore, we developed a software package to efficiently simulate the three-dimensional, time-dependent, Navier-Stokes equations within the complex, real-world geometry of the two-stroke engine with moving piston and rotating crankshaft. Due to the high temperature in the cylinder after combustion, a temperature dependent treatment of the material constants is necessary.
<br>Adaptive local time-stepping and dynamic local mesh adaption, as well as parallelization of the code, are used to speed up the computation time considerably.
<br>The software has been extensively validated and has been applied to the problem of short-circuiting in two-stroke engines.
Der Zweitaktmotor wird in einer großen Anzahl von Geräten eingesetzt. Aber die umweltbelastenden Abgaswerte sind ein großer Nachteil von dieser Art Motor. Im Spülvorgang, bei dem das Frischgas das Abgas im Zylinder verdrängt, liegt die größte Möglichkeit, die Abgaswerte durch Geometrieoptimierung zu verbessern.
<br>Daher haben wir ein Softwarepacket entwickelt, welches die dreidimensionalen zeitabhängigen Navier-Stokes Gleichungen in der komplexen realen Geometrie eines Zweitaktmotors mit sich bewegendem Kolben und rotierender Kurbelwelle effizient simuliert. Durch die hohen Temperaturen im Zylinder nach der Verbrennung wird eine temperaturabhängige Betrachtung der Materialkonstanten notwendig.
<br>Adaptive lokale Zeitschrittweiten und dynamische lokale Gitteradaption, sowie eine Parallelisierung des Codes beschleunigen die Ausführungszeit erheblich.
<br>Die Software wurde ausgiebig validiert und auf das Problem der Kurzschlussströmung eines Zweitaktmotores angewendet.
2005
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2096
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-20960
https://freidok.uni-freiburg.de/dnb/download/2096
https://freidok.uni-freiburg.de/data/2096
oai:freidok.uni-freiburg.de:2303
2018-06-07T17:35:01Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Constrained mining of patterns in large databases
Muster-Entdeckung in großen Datenbanken unter Einschränkungen
Lee, Sau Dan
Data Mining
Großes Datenbanksystem
Online-Ressource
A theoretical framework is introduced to model data mining problems as the answering of queries in inductive databases. Inductive queries are requests to find out patterns in a database satisfying certain user-specified constraints. Through the analysis of the answer sets to inductive queries composed from anti-monotonic and monotonic basic predicates using Boolean operators, interesting properties, such as dimension'', are found, which are useful for query optimization. The concept of version spaces has been extended to generalized version spaces'' to encapsulate such answer sets. Generalized version spaces are closed under the usual set operations, thus providing the closure property akin to relation algebra. This generic theoretical framework has been applied to various application domains and various algorithms and optimization techniques have been devised to make use of the theoretical results to efficiently answer queries to inductive databases. Experiments show that these techniques are applicable.
In dieser Arbeit wird eine Theorie eingeführt, die die Data-Mining-Probleme als das Antworten auf Anfragen zu induktiven Datenbanken modelliert. Induktive Anfragen sind Anfragen über Muster in einer Datenbank, die die vom Benutzer angegebenen Bedingungen (Constraints) erfüllen. Analysiert werden Antwortmengen auf induktive Anfragen, die aus antimonotonen und monotonen Basisprädikaten mit Boolean-Operatoren gebildet sind. Dadurch werden interessante Eigenschaften, wie z.B. die Dimension, entdeckt, die nützlich zur Optimierung der Beantwortung der Anfragen sind. Das Konzept der "Version Spaces"' wird erweitert zu "Generalized Version Spaces"', um die Antwortmengen zu beschreiben. Diese Generalized Version Spaces sind unter den Mengenoperationen abgeschlossen. Daher bilden sie, analog zu relationaler Algebra, eine abgeschlossene Hülle. Die Theorie wurde auf verschiedene Probleme angewandt. Außerdem ermöglichte sie die Herleitung effizienter Algorithmen und Optimierungstechniken zur Berechnung der Antwortmengen. Empirische Untersuchungen belegen die theoretischen Ergebnisse so wie die praktische Relevanz dieser Theorie.
2005
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2303
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-23036
https://freidok.uni-freiburg.de/dnb/download/2303
https://freidok.uni-freiburg.de/data/2303
oai:freidok.uni-freiburg.de:2349
2018-06-08T11:42:51Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Online packet buffering
Kompetitive Analyse von Online-Algorithmen zur Pufferung von Datenpaketen in Rechnernetzwerken
Schmidt, Markus
Randomisierter Algorithmus
Online-Algorithmus
Greedy-Algorithmus
Effizienter Algorithmus
Diskrete Optimierung
Online-Ressource
This thesis treats several buffering problems that occur in routers or switches of computer networks. We develop and investigate algorithms for temporary data packet buffering, where information about the packets is not completely known in advance, but arrives by and by over time. In the classical approach of designing algorithms, all data are assumed to be known in advance. However, in practical applications, this assumption often does not hold. It may happen that decisions on a process must be made although information about this process is still incomplete. For such scenarios, online algorithms, which are able to make decisions without complete knowledge on the input, are used. A well-known example of an online problem is makespan minimization in job scheduling.
<br>
<br>In order to measure how well it copes with the difficulty of incomplete knowledge about the input, we compare an online algorithm to an optimal offline algorithm that knows the whole input sequence in advance. In a competitive analysis, we determine the competitive ratio of the online algorithm, which is defined to be the asymptotic worst case ratio between the profit of the
<br>optimal offline algorithm and the profit of the online algorithm, where if the online algorithm is randomized, i.e. if it makes random decisions, the expected profit of the online algorithm is considered.
<br>
<br>In computer networks, data is nowadays interchanged between several computers by means of data packets where the data packets are forwarded by routers on their way from their origin computer to their destination computer. Since data traffic
<br> may be bursty and packet loss is wished to be kept small, routers are equipped with buffers where packets can be stored temporarily. In this thesis, we first investigate routers having several input and output ports. The packets arriving at the input ports are to be transmitted via the output ports, where the forwarding of each packet results in the same profit. Then, we consider routers at which the transmission of different packets may result in different profits where we are only paid if the packet is forwarded within a given deadline. The puffers in the routers are of bounded capacity. We consider different scenarios in each of which the goal is to forward as many packets as possible.
<br>
<br>In the case of several input and output ports, each output port is equipped with a distinct buffer for the different input ports. At each time step, an arbitrary number of packets arrive. They are appended to the buffers if space permits. At each output port, only one packet from the buffers assigned can be transmitted.
<br>
<br>We investigate deterministic online algorithms for the multiqueue problem and derive lower bounds for greedy and other deterministic algorithms. Moreover, we show that a modified (semi-)greedy algorithm has a better competitive ratio than the greedy algorithm itself and analyze the performance of online algorithms that are granted more resources than the optimal offline algorithm they are compared to. We consider resource augmentation with respect to memory and speed.
<br>Eventually, we present an optimal offline algorithm with a linear running time.
<br>
<br>The analysis of randomized online algorithms for the multiqueue buffering problem starts by discussing a randomized lower bound for arbitrary buffer sizes. We then show how to generalize algorithms for unit buffers, which can store only one packet per queue, to arbitrary buffers without increasing their competitive ratio. First, we investigate an online algorithm that tosses a multisided coin in every time step, whereas, therafter, we consider a randomized online algorithm that makes all random decisions in advance and then acts like a deterministic algorithm.
<br>
<br>Finally, we discuss the bounded delay buffering problem for weighted packets in a single queue. After deducing a randomized lower bound, we investigate two different greedy algorithms and show that their competitive ratios differ.
<br>Eventually, we consider the special case that there are only two packet values and present both lower and upper bounds.
Diese Dissertation befasst sich mit Online-Algorithmen zur Pufferung von Datenpaketen in Rechnernetzwerken. Online-Algorithmen sind Algorithmen, denen zur Findung einer Lösung eines Problems nicht bereits zu Beginn alle Eingaben vorliegen, sondern denen diese erst im Laufe der Zeit nach und nach bekannt gegeben werden. Somit müssen Online-Algorithmen Entscheidungen treffen, ohne vollständige Kenntnis über die Eingabedaten zu haben. In der Praxis kommen solche Situationen häufig vor, z.B. bei der Minimierung der Produktionsspanne in der Zeitablaufsteuerung.
<br>
<br>Um zu messen, wie gut er bei der Lösung eines Problems die Schwierigkeit unvollständiger Kenntnis der Eingabe meistert, wird ein Online-Algorithmus mit einem optimalen Offline-Algorithmus verglichen, dem die Eingabe von Beginn an vollständig vorliegt. Hierzu wird der kompetitive Faktor des Online-Algorithmus bestimmt, der definiert ist als das schlechtestmögliche Verhältnis zwischen dem Profit des optimalen Offline-Algorithmus und dem Profit des Online-Algorithmus. Handelt es sich um einen randomisierten Online-Algorithmus, d.h. der Online-Algorithmus verwendet Zufallsentscheidungen, so ist bei der Bestimmung des kompetitiven Faktors sein erwarteter Profit heranzuziehen.
<br>
<br>In Rechnernetzwerken werden heutzutage Daten zwischen verschiedenen Rechnern in Form von Datenpaketen ausgetauscht, wobei die Pakete auf ihrem Weg vom Start- zum Zielrechner von Routern weitergeleitet werden. Da es sein kann, dass Datenpakete an solchen Routern in dichterer Abfolge eintreffen, als sie abgearbeitet werden können, werden sie in den Routern zwischengepuffert. In dieser Arbeit untersuchen wir zum einen Router, an denen an mehreren Eingängen Pakete ankommen, die über verschiedene Ausgänge weitergesendet werden, wobei die Weiterleitung eines jeden Pakets den gleichen Profit erbringt, zum anderen solche, bei denen Pakete unterschiedlich großen Profit mit sich bringen, dieser allerdings nur dann gutgeschrieben wird, wenn das Paket innerhalb einer bestimmten, bekannten Zeit weitergeleitet worden ist. Die Puffer, die in den Routern zur Verfügung stehen, sind dabei jeweils von begrenzter Kapazität.
<br>Wir betrachten verschiedene Szenarien, wobei in allen das Ziel darin besteht, einen möglichst großen (gewichteten) Durchsatz von Paketen zu erreichen, d.h. möglichst viele Pakete weiterzuleiten.
<br>
<br>Im Falle mehrerer Ein- und Ausgänge gibt es an jedem Ausgang für jeden der möglichen Eingänge einen Puffer. In jedem Zeittakt können beliebig viele Datenpakete eintreffen, die dann dem zugehörigen Puffer beigefügt werden, sofern der Speicherplatz ausreicht. An jedem Ausgang kann allerdings pro Zeittakt nur ein Paket aus der Gesamtheit der ihm zugeordneten Puffer abgearbeitet werden.
<br>
<br>Wir untersuchen deterministische Online-Algorithmen für dieses Problem und leiten deterministische untere Schranken für Greedy- und beliebige Algorithmen her. Ferner zeigen wir, dass ein modifizierter (Halb-)Greedy-Algorithmus einen besseren kompetitiven Faktor als der Greedy-Algorithmus selbst aufweist, und analysieren die Güte von Online-Algorithmen, denen in Form eines größeren Puffers oder einer größeren Abarbeitungsrate mehr Ressourcen zur Verfügung stehen als dem optimalen Offline-Algorithmus, mit dem sie verglichen werden.
<br>Es wird ein optimaler Offline-Algorithmus mit linearer Laufzeit vorgestellt.
<br>
<br>Die Analyse randomisierter Online-Algorithmen zu der Fragestellung beginnt mit der Diskussion einer randomisierten unteren Schranke für beliebige Puffergrößen.
<br>Wir zeigen dann, wie sich Algorithmen für Einheitspuffer auf beliebige Puffergrößen verallgemeinern lassen, ohne dass ihr kompetitiver Faktor steigt.
<br>Zunächst untersuchen wir einen Online-Algorithmus, der in jedem Schritt eine neue Zufallsentscheidung auswürfelt, sodann betrachten wir einen randomisierten Online-Algorithmus, der sämtliche Zufallsentscheidungen vor Beginn der Paketbearbeitung trifft und sich dann wie ein deterministischer Algorithmus verhält.
<br>
<br>Auch für das Problem gewichteter Pakete mit vorgegebener Abarbeitungszeit leiten wir zunächst eine randomisierte untere Schranke her. Danach untersuchen wir zwei unterschiedliche Greedy-Algorithmen und zeigen, dass ihre kompetitiven Faktoren verschieden sind. Schließlich wenden wir uns dem Spezialfall zu, dass es nur zwei verschiedene Paketwerte gibt, und zeigen hierfüur sowohl untere als auch obere Schranken.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2349
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-23491
https://freidok.uni-freiburg.de/dnb/download/2349
https://freidok.uni-freiburg.de/data/2349
oai:freidok.uni-freiburg.de:2376
2018-06-07T18:05:43Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Transformation knowledge in pattern analysis with kernel methods - distance and integration kernels
Transformationswissen in Musteranalyse mit Kernmethoden - Distanz- und Integrationskerne
Haasdonk, Bernard
Mustererkennung
Maschinelles Lernen
Support-Vektor-Maschine
Kernel (Informatik)
Invarianz
Modern techniques for data analysis and machine learning are so called kernel methods. The most famous and successful one is represented by the support vector machine (SVM) for classification or regression tasks. Further examples are kernel principal component analysis for feature extraction or other linear classifiers like the kernel perceptron. The fundamental ingredient in these methods is the choice of a kernel function, which computes a similarity measure between two input objects. For good generalization abilities of a learning algorithm it is indispensable to incorporate problem-specific a-priori knowledge into the learning process. The kernel function is an important element for this.
<br>
<br>This thesis focusses on a certain kind of a-priori knowledge namely transformation knowledge. This comprises explicit knowledge of pattern variations that do not or only slightly change the pattern's inherent meaning e.g. rigid movements of 2D/3D objects or transformations like slight stretching, shifting, rotation of characters in optical character recognition etc. Several methods for incorporating such knowledge in kernel functions are presented and investigated:
<br>
<br> (1) Invariant distance substitution kernels (IDS-kernels): In many practical questions the transformations are implicitly captured by sophisticated distance measures between objects. Examples are nonlinear deformation models between images. Here an explicit parameterization would require an arbitrary number of parameters. Such distances can be incorporated in distance- and inner-product-based kernels.
<br>
<br> (2) Tangent distance kernels (TD-kernels): Specific instances of IDS-kernels are investigated in more detail as these can be efficiently computed. We assume differentiable transformations of the patterns. Given such knowledge, one can construct linear approximations of the transformation manifolds and use these efficiently for kernel construction by suitable distance functions.
<br>
<br> (3) Transformation integration kernels (TI-kernels): The technique of integration over transformation groups for feature extraction can be extended to kernel functions and more general group, non-group, discrete or continuous transformations in a suitable way.
<br>
<br>Theoretically, these approaches differ in the way the transformations are represented and in the adjustability of the transformation extent. More fundamentally, kernels from category 3 turn out to be positive definite, kernels of types 1 and 2 are not positive definite, which is generally required for being usable in kernel methods. This is the motivation to investigate the theoretical meaning of such indefinite kernels. The finding is that on given data these kernels correspond to inner products in pseudo-Euclidean spaces. Here certain kernel methods, in particular SVMs, have a reasonable geometrical and theoretical interpretation.
<br>
<br>Practical applicability of the kernels is demonstrated in addition to the theoretical properties. For these experiments, support vector classification on various types of data has been performed. The datasets comprise standard benchmark datasets for optical character recognition like USPS and MNIST or real-world biological data resulting from micro-Raman-spectroscopy with the goal of bacteria identification.
<br>
<br>In addition to the demonstration that transformation knowledge can be involved in kernel functions in different ways and that these can be practically applied, there are more fundamental findings and perspectives. We demonstrate and theoretically argue that indefinite kernels can be used or tolerated by kernel methods, as exemplified for the SVM. There exist statements about the training-algorithm, the resulting solutions and a reasonable geometric interpretation. This opens up mainly two directions. Firstly, these insights facilitate the process of kernel design, which hitherto is mainly restricted to positive definite functions. In particular, this enables SVMs to be used widely in other fields like distance-based learning, i.e. in all analysis problems, where dissimilarities between objects are available. Secondly, the investigation of suitability or robustness of other kernel methods than SVMs with respect to indefinite kernels seems very promising.
Moderne Techniken der Datenanalyse und des maschinellen Lernens stellen so genannte Kernmethoden dar. Die bekannteste und erfolgreichste Vertreterin dieser Klasse von Verfahren ist die Supportvektor-Maschine (SVM) für Klassifikations- oder Regressionsaufgaben. Weitere Beispiele sind die Kern-Hauptachsen-Transformation zur Merkmalsextraktion oder andere lineare Klassifikatoren wie das Kern-Perzeptron. Der grundlegende Baustein in diesen Methoden ist die Wahl einer Kernfunktion, die ein Ähnlichkeitsmaß zwischen Paaren von Eingabe-Objekten berechnet. Für gute Generalisierungsfähigkeit eines Lernalgorithmus ist es unabdingbar, dass vorhandenes problemspezifisches Vorwissen in den Lernprozess eingebracht wird. Die Kernfunktion ist hierfür eines der entscheidendsten Glieder.
<br>
<br>Diese Dissertation konzentriert sich auf eine bestimmte Art von Vorwissen, nämlich Vorwissen über Transformationen. Dies bedeutet, dass explizite Kenntnis von Mustervariationen vorhanden ist, welche die inhärente Bedeutung der Objekte nicht oder nur unwesentlich verändern. Beispiele sind rigide Bewegungen von 2D- und 3D-Objekten oder Transformationen wie geringe Streckung, Verschiebung oder Rotation von Buchstaben in der optischen Zeichenerkennung. Es werden mehrere generische Methoden präsentiert und untersucht, welche solches Vorwissen in Kernfunktionen berücksichtigen:
<br>
<br> (1) Invariante Distanzsubstitutions-Kerne (IDS-Kerne): In vielen praktischen Fragestellungen sind die Transformationen implizit in ausgefeilten Distanzmaßen zwischen Objekten erfasst. Beispiele sind nichtlineare Deformationsmodelle zwischen Bildern. Hier würde eine explizite Parametrisierung der Transformationen beliebig viele Parameter benötigen. Solche Maße können in distanz- und skalarprodukt-basierte Kerne eingebracht werden.
<br>
<br> (2) Tangentendistanz-Kerne (TD-Kerne): Spezielle Beispiele der IDS-Kerne werden detaillierter untersucht, weil diese effizient berechnet und weit angewandt werden können. Wir setzen differenzierbare Transformationen der Muster voraus. Bei solchem gegebenen Vorwissen kann man lineare Approximationen der Transformations-Mannigfaltigkeiten konstruieren und mittels geeigneter Distanzfunktionen effizient zur Konstruktion von Kernfunktionen verwenden.
<br>
<br> (3) Transformations-Integrations-Kerne (TI-Kerne): Die Technik der Gruppen-Integration über Transformationen zur Merkmalsextraktion kann in geeigneter Weise erweitert werden auf Kernfunktionen und allgemeinere Transformationen, die nicht notwendigerweise eine Gruppe bilden.
<br>
<br>Theoretisch unterscheiden sich diese Verfahren darin, wie sie die Transformationen repräsentieren und die Transformations-Weiten regelbar sind. Grundlegender erweisen sich Kerne aus Kategorie 3 als positiv definit, Kerne der Gattung 1 und 2 sind nicht positiv definit, was generell als notwendige Voraussetzung zur Verwendung in Kernmethoden angesehen wird. Dies war die Motivation dafür zu untersuchen, was die theoretische Bedeutung von solchen indefiniten Kernen ist. Das Ergebnis zeigt, dass diese Kerne auf gegebenen Daten Skalarprodukte in pseudo-euklidischen Räumen darstellen. In diesen haben bestimmte Kernmethoden, insbesondere die SVM, eine sinnvolle geometrische und theoretische Interpretation.
<br>
<br>Zusätzlich zu theoretischen Eigenschaften wird die praktische Anwendbarkeit der Kerne demonstriert. Für diese Experimente wurde Supportvektor-Klassifikation auf einer Vielzahl von Datensätzen durchgeführt. Diese Datensätze umfassen Standard-Benchmark-Datensätze der optischen Zeichenerkennung, wie USPS und MNIST, und biologische Anwendungsdaten, die aus der Raman-Mikrospektroskopie stammen und zur Identifikation von Bakterien dienen.
<br>
<br>Zusätzlich zur Erkenntnis, dass Transformations-Wissen auf verschiedene Weise in Kernfunktionen eingebracht werden kann und diese praktisch anwendbar sind, gibt es grundlegendere Einsichten und Ausblicke. Wir demonstrieren und erläutern am Beispiel der SVM, dass indefinite Kerne in Kernmethoden verwendet oder toleriert werden können. Es existieren Aussagen über den Trainings-Algorithmus und die Eigenschaften der Lösungen und eine sinnvolle geometrische Interpretation. Dies eröffnet im Wesentlichen zwei Richtungen. Erstens vereinfachen diese Einsichten den Prozess des Kerndesigns, welcher bislang hauptsächlich auf positiv definite Kerne beschränkt war. Insbesondere eröffnet dies die Möglichkeit der weiten Anwendbarkeit von SVM in anderen Gebieten wie distanzbasiertem Lernen, d.h. für Analyse-Probleme, bei denen Unterschiedsmaße zwischen Objekten verfügbar sind. Zweitens erscheint die Untersuchung der Anwendbarkeit von indefiniten Kernen in weiteren Kernmethoden sehr vielversprechend.
2005
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2376
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-23769
https://freidok.uni-freiburg.de/dnb/download/2376
https://freidok.uni-freiburg.de/data/2376
oai:freidok.uni-freiburg.de:2440
2018-06-08T11:43:44Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Exploration and mapping with mobile robots
Exploration und Kartenbau mit mobilen Robotern
Stachniss, Cyrill
Autonomer Roboter
Erkundungsverhalten
Online-Ressource
Models of the environment are needed for a wide range of robotic
<br>applications, from search and rescue to automated vacuum cleaning.
<br>Learning maps has therefore been a major research focus in the
<br>robotics community over the last decades. Robots that are able to
<br>acquire an accurate model of their environment on their own are
<br>regarded as fulfilling a major precondition of truly autonomous
<br>agents. In order to solve the map learning problem, a robot has to
<br>address mapping, localization, and path planning at the same time. In
<br>general, these three tasks cannot be decoupled and solved
<br>independently and map learning is thus referred to as the simultaneous
<br>planning, localization, and mapping problem. Because of the coupling
<br>between these tasks, this problem is very complex. It can become even
<br>more complex when there are dynamic changes in the environment or
<br>several robots are being used together to solve the problem.
<br>
<br>The contributions of this thesis are solutions to various aspects of
<br>the autonomous map learning problem. We first present approaches to
<br>exploration that take into account the uncertainty in the world model
<br>of the robot. We then describe how to achieve good collaboration
<br>among a team of robots so that they efficiently solve an exploration
<br>task. Our approach distributes the robots over the environment and in
<br>this way avoids redundant work and reduces the risk of interference
<br>between the individual team members. We furthermore provide a
<br>technique to make use of background knowledge about typical
<br>spacial structures when distributing the robots over the
<br>environment. As a result, the overall time needed to complete the
<br>exploration mission is reduced.
<br>
<br>
<br>To deal with the uncertainty in the pose of a robot, we present a
<br>solution to the simultaneous localization and mapping problem. The
<br>difficulty in this context is to build up a map while at the same time
<br>localizing the robot in this map. Our approach maintains a joint
<br>posterior about the trajectory of the robot and the model of the
<br>environment. It produces highly accurate maps in an efficient and
<br>robust way.
<br>
<br>In this thesis, we address step-by-step the different problems in the
<br>context of map learning and integrate our techniques into a single
<br>system. We provide an integrated approach that simultaneously deals
<br>with mapping, localization, and path planning. It seeks to minimize
<br>the uncertainty in the map and in the trajectory estimate based on the
<br>expected information gain of future actions. It takes into account
<br>potential observation sequences to estimate the uncertainty reduction
<br>in the world model when carrying out a specific action. Additionally,
<br>we focus on mapping and localization in non-static environments. Our
<br>approach allows a robot to consider different spatial configurations
<br>of the environment and in this way makes the pose estimate more robust
<br>and accurate in non-static worlds.
Viele Anwendungen aus dem Bereich der mobilen Robotik setzten eine
<br>geeignete Repräsentation der Umgebung voraus. Aus diesem Grund ist das
<br>Lernen von Umgebungsmodellen eines der grundlegenden Probleme für
<br>Roboter, dem schon seit mehreren Jahrzehnten Aufmerksamkeit geschenkt
<br>wird. Das selbständige Erstellen von Umgebungsmodellen ist eine der
<br>Grundvoraussetzungen für vollständig autonom agierende Systeme. Die
<br>vorliegende Arbeit beschäftigt sich mit verschiedenen Problemen, die
<br>beim selbstständigen Aufbau von Karten auftreten.
<br>
<br>Das Problem beim Erstellen von Karten besteht unter anderem in der
<br>Unsicherheit der Sensorinformationen. Sensoren wie beispielsweise
<br>Lasermesssysteme oder Sonarsensoren messen die Distanz zum nächsten
<br>Hindernis. Allerdings liefern sie mitunter nur grobe Schätzwerte und
<br>keine exakten Daten. Auch die Bestimmung der Position des Roboters
<br>anhand der Radumdrehungen ist mit erheblichen Fehlern behaftet, welche
<br>sich im Laufe der Zeit sogar akkumulieren. Ohne ein geeignetes
<br>Umgebungsmodell, in dem sich der Roboter selbst lokalisieren kann, ist
<br>es sehr schwierig eine gute Positionsschätzung über längere Zeit
<br>aufrecht zu erhalten. Gleichzeitig benötigt ein Roboter aber eine gute
<br>Schätzung seiner Position, um aus seinen Sensordaten eine brauchbare
<br>Karte zu erzeugen.
<br>
<br>Die vorliegende Arbeit behandelt verschiedene Aspekte des Problems der
<br>Erstellung von Umgebungsmodellen. Ein zentraler Aspekt dieser Arbeit
<br>ist die Exploration unbekannter Umgebungen oder als Frage formuliert:
<br>Wie sollte sich ein Roboter durch eine unbekannte Umgebung bewegen, um
<br>aus den gewonnenen Sensordaten eine konsistente Karte zu erzeugen?
<br>Dabei konzentrieren wir uns in dieser Arbeit auf die Reduktion der
<br>Unsicherheit im Umgebungsmodell des Roboters. Wir verfolgen einen
<br>Ansatz, der mögliche zukünftige Observationen und deren Auswirkungen
<br>auf das Modell des Roboters in die Zielpunktauswahl mit einbezieht.
<br>Des weiteren stellen wir einen Ansatz vor, der es erlaubt, ein Team
<br>von Robotern so zu koordinieren, dass diese ihre gemeinsame
<br>Explorationsaufgabe schneller lösen können.
<br>
<br>Die Annahme, dass die Positionsinformation als gegeben vorausgesetzt
<br>werden kann, ist in natürlichen Umgebungen nicht gegeben. Daher
<br>stellen wir einen Ansatz zur Lösung des Problems des simultanen
<br>Lokalisierens und Kartenlernens vor (SLAM). Das auf Partikelfiltern
<br>basierende Verfahren ermöglicht es, eine gemeinsame Verteilung über
<br>die Trajektorie des Roboters und das Umgebungsmodell zu verwalten. Als
<br>Ergebnis erhalten wir ein System, das Karten von verhältnismäßig
<br>großen Umgebungen in Echtzeit erstellen kann.
<br>
<br>Aufbauend auf diesem Verfahren adaptieren wir unsere
<br>Explorationstechnik so, dass diese die Eigenschaften des SLAM
<br>Verfahrens berücksichtigt. Wir ermöglichen es dabei dem Roboter
<br>Schleifen in der Umgebung zu erkennen und diese aktiv zu schließen. Im
<br>Endeffekt führt dies zu besser ausgerichteten Karten im Vergleich zu
<br>herkömmlichen Explorationsverfahren.
<br>
<br>Das bis dahin gewonnene Wissen wird anschließend in ein System
<br>integriert. Dieses konzentriert sich gleichzeitig auf Exploration,
<br>Kartenbau und Lokalisierung. Bei der Auswahl der nächsten
<br>auszuführenden Aktion betrachtet das System mögliche Sequenzen von
<br>Observationen, die der Roboter beim Ausführen der Aktion erhalten
<br>könnte. Der Roboter ist dann in der Lage, die Aktion zu wählen, die
<br>zur größten erwarteten Minimierung der Unsicherheit über die Umgebung
<br>sowie über seine Position führt.
<br>
<br>Abschließend behandeln wir das Lokalisieren und Kartenbauen in
<br>nichtstatischen Umgebungen. Unser Verfahren erlaubt es, die möglichen
<br>Konfigurationen nichtstatischer Objekte zu bestimmen. Ein klassisches
<br>Beispiel stellen Türen dar. Diese sind typischweise entweder
<br>geschlossen oder offen. Ein Roboter, der sich solches Wissen aneignen
<br>kann, ist später in der Lage, sich besser zu lokalisieren als ein
<br>Roboter der nur ein statisches Modell seiner Welt besitzt.
<br>
<br>Der Beitrag dieser Arbeit besteht aus einer Menge von Techniken zum
<br>selbstständigen Erstellen von Umgebungsmodellen. Zusammengefasst
<br>liefern unsere Verfahren Lösungen für die folgenden Probleme:
<br>
<br>- Koordination einer Gruppe von mobilen Robotern, so dass diese eine
<br>gemeinsame Explorationsaufgabe schneller bewältigen können.
<br>
<br>- Erzeugung hochauflösender Karten aus unsicheren Sensor- und
<br>Odometrieinformationen.
<br>
<br>- Anpassung einer Explorationsstrategie an ein darunterliegendes
<br>Lokalisierungs- und Kartenbausystem, wodurch die resultierenden
<br>Umgebungsmodelle weniger Fehler enthalten.
<br>
<br>- Erzeugung und Beurteilung von Aktionen für einen explorierenden
<br>Roboter. Dabei wird die beste erwartete Aktion unter dem Gesichtspunkt
<br>der Minimierung der Unsicherheit im Weltmodell des Roboters
<br>ausgewählt.
<br>
<br>- Erstellen von Karten in Umgebungen, die nichtstatische Objekte
<br>enthalten. Dabei werden typische Zustände der nichtstatische Objekte
<br>im Raum modelliert. Dies wiederrum führt zu einer robusteren
<br>Positionsschätzung für mobile Roboter, die in solchen Umgebungen
<br>eingesetzt werden.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2440
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-24404
https://freidok.uni-freiburg.de/dnb/download/2440
https://freidok.uni-freiburg.de/data/2440
oai:freidok.uni-freiburg.de:2483
2018-06-07T18:05:09Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Roboter-Fußball: Perzeption, Deliberation und Aktion autonomer Systeme in dynamischen Umgebungen
Weigel, Thilo
Robotik
Künstliche Intelligenz
Online-Ressource
Damit zukünftige Robotergenerationen eines Tages als alltägliche Gebrauchsgegenstände verwendet werden können, müssen sie in der Lage sein, vollkommen autonom ihre Umgebung wahrzunehmen, Handlungsalternativen abzuwägen und zielgerichtet zu agieren. Die tatsächliche Leistungsfähigkeit diesbezüglicher Forschungsansätze erweist sich dabei häufig erst im Kontext eines Gesamtsystems, das den Bogen von der Perzeption über die Deliberation zur Aktion spannt.
<br>
<br>Zur Evaluation solcher Systeme bietet es sich an, zunächst Aufgaben und Umgebungen zu betrachten, die zwar eine reduzierte Komplexität aufweisen, aber dennoch einen Roboter mit vielen Anforderungen alltäglicher Aufgaben konfrontieren. In diesem Sinne stellt das Fußballspiel ein vorzügliches Standardproblem für die Wissenschaft dar, in dessen Kontext Verfahren unter realistischen Bedingungen erprobt und im direkten Wettbewerb verglichen werden können.
<br>
<br>Im Rahmen dieser Arbeit wurde zum einen das CS Freiburg Roboterfußball-Team weiterentwickelt und zum anderen der Tischfußballroboter KiRo neu geschaffen. Beide Systeme bewährten sich hervorragend als Plattformen für die Entwicklung und Evaluation von Verfahren, die in realistischen dynamischen Umgebungen ein vollkommen autonomes und zielgerichtetes Verhalten ermöglichen. In diesem Zusammenhang wurden Systemarchitekturen entworfen und in den Bereichen Bildverarbeitung, Selbstlokalisierung, Verhaltenskontrolle sowie Verhaltensadaption bestehende Verfahren erweitert und neue Verfahren entwickelt. Hierbei wurde Wert darauf gelegt, dass sich die einzelnen Komponenten zu einem leistungsfähigen Gesamtsystem zusammenfügen. Gemessen an den Preisen und Auszeichnungen können beide Systeme als überaus erfolgreich angesehen werden: Das CS Freiburg Team wurde drei Mal Weltmeister und gewann drei Mal die deutschen Meisterschaften. Für das Konzept eines computergesteuerten Tischfußballroboters wurde ein Patent erteilt. KiRo wurde unter dem Namen StarKick in Kooperation mit der Gauselmann AG bis zur Marktreife entwickelt, ist heute im Handel erhältlich und besitzt die Spielstärke eines fortgeschrittenen menschlichen Spielers. Die innovative Produktidee und der gelungene Technologietransfer wurden mit dem Innovationspreis der SPD und dem Technology Transfer Award des European Robotics Research Network (EURON) ausgezeichnet.
In the context of this thesis, the CS Freiburg robot soccer team was considerably enhanced and the table soccer robot KiRo was newly developed. Both systems were used as platforms for the development of methods which enable robotic systems to behave in realistic environment in an autonomous and goal-oriented way. The thesis contributes enhancements of existing methods as well as new approaches in the areas system architectures, image processing, self-localization, behavior recognition and behavior adaption.
2005
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2483
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-24831
https://freidok.uni-freiburg.de/dnb/download/2483
https://freidok.uni-freiburg.de/data/2483
oai:freidok.uni-freiburg.de:2580
2018-06-08T11:44:48Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Vorlesungsaufzeichnungen und digitale Annotationen - Einsatz und Nutzen in der Lehre
Lecture recordings and digital annotations - applications and their use in education
Zupancic, Bernd
Annotation
E-Learning
Evaluation
Multimedia
Mensch-Maschine-Schnittstelle
Notepad-Computer
Online-Ressource
Inzwischen werden viele Lehrveranstaltungen an den Hochschulen aufgezeichnet und den Studierenden als ergänzendes Unterrichtsmaterial oder im Rahmen eines Distanzkurses als Ersatz für eine Präsenzveranstaltung zur Verfügung gestellt. Im ersten Teil der Arbeit wird untersucht, ob und wie Studierende Vorlesungsaufzeichnungen in Präsenz- und Distanzkursen nutzen. Aufgrund der Log-File Analyse und mehrerer Umfragen, die über einen längeren Zeitraum in mehreren Vorlesungen durchgeführt wurden, ergibt sich ein sehr detailliertes Bild über das Nutzungsverhalten der Studierenden. Unter anderem konnte gezeigt werden, dass Vorlesungsaufzeichnungen ein geeignetes Medium für die Wissensvermittlung sind. Sie sind jedoch wie Bücher und Skripte in einen Lernprozess eingebunden: Erst bei der Bearbeitung von Aufgaben und bei der Diskussion mit den Kommilitonen werden Fragen geklärt und Wissen vertieft. Die üblichen Diskussionsforen, die bei einem Distanzkurs hierfür eingesetzt werden, unterstützen diesen Prozess nur unzureichend. Der Grund ist der fehlende visuelle Bezug des Diskussionsbeitrags zu dem dazugehörigen Dokument. So genannte Annotationssysteme unterscheiden sich in diesem Punkt von den üblichen Diskussionsforen. In der vorliegenden Arbeit wird das Konzept „Diskussion durch den Austausch von Annotationen“ auf multimediale Dokumente (Vorlesungsaufzeichnungen) angewendet. Es wird ein entsprechendes Datenmodell zur Beschreibung der Annotationen und ein Client-Server-System vorgestellt. Ein weiterer Aspekt, der in dieser Arbeit behandelt wird, ist die Wiedergabe der Aufzeichnungen mit kleinen mobilen Endgeräten, beispielsweise einem PDA (Personal Digital Assistant). Es wurde untersucht, ob eine Wiedergabe einer Aufzeichnung bei einem solch kleinen Bildschirm möglich und sinnvoll ist und wie eine entsprechende Benutzschnittstelle auszusehen hat. Insbesondere wurde untersucht, wie ein effizientes Navigieren innerhalb einer Aufzeichnung möglich ist. Hierfür wurde im Rahmen einer Benutzerstudie die Wiedergabe auf dem PDA mit der Wiedergabe auf dem Laptop verglichen.
Recording a lecture in front of a live audience and providing the recorded audio and video stream together with slides is very popular. The first part of the thesis focuses on the questions of how and why students use recorded lectures. The evaluations of different live and distance courses prove that recordings are used very often by the students. Especially in distance courses lecture recordings are a very important medium to transfer knowledge. However, recordings are part of a learning process: The students will clarify facts and deepen their knowledge while they discuss the subject with their fellow students. Traditional discussion forums do not support this process very well because it is not obvious to which part of the document a contribution refers. Annotation systems are better suited for a document based discussion. We introduce an annotation system which allows discussion based on a multimedia document, for example a lecture recording. In the last part of this thesis we address the question if and how lecture recordings can be viewed anywhere at any time using small mobile devices. Therefore, a player for viewing recordings on a PDA was implemented and a usability study was conducted. The replay of a lecture recording on a PDA was compared with the replay on a laptop.
2006
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2580
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-25808
https://freidok.uni-freiburg.de/dnb/download/2580
https://freidok.uni-freiburg.de/data/2580
oai:freidok.uni-freiburg.de:2743
2018-06-08T11:49:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Bioinformatics analyses of alternative splicing : non-EST based prediction, influence of secondary structures and tandem splice sites
Bioinformatik Analyse des Alternativen Spleißens : nicht-EST basierte Vorhersage, der Einfluß von Sekundärstrukturen und Tandemspleißstellen
Hiller, Michael Thomas
RNS-Spleißen
Online-Ressource
After realizing its frequency in the last decade, alternative splicing has attracted considerable attention. Although several biological phenomena can be explained by alternative splicing today, research has just started to uncover all of its aspects.
<br>
<br>This thesis investigates three aspects of alternative splicing, mostly by means of computational large-scale analyses. In the first part, we introduce a new approach to predict alternative splicing without using expressed sequence information. Given that our knowledge about the human transcriptome is still incomplete, ab initio prediction of alternative splicing is a rather recent but important research area. In contrast to existing methods, our approach is independent of orthologous sequences, thus it is applicable to a single genome.
<br>By introducing an efficient dynamic programming algorithm, we reduce the computational complexity during the search for new splice events compared to a naive algorithm. The use of this algorithm is demonstrated in a genome-wide application, where we predict and verify novel human splice events.
<br>
<br>In the second part, we investigate the influence of mRNA secondary structures on the regulation of the splicing process. We show that experimentally verified binding sites of splicing regulatory proteins have a higher single-strandedness.
<br>As alternative and constitutive splicing often depends on several such binding sites, this indicates a general importance of mRNA secondary structures for splicing. Then, we develop a new motif finding method that benefits from using an informative prior probability distribution, which takes the single-strandedness of putative motif occurrences into account. We perform extensive tests with artificial and biological data sets and demonstrate that the additional information about secondary structures help to discriminate real binding sites from spurious ones.
<br>
<br>In the third part, we analyze a group of splice events that have mostly escaped attention in the past. These splice events occur at tandem acceptor splice sites and result in minor changes of the mRNA and the protein. Genome-wide analyses provide evidence for a non-random distribution of these splice events at the genome and protein level, for tissue-specific regulation, and for evolutionary conservation. Moreover, we find that SNPs affecting such acceptors have a highly predictive effect on splicing. Extending our studies to tandem donors, we investigate differences between alternatively and not alternatively spliced tandem donors. We conclude that these donor and acceptor splice events represent one major mechanism to increase the proteome diversity and that some of them have consequences for protein function and human disease. Finally, we develop a relational database, which stores extensive information about tandem splice sites.
<br>
<br>In summary, in this thesis, we introduce a new approach for ab initio splice event prediction, uncover another detail about the regulation of splicing,
<br>develop a new de novo motif finding method, perform the first detailed genome-wide analysis of tandem splice sites, and develop a specific database of tandem donors and acceptors.
Nachdem die Häufigkeit von alternativ gespleißten Genen im letzten Jahrzehnt erkannt wurde, hat das alternative Spleißen in der Wissenschaft große Aufmerksamkeit erfahren. Mehrere biologische Phänomene können heute durch alternatives Spleißen erklärt werden. Trotzdem hat die Forschung gerade erst begonnen alle Aspekte aufzudecken.
<br>
<br>Diese Dissertation untersucht drei verschiedene Aspekte des alternativen Spleißens, hauptsächlich durch Anwendung von computerbasierten Analysen.
<br>Im ersten Teil wird eine neue Methode für die Vorhersage von alternativen Spleißformen ohne Verwendung von exprimierten Sequenzen vorgestellt.
<br>Wenn man bedenkt, dass unser Wissen über das humane Transkriptom noch unvollständig ist, stellt die ab initio Vorhersage von Spleißformen ein neues, aber wichtiges Forschungsgebiet dar. Im Gegensatz zu anderen Methoden ist unser Ansatz unabhängig von Informationen über orthologe Sequenzen und daher auf einzelne Genome anwendbar. Die Komplexität der Suche nach neuen Spleißformen kann durch die Entwicklung eines effizienten Algorithmus, der auf dem Prinzip der dynamischen Programmierung basiert, deutlich reduziert werden. Wir zeigen den Nutzen dieser Methode durch eine Anwendung auf das humane Genom, bei der wir neue Spleißvarianten vorhersagen und nachweisen.
<br>
<br>Der zweite Teil der Arbeit untersucht den Einfluss von mRNA Sekundärstrukturen auf die Regulation des Spleißprozesses. Dabei zeigen wir, dass experimentell bestätigte Bindungsstellen von regulatorischen Spleißfaktoren eine signifikant höhere Einzelsträngigkeit aufweisen. Da alternatives und auch konstitutives Spleißen von mehreren solcher Bindungsstellen abhängt, deutet dieses Ergebnis auf einen generellen Einfluss von mRNA Sekundärstrukturen auf den Spleißprozess hin. Wir nutzen dieses Prinzip bei der Entwicklung eines neuen Algorithmus für die Erkennung von Motiven in biologischen Sequenzen. Dieser Algorithmus berücksichtigt die Einzelsträngigkeit möglicher Bindungsstellen, was durch eine sequenzspezifische a priori Wahrscheinlichkeitsverteilung modelliert wird. Umfassende Tests mit künstlichen und biologischen Datensätzen zeigen, dass diese zusätzliche Information hilfreich ist, um zwischen echten und falsch-positiven Bindungsstellen zu unterscheiden, was genauere Motivbeschreibungen erlaubt.
<br>
<br>Im dritten Teil analysieren wir eine Gruppe von alternativen Spleißereignissen, die bisher wenig Beachtung gefunden haben. Diese Ereignisse geschehen an Tandemakzeptor-Spleißstellen und führen zu subtilen Veränderungen der mRNA und des entsprechenden Proteins. In genomweiten Untersuchungen fanden wir Hinweise, dass diese Spleißereignisse nicht zufällig im Genom und im Proteom verteilt sind; dass sie gewebespezifisch reguliert werden können; und dass eine Teilmenge evolutionär konserviert ist. Weiterhin konnten wir zeigen, dass SNPs in solchen Spleißstellen einen vorhersagbaren Effekt auf Veränderungen im Spleißmuster haben. Wir erweitern die Untersuchungen auf Tandemdonor-Spleißstellen und analysieren Unterschiede zwischen alternativen und konstitutiven Tandemdonoren.
<br>Wir kommen zu dem Schluss, dass Tandem-Spleißstellen einen wichtigen Mechanismus zur Vergrößerung der Proteom Vielfalt darstellen. Außerdem haben einige dieser Spleißstellen Auswirkungen auf die Proteinfunktionalität sowie auf menschliche Erkrankungen. Um weitere Forschungen zu erleichtern, erstellen wir eine spezifische Datenbank, die umfassende Informationen über Tandem-Spleißstellen öffentlich zugänglich macht.
<br>
<br>Zusammengefasst lässt sich sagen, wir entwickeln in dieser Dissertation einen neuen Ansatz für die ab initio Spleißformvorhersage; beschreiben ein weiteres Detail der Regulation des Spleißprozesses; stellen einen neuen Algorithmus für die Erkennung von unbekannten Sequenzmotiven vor; führen die erste umfassende Analyse von Tandem-Spleißereignissen durch und erstellen eine spezifische Datenbank über Tandemdonoren und -akzeptoren.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2743
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-27439
https://freidok.uni-freiburg.de/dnb/download/2743
https://freidok.uni-freiburg.de/data/2743
oai:freidok.uni-freiburg.de:2752
2018-06-08T11:47:37Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Vertrauliche und nachvollziehbare Verarbeitung von Nutzerdaten in Informationsdiensten auf der Basis von TCG
Traceable processing of personal data in remote services using TCG
Hohl, Adolf
Vertraulichkeit
Authentifikation
Online-Ressource
Das Internet ist in den vergangenen Jahren schnell gewachsen und nahezu überall in ausreichender Kapazität verfügbar. Dies hat zu einer Vielfalt von Informationsdiensten geführt, die von den Vorzügen des Internet, beispielsweise einer kostengünstigen Kommunikation oder einer ständigen Verfügbarkeit profitieren. Sie sind deshalb aus unserem Alltags- und Wirtschaftsleben nicht mehr wegzudenken. Der technische Fortschritt ermöglicht die Bereitstellung von individuell zugeschnittenen Informationsdiensten über das Internet, z.B. eine individuelle Angebotserstellung für einen Autokauf oder einer Versicherungspolice. Dazu werden personenbezogene Daten des Nutzers benötigt.
<br>Trotz der offensichtlichen Vorteile birgt die Inanspruchnahme dieser Dienste auch Risiken für die Nutzer, indem herausgegebene Daten des Nutzers zu anderen als den beabsichtigten Zwecken verarbeitet werden. Die Herausgabe personenbezogener Daten lässt sich jedoch nicht immer vermeiden, bzw. ist bei bestimmten Diensten Voraussetzung zu deren erfolgreicher Nutzung. Deshalb stoßen an dieser Stelle die bisherigen, auf Datensparsamkeit beruhenden Schutzmechanismen sehr schnell an ihre Grenzen.
<br>Vielmehr besteht der Schutz personenbezogener Daten darin, dass diese nur im vom Nutzer eingewilligten Rahmen und nicht darüber hinaus durch einen Informationsdienst verarbeitet werden.
<br>
<br>Es stellt sich die Frage, wie dieses Ziel erreicht werden kann. Informationsdienste sind durch Anwendungen realisiert, die auf Plattformen des Dienstanbieters ausgeführt werden und schützenswerte Daten verarbeiten. Die vorliegende Arbeit unterscheidet hierzu die Nutzung einer zertifizierten und einer nicht zertifizierten Dienstanwendung. Die Verarbeitung der Daten des Nutzers erfolgt bei einer zertifizierten Dienstanwendung ausschließlich im Rahmen seiner Einwilligung.
<br>
<br>Der erste Fall betrachtet die Nutzung zertifizierter Dienstanwendungen. Hierbei kann es sich z.B. um einen Informationsdienst zur Angebotserstellung eines Autos handeln, der die Höhe des Einkommens zur Bestimmung einer Ratenzahlung verarbeitet und Daten nach der Dienstsitzung löscht. Die Verarbeitung der Daten ist dabei in der Anwendung fest vordefiniert und durch einen unabhängigen Zertifizierer begutachtet. Eine davon abweichende und über den Rahmen der Einwilligung hinaus gehende Verarbeitung ist daher ausgeschlossen. Für einen Nutzer ist es daher notwendig, überprüfen zu können, ob Daten an die beabsichtigte Dienstanwendung übermittelt werden. Ist dies nicht möglich, können Daten unbemerkt an eine nicht zertifizierte Anwendung herausgegeben werden, die Verarbeitungsvorgaben und Ziele des Nutzers nicht beachtet und dessen Privatheit gefährden kann. Gegenwärtige Ansätze zur Gewährleistung einer vertraulichen Verarbeitung bieten hierzu keine Lösung. Ein Beitrag dieser Arbeit ist die Authentifikation einer Dienstanwendung sowie deren Dienstzugangspunkte. Hierzu werden Funktionen einer Trusted Computer Plattform verwendet. Es zeigt sich jedoch, dass der alleinige Einsatz von Trusted Computer Plattformen nicht ausreichend ist. Es muss eine überprüfbare Zuordnung der Authentifikation der Dienstanwendung und deren späteren Dienstnutzung geschaffen werden. Die hier vorgestellten, auf Trusted Computing Plattformen aufbauenden authentifizierten Dienstzugangspunkte stellen dies bereit. Dadurch kann sichergestellt werden, dass der Dienstnutzer die beabsichtigte Dienstanwendung verwendet. Die Machbarkeit der TC-authentifizierten Dienstzugangspunkte wird durch eine prototypische Implementierung belegt.
<br>
<br>Der zweite Teil der Arbeit betrachtet den Fall, dass Nutzer nicht zertifizierte Dienstanwendungen benutzen. Dem Nutzer liegen keine Informationen darüber vor, ob herausgegebene Daten ausschließlich im Rahmen seiner Einwilligung verarbeitet werden. Daher kann ein Missbrauchs schützenswerter Daten nicht ausgeschlossen werden. Sofern der Nutzer in der Lage ist, einen Missbrauch zu entdecken, hätte er die Grundlage zu einer möglichen Sanktionierung.
<br>Es stellt sich die Frage, ob eine nicht zertifizierte Dienstanwendung unter Aufsicht eines zertifizierten Monitors so ausgeführt werden kann, dass die Verarbeitung personenbezogener Daten für den Nutzer transparent wird. Dabei wird die Dienstanwendung als eine geschlossene Einheit betrachtet, die durch einen Monitor gekapselt zur Ausführung kommt. Speicherungs- und Kommunikationsereignisse (z.B. Weitergabe von Daten) der Dienstanwendung können dadurch erkannt und vom Nutzer auf Einhaltung der eingewilligten Verarbeitungspolicy überprüft werden.
<br>Der Einsatz der Informationsflussanalyse bei der gekapselten Ausführung nicht zertifizierter Dienstanwendungen kann nicht nur Speicherungs- und Kommunikationsereignisse erkennen, sondern auch über deren Inhalte Aufschluss geben. Dadurch wird ersichtlich, ob und welche vertraulichen Daten gespeichert oder kommuniziert wurden. Zugleich liefert der Einsatz der Informationsflussanalyse Einblicke über die Verwendung personenbezogener Daten. Anhand einer Beispielimplementierung in der Sprache FlowCaml wird dies nachgewiesen.
<br>
<br>Die beiden Teile werden gemeinsam bewertet; es zeigt sich einerseits, dass sich durch die TC-authentifizierten Dienstzugangspunkte schützenswerte Daten an eine authentifizierte Dienstanwendung übermitteln lassen. Eine Herausgabe schützenswerter Daten an eine nicht beabsichtigte Dienstanwendung ist dadurch erkennbar. Andererseits ermöglichen die TC-authentifizierten Dienstzugangspunkte den Nachweis der gekapselten Ausführung einer nicht zertifizierten Dienstanwendung und ermöglichen damit eine nachvollziehbare Verarbeitung schützenswerter Daten.
From a privacy point of view a user of a remote information service has no chance to trace the processing of communicated personal data and therefore has to trust the service to behave as expected. Although properties of a service could be proven formally this talk focuses on using Trusted Computing to enable traceability for audit purposes by an external party. In a first case, it is assumed, that a user knows properties of a desired service binary (e.g. via a third party) and wants to authenticate this specific binary. It is shown that Platform Authentication functionality of TC does not solve this. A solution is provided, which makes remaining attacks traceable.
<br>In a second case, it is assumed, that a user does not know about properties of a desired service. It is investigated, which information can be collected via a monitor to enable traceability for audit
2006
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2752
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-27528
https://freidok.uni-freiburg.de/dnb/download/2752
https://freidok.uni-freiburg.de/data/2752
oai:freidok.uni-freiburg.de:2771
2018-06-08T11:46:24Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Common sequence structure properties and stable regions in RNA secondary structures
Sequenz-/Struktureigenschaften und stabile Regionen in RNA Sekundärstrukturen
Siebert, Sven
RNS
Strukturanalyse
Thermodynamische Stabilität
Online-Ressource
Many RNAs conserve a secondary structure of base-pairing interactions more than they conserve their sequence. This makes RNA analysis more complicated and difficult than protein or DNA analysis. RNA structures can be responsible for catalytic or regulatory tasks in the cell. The UGA codon is responsible for the incorporation of selenocysteine in the presence of a SECIS element. The SECIS motif satisfies both sequence- and structure constraints. Thus, it is wrong to consider sequence properties or structure properties solely. A combination of both has to be taken into account. The comparison of multiple, homologous RNAs may detect similarities of sequence structure properties. They are mostly reflected in a consensus sequence and/or consensus structure. Based on this, we give a short overview of the major issues in this thesis.
<br>
<br>Objectives of this Thesis
<br>
<br>This thesis is aimed at devising methods and algorithms in RNA structure analysis. Beside the comparison and integration of known techniques, the following points are the main contributions to this thesis. They have been devised theoretically and implemented as algorithms.
<br>
<br>- A multiple alignment of RNAs taking into consideration both the primary sequences and the secondary structures of RNAs, called MARNA.
<br>
<br>- A fast pattern matching algorithm that detects common pattern between two RNA secondary structures.
<br>
<br>- An efficient algorithm for detecting locally stable regions.
<br>
<br>The first two points operate mainly on sequence structure properties, whereas the last point covers the theory of thermodynamic properties.
Ribonukleotidsequenzen (RNA) sind einzelsträngige Sequenzen, die Strukturen unter Beachtung der Basenpaarregeln (A-U, C-G, G-U) ausprägen. Die Sekundärstruktur einer RNA ist definiert als eine Menge von Basenpaaren, welche die Einbettungseigenschaft erfüllt: für je zwei Basenpaare (i,j) und (h,l) mit i<h, gilt entweder i<h<l<j oder i<j<h<l. Viele RNAs konservieren eine Struktur von Basenpaarinteraktionen besser als ihre eigentliche Sequenz. Dies verkompliziert die Analyse von RNAs und ist schwieriger zu handhaben als die der Protein und DNA Analyse. RNAs sind nicht nur Träger von Erbinformationen, sondern sind auch für katalytische und regulatorische Funktionen in der Zelle verantwortlich. Diese werden meist durch spezifische Sequenz- und Struktureigenschaften hervorgerufen. Als Beispiel sei hier das SECIS Element erwähnt, das eine stem-loop Struktur aufweist. Ist dieses Element in der unmittelbaren Umgebung im nicht translatierten Bereich (UTR) eines UGA Kodons vorhanden, so wird der eigentliche Translationsstop, der normalerweise vom UGA Kodon hervorgerufen wird, verhindert und dafür die Aminosäure Selenocystein eingebaut.
<br>
<br>Die Erkennung und Beschreibung solcher Sequenz-/ Struktureigenschaften (wie z.B. SECIS Elemente) hat sich in der Vergangenheit als eine manuelle und zugleich ermüdende Arbeit herausgestellt. Hier ist eine automatische Analyse in Form eines multiplen Alignments unter Beachtung von Sequenz- und Struktureigenschaften wünschenswert, so wie es sie schon bei multiplen Sequenzalignments gibt.
<br>
<br>Ein anderer wichtiger Aspekt ist die Erkennung von interessanten Sequenz/ Strukturregionen zwischen zwei gegebenen RNA Sekundärstrukturen. RNA Sequenzen können zwar mithilfe des Mfold-Programms in ihre energetisch günstige Konformation gefaltet werden, diese sichert aber noch nicht die tatsächlich biologisch relevante Konformation zu. Unter der Annahme, dass lokale Regionen höchstwahrscheinlich richtig gefaltet sind, so wie sie auch in vielen anderen suboptimalen Strukturen auftreten, gilt es, diese dann noch zu erkennen. Hierbei spielt neben der Sequenz und Struktur, eine dritte Eigenschaft eine grosse Rolle, nämlich die der thermodynamischen Stabilität einer RNA. Energetisch günstige Konformationen werden wahrscheinlicher von einer RNA angenommen als energetisch ungünstige.
<br>
<br>Diese Arbeit hat als Ziel, Methoden und Algorithmen bezüglich der RNA Analyse zu erarbeiten. Neben dem Vergleich und Integration von bereits vorhandenen Methoden, sind die folgenden Punkte der eigene Beitrag zur Dissertation:
<br>
<br>Eigener Beitrag: Die Arbeit besteht aus hauptsächlich drei selbstständig entwickelten Methoden, die sowohl theoretisch als auch praktisch in Form von Programmen oder Web-Server erarbeitet und entwickelt worden. Die ersten beiden Punkte lassen sich in den Bereich der Sequenz-Struktur Analyse einordnen, d.h. die Sequenz einer RNA und die Sekundärstruktur einer RNA werden nicht unabhängig betrachtet, sondern in Kombination miteinander. Der dritte Punkt betrachtet die Stabilität aufgrund von thermodynamischen Parametern einer RNA:
<br>
<br>- Multiples Alignment von RNAs: MARNA ist ein Web-Server, der als Eingabe eine Menge von RNA Sequenzen erwartet, und diese unter Beachtung von Primärsequenzen und Sekundärstrukturen aligniert. MARNA beinhaltet eine Technik, die erstmals gute Ergebnisse ohne weitere Eingaben liefert.
<br>
<br>- Schnelle Erkennung von exakten Mustern in RNA Sekundärstrukturen: Hier entwickeln wir ein schnelles Verfahren mit Laufzeit O(nm) und gleicher Speicherkomplexität zur Erkennung von Mustern zwischen zwei gegebenen Sekundärstrukturen. Die Ausgabe sind alle nichtüberlappenden Muster.
<br>
<br>- Thermodynamischen Stabilitäten von RNAs werden mithilfe von thermodynamischen Parametern im Nächste-Nachbar Modell berechnet. Während die mfe (minimum free energy) Struktur von Zuker in vernünftiger Zeit berechnet werden kann, haben wir eine lokale, modifizierte Version entwickelt, die stabile Teilstrukturen in gegebenen als auch in nicht gegebenen vollständigen Strukturen vorhersagt.
<br>
<br>Diese Arbeit untergliedert sich in zwei Haupfelder. Das erste Feld deckt die Analyse von RNAs aufgrund von Sequenz- und Struktureigenschaften ab. Das zweite Feld betrachtet thermodynamische Stabilitäten von RNAs.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2771
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-27710
https://freidok.uni-freiburg.de/dnb/download/2771
https://freidok.uni-freiburg.de/data/2771
oai:freidok.uni-freiburg.de:2776
2018-06-08T11:48:16Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Alert classification to reduce false positives in intrusion detection
Reduktion von Fehlalarmen in Eindringerkennungssystemen durch automatische Klassifizierung
Pietraszek, Tadeusz
Maschinelles Lernen
Automatische Klassifikation
Klassifikation
Eindringerkennung
ROC-Kurve
Computersicherheit
Online-Ressource
Intrusion Detection Systems (IDSs) aim at detecting intrusions, that is actions that attempt to compromise the confidentiality, integrity and availability of computer resources. With the proliferation of the Internet and the increase in the number of networked computers, coupled with the surge of unauthorized activities, IDSs have become an integral part of today's security infrastructures. However, in real environments IDSs have been observed to trigger an abundance of alerts. Most of them are false positives, i.e., alerts not related to security incidents. This dissertation deals with the problem of false positives inintrusion detection.
<br>
<br>We propose the novel concept of training an alert classifier using a human analyst's feedback and show how to build an efficient alert classifier using machine-learning techniques. We analyze the desired properties of such a system from the domain perspective and introduce ALAC, an Adaptive Learner for Alert Classification, and its two modes of operation: a recommender mode, in which all alerts with their classification are forwarded to the analyst, and an agent mode, in which the systemuses autonomous alert processing. We evaluate ALAC in both modes on real and synthetic intrusion detection datasets and obtain promising results: In our experiments ALAC reduced the number of false positives by up to 60% with acceptable misclassification rates.
<br>
<br>Abstaining classifiers are classifiers that in certain cases can refrain from classification, which is similar to a domain expert saying "I don't know". Abstaining classifiers are advantageous over normal classifiers if they perform better than normal classifiers when they make a decision.
<br>
<br>In this dissertation we provide a clarification of the concept of optimal abstaining classifiers and introduce three different models, in which normal and abstaining classifiers can be compared: the cost-based model, the bounded-abstention model, and the bounded-improvement model. In the first cost-based model, the classifier uses an extended 2x3 cost matrix, whereas in the bounded models, the classifier uses a standard 2x2 cost matrix and boundary conditions: the abstention window or the desired cost improvement. Looking at a common type of abstaining classifiers, namely classifiers constructed from a single ROC curve, we provide efficient algorithms for selecting these classifiers optimally in each of these models. We perform an experimental validation of these methods on a variety of common benchmark datasets.
<br>
<br>Applying abstaining classifiers to ALAC, we introduce ALAC+, an extension of our alert-classification system. We select the most suitable abstaining classifier models and show that by using abstaining classifiers one can significantly reduce the misclassification cost. For example, in our experiments with a 10% abstention the system reduced the overall misclassification cost by up to 87%. This makes abstaining classifiers particularly suitable for alert classification.
<br>
<br>In the final part of this dissertation, we extend CLARAty, the state-of-the-art alert clustering system by introducing automated cluster processing, and show how the system can be used to investigate missed intrusions and correct initial analyst's classifications. Based on this, we build a two-stage alert-classification system in which alerts are processed by the automated cluster-processing system and then forwarded to ALAC. Our experiments with real and synthetic datasets showed that the automated cluster-processing system is robust and on average reduces the total number of alerts by 63% which further reduces the analyst's workload.
Eindringerkennungssysteme (Intrusion Detection Systems, abgekürzt IDSs) zielen auf die Erkennung von Angriffen, d.h. Aktionen, die versuchen die Konfidenzialität, Integrität und Verfügbarkeit von Computer-Resourcen zu kompromittieren. Durch das enorme Wachstum des Internets und der Zahl der vernetzten Computer bei gleichzeitiger starker Zunahme von nicht-autorisierten Aktivitäten sind IDSs zu eine integralen Bestandteil der typischen aktuellen Sicherheits Infrastruktur geworden. In realen Umgebungen beobachtet man jedoch, daß IDSs sehr viele Alarme produzieren, dabei zu einem großen Teil auch Fehlalarme (false positives), d.h. Alarme, die keinen Sicherheits-Zwischenfällen entsprechen. Diese Dissertation beschäftigt sich mit dem Problem von Fehlalarmen in der Intrusion Detektion.
<br>
<br>Wir schlagen hierzu ein neuartiges Konzept vor, bei dem ein Alarm-Klassifizierer aus der Rückmeldung eines menschlichen Analysten lernen kann, und zeigen, wie ein solcher effizienter Alarm-Klassifizierer mit Hilfe der Techniken maschinellen Lernens erstellt werden kann. Wir analysieren die wünschenswerten Eigenschaften eines solchen Systems aus dem Blickwinkel der Domäne der Intrusion Detektion und stellen ALAC vor, den Adaptiven Lerner für Alarm-Klassifikation (Adaptive Learner for Alert Classification). ALAC hat zwei Betriebsarten: eine empfehlende Betriebsart (recommender mode), bei der alle Alarme mit ihrer Klassifikation an den Analysten weitergeleitet werden, und eine Betriebsart als Agent (agent mode), in welcher das System Alarme teilweise eigenständig verarbeitet. Wir evaluieren ALAC in beiden Modi mit realen und synthetischen Daten aus dem Gebiet der Intrusion Detektion und erhalten dabei viel versprechende Ergebnisse: ALAC reduziert in diesen Experimenten die Zahl der Fehlalarme um bis zu 60% bei annehmbaren Raten der Fehlklassifikation.
<br>
<br>Sich-enthaltende Klassifizierer} (abstaining classifiers) nehmen in bestimmten Fällen keine Klassifizierung vor, ähnlich einem "Ich weiß nicht" eines Domain Experten. Es besteht die Annahme, daß ein solcher Klassifizierer, der sich enthalten kann, insgesamt eine bessere Leistung bringen kann als normale Klassifizierer, die in jedem Fall eine Entscheidung treffen müssen.
<br>
<br>In dieser Dissertation klären wir das Konzept des optimalen sich-enthaltenden Klassifizierers und stellen drei verschiedene Modelle vor, in denen sie mit normalen Klassifizierern verglichen werden können: ein kosten-basiertes Modell, ein Modell mit begrenzter Enthaltung und ein Modell mit begrenzter Verbesserung. Im kosten-basierten Modell benutzt der Klassifizierer eine erweiterte 2x3 Kosten-Matrix, während in den anderen Modellen der Klassifizierer eine normale 2x2 Kosten-Matrix verwendet mit zusätzlichen Randbedingungen: der Menge der Alarme, bei denen sich der Klassifizierer enthält, beziehungsweise die gewünschte Verbesserung der Kosten. Für eine übliche Gruppe von sich-enthaltenden Klassifizierern, die aus einer einzelnen ROC-Kurve hervorgehen, zeigen wir effiziente Algorithmen um diese Klassifizierer in optimaler Art auszuwählen in allen genannten Modellen. Diese Methoden werden experimentell bestätigt mit einer großen Zahl von Benchmark-Daten.
<br>
<br>Unter Anwendung von sich-enthaltenden Klassifizierern auf ALAC führen wir ALAC+ ein, eine Erweiterung unseres Alarm-Klassifikations-Systems. Wir wählen die am besten geeigneten sich-enthaltenden Klassifizierer und zeigen, daß dadurch die Fehlklassifikations-Kosten signifikant reduziert werden können. So reduzieren sich beispielsweise in unseren Experimenten bei 10\% Enthaltung die allgemeinen Fehlklassifikations-Kosten um bis zu 87%. Dies macht sich-enthaltende
<br>Klassifizierer besonders geeignet für die Alarm-Klassifizierung.
<br>
<br>Im letzten Teil der Arbeit erweitern wir CLARAty, ein aktuelles Alarm-Clustering-System, durch die Einführung einer automatisierten Cluster-Verarbeitung und zeigen, wie das System dazu benutzt werden kann eventuell übersehene Angriffe zu untersuchen und initiale Klassifikationen eines Analysten zu korrigieren. Hierauf aufbauend entwickeln wir ein zweistufiges Alarm-Klassifikations-System, in welchen Alarme zuerst durch die automatisierte Cluster-Verarbeitung prozessiert und dann an ALAC weitergeleitet werden. Unsere Experimente mit realen und synthetischen Daten zeigen, daß das automatisierte Cluster-Verarbeitungs-System robust ist und die Gesamtzahl von Alarmen, und damit auch die Arbeitslast des Analysten, durchschnittlich um 63% reduziert.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2776
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-27765
https://freidok.uni-freiburg.de/dnb/download/2776
https://freidok.uni-freiburg.de/data/2776
oai:freidok.uni-freiburg.de:2892
2018-06-12T11:21:22Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Structure features for content-based image retrieval and classification problems
Strukturmerkmale für inhaltsbasierte Bildsuche und Klassifikationsprobleme
Brunner, Gerd
Bildverarbeitung
Information Retrieval
Online-Ressource
During the past decades we have been observing a permanent increase in image data, leading to huge repositories. Content-based image retrieval methods have tried to alleviate the access to image data.
<br>To date, numerous feature extraction methods have been proposed in order
<br>to improve the quality of content-based image retrieval and image classification systems.
<br>Structure is one of the most important features for image analysis as shown by the fact that the human perception of objects and scenes is to a large extent based on particular spatial configurations and changes in intensity.
<br>
<br>In this thesis we introduce a structure-based feature extraction technique.
<br>The method is capable of representing the global structure of an image, as well as local perceptual groups and their connectivity. The advantage of the method is its broad range of applications and its invariance against changes in illumination and similarity transformations.
<br>
<br>We first discuss the creation of edge maps accompanied by an evaluation of various edge detectors. Therefore, we present a method that automatically computes the best set of parameters for the Canny edge detector.
<br>Secondly, we apply a line segment grouping method based on agglomerative hierarchical clustering, where the segments are extracted with an edge point tracking algorithm. The procedure automatically evaluates the best linkage method and prunes the dendrogram based on a subgraph distance ratio.
<br>Once the final clusters are obtained, an intra-class compactness measure is used to discard less significant segment groups.
<br>
<br>Thirdly, the structure-based features are computed on a global and local scale. The global scale ensures a holistic scene analysis of an image, whereas the local features account for perceptual groups and their connectivity.
<br>
<br>Finally, we apply the structure-based features to tasks as broad as binary, color, object class and texture image retrieval and/or classification. The first application is the classification and content-based image retrieval of ancient watermark images. The second application is a retrieval task of two color image databases from the Corel collection with 1.000 and 10.000 images.
<br>The results are accompanied by an invariance analysis, where our features have obtained a score of more than 96%.
<br>The third application is object class recognition and retrieval for the Caltech database, where we achieve a classification rate of 92.45% and 95.45% for the five and three class problem, respectively. The fourth and final application is the classification of textures obtained from the well known Brodatz collection.
<br>A support vector machine with an intersection kernel and a leave-one-out test obtained a classification rate of 98%.
Während der vergangenen Jahrzehnte konnte man einen stetigen Zuwachs an Bildmaterial verfolgen, der gigantische Archive hervorbrachte. Inhaltsbasierte Bildsuchealgorithmen haben versucht den Zugriff auf Bilddaten zu vereinfachen. Heutzutage gibt es zahlreiche Merkmalsextraktionsverfahren, die entscheidend zur Qualitätsverbesserung von inhaltsbasierten Bildsuche- und Bildklassifizierungssystemen beigetragen haben.
<br>
<br>Struktur ist eines der wichtigsten Merkmale der Bildanalyse. Das beruht auf der menschlichen Wahrnehmung von Objekten und Szenen, die zum Grossteil auf spezielle räumliche Konfiguration und Änderungen der Intensität basiert.
<br>
<br>In dieser Dissertation führen wir eine strukturbasierte Merkmalsextraktionsmethode ein. Die Methode kann globale Strukturen als auch lokale perzeptuelle Gruppen und deren Relationen repräsentieren. Der Vorteil der Methode ist ihre breite Anwendbarkeit und Invarianz gegen Ähnlichkeitstransformationen und gegen Änderung der Beleuchtung.
<br>
<br>Erstens wird die Erzeugung von Kanten mittels mehrerer Kantendetektoren behandelt. Aus diesem Grund wird ein Algorithmus vorgestellt, der automatisch die besten Parameter für den Canny Kantendetektor berechnen kann. Zweitens wenden wir eine Liniengruppierungsmethode, die auf agglomerativen hierarchischem Clustering beruht an. Dazu werden die Linensegmente mittel einer Kantentracking Methode extrahiert. Das Clustering Verfahren evaluiert die beste Linkage Methode und schneidet das Dendrogramm automatisch ab. Nachdem die finale Cluster-Hierarchie erzeugt ist, werden die weniger signifikanten Cluster, basierend auf einem Kompaktheitsmaß, verworfen. Drittens berechnen wir strukturbasierte Merkmale auf globalen und lokalen Skalen. Die globale Skala versichert eine holistische Szenenanalyse des Bildes. Im Gegensatz dazu kodieren die lokalen Merkmale perzeptuelle Gruppen
<br>und deren Relationen.
<br>
<br>Abschließend werden die strukturbasierten Merkmale auf Binär- und Farbbild, Objektklassen und Textur Retrieval und/oder Klassifikation angewandt. Die erste Anwendung ist die Klassifikation und inhaltsbasierte Suche von historischen Wasserzeichen. Die zweite Anwendung ist die Bildsuche in zwei Farbbilddatenbanken mit 1.000 und 10.000 Bildern der Corel Kollektion. Die Ergebnisse werden zusammen mit einer Invarianzanalyse präsentiert, wobei die vorgestellten Merkmale eine Invarianz von über 96% erzielen konnten.
<br>Die dritte Anwendung beruht auf der Erkennung und dem Retrieval von Objektklassen der Caltech Datenbank, wobei eine Erkennungsrate von 92.45% bzw. 95.45%, für die Fünf- und Dreiklassenprobleme erzielt werden konnte.
<br>Die vierte und finale Anwendung ist die Klassifikation von Texturen der Brodatz Kollektion. Eine Support-Vektormaschine mit einem Intersection-Kernel konnte unter der Verwendung des leave-one-out Tests eine Klassifikationsrate von 98%
<br>erzielen.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2892
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-28929
https://freidok.uni-freiburg.de/dnb/download/2892
https://freidok.uni-freiburg.de/data/2892
oai:freidok.uni-freiburg.de:2896
2018-06-07T16:17:29Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Potentials and limitations of visual methods for the exploration of complex data structures
Möglichkeiten und Grenzen visueller Methoden für die Exploration komplexer Datenstrukturen
Lauer, Tobias
Mehrdimensionale Datenstruktur
Visualisierung
Lehrmittel
Online-Ressource
Visualizations can be used for the analysis of algorithms and data structures as well as for algorithm teaching and learning. If interactive animations or simulations are available, learners can explore the data structures and algorithms on their own. By seeing how an algorithm reacts to different input sets, a deeper understanding and hence, better learning, is expected.
<br>Similarly, visualization can be a helpful research tool for the analysis of complex data structures and the algorithms operating on them. For a formal mathematical analysis, the right approach to the problem is often the most decisive step. A suitable visual representation of the structure and the dynamics of the involved algorithms can provide important clues for the initial idea.
<br>Using the example of a relatively recent data structure, the priority search pennant, we show how visualizations can support the analysis of algorithms for complex geometric range queries on sets of point in the two-dimensional plane. Priority search pennants are similar to the better-known priority search trees; the structure is interesting since the rigid heap order known from many implementations of priority queues is weakened. As a result, priority search pennants are easier to maintain than priority search trees when the set of points is dynamic, i.e. when points are inserted and deleted and the underlying tree has to be rebalanced. This advantage comes at a cost: certain range queries have been shown to have a higher asymptotic complexity for priority search pennants than for priority search trees. However, it has been unclear whether this is also true for other frequently occurring types of range queries. We analyze the complexity of those operations which, for a given rectangular query range, return the leftmost, rightmost, or bottommost point of the set, respectively. It is shown that these operations enjoy the same asymptotic bounds in priority search pennants as they do in priority search trees. In addition, a sharp upper and lower bound for the actual worst case search path lengths of these queries is established in relation to the height of the underlying tree.
<br>As an application, we consider most-specific range queries in IP router tables, where, e.g., for the destination address of an incoming packet the filter containing the most specific range containing that address must be found. It is shown for an existing router table design based on priority search trees that a replacement of the tree by a priority search pennant or an even simpler structure, the min-augmented range tree, boosts the performance of update as well as lookup operations considerably. Moreover, we prove that the original router table design contains a redundant structure which can be omitted at no loss of efficiency, thereby reducing the space requirements and the cost of update operations by approximately 50%.
<br>Another goal is to investigate how interactive algorithm visualizations can be effectively employed in teaching and learning, and to provide possible applications. We present the results of an empirical experiment conducted to evaluate the impact of the level of learner engagement with visualizations on the learning outcome. Early experiments on visualization effectiveness have given rise to the hypothesis that algorithm animations are effective only if they are interactive and engaging. Our study was carried out within an established framework. Contrary to the hypothesis, our results showed no significant differences between students who simply viewed algorithm animations, those who could actively choose the input, and those who could even construct the animations visually by assembling the algorithm from "atomic" building blocks. However, a significant influence of the introductory lectures to the topic was found, as well as a strong correlation of test results with the overall performance of the participants in the course. Judging from our own results and those of further studies, we also conclude that some refinements to the research framework may be useful in order to allow for more differentiated results in future evaluations.
<br>One main reason why many instructors are reluctant to use algorithm animations in their teaching seems to be the time and effort required to find suitable visualization systems, to learn how to use them, and to create good examples. We propose a "radically simple" approach, which allows instructors to sketch ad-hoc examples during a presentation with a standard pen input device. The sketches are then interpreted as instances of a data structure. Commands (pen gestures) allow users to interact with the data structures, e.g. to carry out operations on them and trigger animations of the resulting actions. The last part of the thesis describes the architecture of the system and outlines its properties with the help of selected examples.
Sowohl bei der Analyse von Algorithmen und Datenstrukturen als auch bei deren Vermittlung in der Lehre werden häufig Visualisierungen eingesetzt. Handelt es sich um interaktive Animationen oder Simulationen, so ermöglicht dies den Lernenden ein selbständiges Explorieren der Datenstrukturen und Algorithmen. Auf diese Weise erhofft man sich ein besseres Verständnis und damit einen höheren Lernerfolg.
<br>In ähnlicher Weise können interaktive Visualisierungen auch in der Forschung bei der Analyse komplexer Datenstrukturen bzw. den darauf ausgeführten Operationen hilfreich sein. Für eine formale Analyse ist in der Regel der richtige Ansatz entscheidend, für den eine gewisse Beweisidee notwendig ist. Hier kann eine geeignete visuelle Repräsentation eine wertvolle Unterstützung sein.
<br>Diese Arbeit verfolgt zwei Ziele. Zunächst wird am Beispiel einer weniger bekannten Datenstruktur, Priority Search Pennants, aufgezeigt, wie mit Hilfe von Visualisierungen Algorithmen für komplexere geometrische Suchanfragen auf Mengen von Punkte in der Ebene analysiert werden können. Priority Search Pennants ähneln den bekannteren Prioritätssuchbäumen und sind deshalb interessant, weil in ihnen die in einer Prioritätswarteschlange sonst übliche Heap-Ordung nur in einer abgeschwächten Form gilt. Dadurch ist diese Struktur einfacher zu handhaben, wenn Punkte eingefügt und entfernt werden und die darunter liegende Baumstruktur rebalanciert werden muss. Allerdings unterstützt die Datenstruktur bestimmte Bereichanfragen in einer schlechteren asymptotischen Laufzeit als Prioritätssuchbäume. Unklar war bisher, ob dies auch für andere Arten von Bereichsanfragen gilt. Wir analysieren die Komplexität von Anfragen, die in einem gegebenen rechteckigen Anfragebereich den am weitesten rechts, links bzw. unten liegenden Punkt ermitteln, und weisen nach, dass diese dieselbe asymptotische Laufzeit aufweisen wie in Prioritätssuchbäumen. Darüber hinaus wird eine scharfe obere und untere Grenze für die Suchpfadlänge im worst case ermittelt.
<br>Zu den Anwendungen gehören unter anderem IP-Routertabellen, in denen für die Zieladresse eines ankommenden Pakets der Filter mit dem spezifischsten Adressbereich ermittelt werden muss, der diese Adresse enthält. Für einen existierenden Lösungsansatz zeigen wir, dass das Ersetzen von Prioritätssuchbäumen durch Priority Search Pennants oder eine noch einfachere Struktur, Min-augmented Range Trees, einen Performancegewinn sowohl für Update- als auch für die Lookup-Operationen bringt. Überdies weisen wir nach, dass das von uns untersuchte Routertabellendesign eine redundante Datenstruktur enthält, die bei geeigneter Modifikation entfallen kann und dadurch ca. 50% an Speicherplatz sowie bei der Laufzeit für Update-Operationen einspart.
<br>Das zweite Ziel dieser Arbeit ist es zu ermitteln, wie Visualisierungen in der Lehre gewinnbringend eingesetzt werden können, und mögliche Lösungen bereitzustellen. Dazu werden die Ergebnisse einer empirischen Untersuchung präsentiert, die durchgeführt wurde, um den Einfluss des Grades der Interaktion der Lernenden mit Algorithmenvisualisierungen auf den Lernerfolg zu bestimmen. Frühere Studien geben Anlass zu der Vermutung, dass Algorithmenanimationen nur dann eine signifikante Verbesserung des Lernerfolgs erzielen, wenn die Lernenden sich aktiv mit ihnen beschäftigen. Unsere Untersuchung reiht sich in einen etablierten Forschungsrahmen ein, der das Ziel hat, diesen Zusammenhang im Detail zu untersuchen. Entgegen der Hypothese zeigen die Ergebnisse keine signifikanten Unterschiede zwischen Lernenden, die eine Animation nur betrachteten, solchen, die interaktiv deren Input bestimmen konnten, sowie denjenigen, die die Animation aus einer Menge "atomarer" Bausteine selbst visuell konstruieren mussten. Dagegen wurde ein signifikanter Einfluss der dem Test vorausgehenden Vorlesung festgestellt. Aufgrund dieser Ergebnisse sowie der Resultate weiterer Studien kommen wir außerdem zu dem Schluss, dass einige Verfeinerungen am verwendeten Forschungsrahmen sinnvoll sind, um bei zukünftigen Experimenten differenziertere Aussagen zu ermöglichen.
<br>Als Hauptgrund dafür, dass Algorithmenanimationen in der Lehrpraxis eher wenig eingesetzt werden, gilt der Zeitaufwand, um geeignete Visualisierungssysteme zu finden, zu erlernen und passende Beispiele vorzubereiten. Wir schlagen daher ein "radikal einfaches" Prinzip vor, das Lehrenden die Möglichkeit gibt, Visualisierungen von Datenstrukturen ad hoc während einer Präsentation zu erstellen und mit diesen zu interagieren. Es wurde ein System entwickelt, welches elektronische Freihandskizzen als Instanzen von vorgegebenen Datenstrukturen interpretiert. Die dazugehörigen Operationen können mit stiftbasierten Kommandos (Gesten) aufgerufen werden, wobei ihre Ausführung animiert dargestellt wird. Der letzte Teil dieser Arbeit präsentiert die Architektur des Systems und erläutert die Funktionsweise anhand ausgewählter Beispiele.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2896
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-28963
https://freidok.uni-freiburg.de/dnb/download/2896
https://freidok.uni-freiburg.de/data/2896
oai:freidok.uni-freiburg.de:2932
2018-06-07T17:45:10Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Error propagation in geometry-based grouping
Fehlerfortpflanzung und Gruppierung in der projektiven Geometrie
Utcke, Sven
Bildsegmentierung
Projektiv-metrischer Raum
Fehlerfortpflanzung
Online-Ressource
This thesis describes the approach used for, and the improvements
<br>possible by, the use of error propagation in conjunction with several
<br>algorithms for the grouping of structures based on geometric entities.
<br>But rather than rigidly favouring the exact solution each and every
<br>time I have put particular weight on practicability, demonstrating the
<br>relative gain for many approaches and giving shortcuts where the
<br>results are not marred by their use; but also demonstrating how common
<br>shortcuts used by many authors can lead to disaster if the underlying
<br>assumptions are violated.
<br>
<br>My main focus in writing this thesis has been to demonstrate that many
<br>problems are much easier solved using error propagation, or indeed
<br>only solvable using error propagation - I believe that the
<br>application grouping pedestrian crossings is such an example - but
<br>all the time with a firm eye on computational complexity as well as
<br>the necessity for error propagation (or, as it sometimes happens, the
<br>lack of it). It is to this end that I not only describe the
<br>combination of error propagation with projective geometry, which for
<br>the unwary keeps a number of stumbling blocks at hand, but also
<br>demonstrate 3 very different application domains.
<br>
<br>My first example is the application of error-propagation principles to
<br>the grouping and recognition of zebra crossings and other repeated
<br>structure. This application is a nice example of an implementation
<br>which I believe would have been impossible without the use of error
<br>propagation due to the high variations of a zebra-crossing's size and
<br>quality even within a single image; of particular interest here is how
<br>only a few confidence-tests can replace a host of manually chosen
<br>parameters, resulting in a uniquely stable algorithm.
<br>
<br>In the next application I outline an algorithm for the grouping of
<br>houses (or, indeed, any structure consisting of orthogonal and
<br>parallel elements). Over the years we have seen a few algorithms for
<br>the reconstruction of buildings from monocular images, however, in
<br>contrast to multi-view approaches these nearly always require manual
<br>segmentation of image regions. The algorithm outlined in this chapter
<br>could be seen as an attempt to remedy this situation. It is, however,
<br>included in this thesis for a different reason: buildings show a
<br>number of diverse features at different scales, and I will in
<br>particular have a closer look at collinear line segments of only a few
<br>pixels to several hundreds of pixels in length and distance as well as
<br>vanishing points, the image of intersection of parallel lines at
<br>infinity, which can be anywhere from literally in the image to
<br>literally at infinity. What is more, these features come with
<br>differing accuracies, and even one and the same feature can have
<br>different accuracies attached to it depending on context. This
<br>application is therefore well suited as a showcase for several
<br>different ideas and approaches such as a new algorithm for the
<br>iterative improvement of vanishing-point position and one for the
<br>automatic grouping of vanishing points; a new objective function for
<br>the (partial) calibration of a camera from vanishing-points which
<br>takes the different uncertainties in the positions of the vanishing
<br>points into account and extends the usual Legoland assumption to more
<br>general setups; an extension on previous work which takes the
<br>vanishing-point information into account when merging line-segments;
<br>and finally a comparison of the performance of several different
<br>error-measures, both new ones first introduced in this thesis as well
<br>as established ones from the literature, for the identification of
<br>collinear line segments.
<br>
<br>In the last example I finally describes part of the grouping
<br>algorithm underlying some of my older publications on the recognition
<br>of surfaces of revolution. An important feature for both recognition
<br>as well as reconstruction of SORs is the object's axis. The axis can
<br>be calculated, e.g., based on the intersections of bitangents, which
<br>can vary considerably in their accuracy; it is therefore an excellent
<br>example to compare the performance of a number of established
<br>algorithms on a number of different features and to demonstrate how
<br>even a well-known and often-used algorithm like total least squares
<br>will fail if the underlying assumptions (iiid-data) are violated; much
<br>better alternatives are introduced and an extensive comparison and
<br>discussion shows the merit of error propagation for a problem which,
<br>in similar form, one can see tackled with unsuitable tools at nearly
<br>any computer-vision conference, even today. The comparisons are done
<br>on real contour-data derived from real images which previously
<br>appeared in publications about the grouping and recognition of SORs.
In dieser Arbeit beschreibe ich meinen Ansatz zur Kombination von
<br>Methoden der Fehlerfortpflanzung mit mehreren Algorithmen, die das
<br>Geometrie-basierte grouping von Strukturen erlauben. Von der
<br>bekannten Literatur unterscheidet sich meine Arbeit vor allem durch
<br>die Schwerpunktsetzung auf Anwendbarkeit: die tatsächliche praktische
<br>Anwendung zeigt deutlich, welche zusätzlichen Möglichkeiten man durch
<br>Fehlerfortpflanzung gewinnt; andererseits habe ich, statt starr an der
<br>exakten Lösung festzuhalten (die, wo möglich, natürlich gegeben wird)
<br>auch untersucht, welche Auswirkungen die Verwendung von
<br>Näherungslösungen haben kann - und in welchen, in der Literatur
<br>teilweise recht häufig anzutreffenden, Fällen solche Näherungslösungen
<br>verheerende Auswirkungen auf die Korrektheit (oder sogar Existenz) des
<br>Ergebnisses haben können.
<br>
<br>Einer der Gründe für die geringe Verbreitung der Fehlerfortpflanzung
<br>unter Bildverarbeitern liegt meiner Meinung nach in der vorhandenen
<br>Literatur, deren Interesse stets der korrekten Lösung gilt, ohne Blick
<br>auf die praktische Anwendbarkeit. Im Gegensatz hierzu ist die
<br>vorliegende Arbeit aus der Praxis für die Praxis entstanden: ich zeige
<br>anhand von Beispielen, dass sich viele Probleme tatsächlich einfacher
<br>lösen lassen, wenn man Grundlagen der Fehlerfortpflanzung
<br>berücksichtigt - oder sogar nur dann; ich denke die Anwendung auf
<br>Zebrastreifen ist so ein Beispiel. Dabei behalte ich jedoch stets die
<br>algebraische und algorithmische Komplexität der verwendeten Verfahren
<br>sowie die Notwendigkeit zu ihrer Verwendung (oder, auch das kann
<br>passieren, die mangelnde Notwendigkeit) im Auge. Aus diesem Grund
<br>beschreibe ich nicht nur die Kombination von Fehlerfortpflanzung und
<br>projektiver Geometrie (die für den uneingeweihten einige
<br>Schwierigkeiten bereithält) sondern demonstriere die Anwendung dieser
<br>Prinzipien anhand von 3 sehr verschiedenen Beispielen.
<br>
<br>Die erste Anwendung ist die Erkennung von Zebrastreifen (und anderer
<br>periodischer Strukturen). Es handelt sich hier um eine Anwendung von
<br>der ich glaube, dass sie so ohne Fehlerfortpflanzung nicht möglich
<br>gewesen wäre; besonders interessant an dieser Anwendung ist, wie
<br>einige wenige Konfidenz-Tests eine Vielzahl manuell zu wählender
<br>Parameter ersetzen können, wodurch ein extrem stabiles System
<br>entstanden ist.
<br>
<br>In meiner nächsten Anwendung beschäftige ich mich mit der
<br>Segmentierung von Häuserfronten (orthogonalen und parallelen
<br>Strukturen) in Einzelbildern. Es wird kein fertiger Algorithmus
<br>präsentiert, stattdessen wird dieses Szenario genutzt, um eine Anzahl
<br>unterschiedlicher und auf unterschiedlichen Skalen operierender
<br>Techniken zu vergleichen. Der Schwerpunkt liegt auf der Bestimmung
<br>kollinearer Liniensegmente und von Fluchtpunkten.
<br>
<br>Das letzte Anwendungskapitel beschreibt schließlich Teile der
<br>Segmentierungsroutinen, die meinen ältesten Publikationen über die
<br>Erkennung rotationssymmetrischer Objekte zugrundeliegen. Ein
<br>wesentliches Merkmal ist dabei das Bild der Rotationsachse. Dieses
<br>lässt sich theoretisch als eine Linie durch die Schnittpunkte von
<br>Bitangenten berechnen. Da diese jedoch erheblich in ihrer Genauigkeit
<br>variieren können, haben wir hier ein exzellentes Beispiel, um
<br>verschiedene Algorithmen zu vergleichen; ich zeige, wie selbst ein
<br>bekannter und häufig genutzter Algorithmus wie die kleinste Summe der
<br>Fehlerquadrate zu unbrauchbaren Ergebnissen führen kann, wenn die
<br>zugrundeliegende Annahme unabhängiger, isotroper und gleichverteilter
<br>Fehler nicht zutrifft, und stelle bessere Alternativen vor.
2006
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/2932
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-29323
https://freidok.uni-freiburg.de/dnb/download/2932
https://freidok.uni-freiburg.de/data/2932
oai:freidok.uni-freiburg.de:3014
2018-06-07T16:15:25Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
A semi-automatic procedure for the evaluation of tooth cementum annulation images for paleodemographic studies
Ein halbautomatisches Verfahren zur Auswertung von TCA-Aufnahmen für paleodemografische Untersuchungen
Klauenberg, Katy
EM-Algorithmus
Gibbs-Verteilung
Markov-Feld
Online-Ressource
Tooth Cementum Annulation (TCA) images are microscopic images from the root of human teeth. These digital images display annual incremental lines which can be used for age estimation. Until now, the incremental lines (or tooth rings) have been counted manually from under the microscope or on the (digital) TCA image. Since research using the manual observations led to contradictory results, algorithms to automatically evaluate TCA images are considered a crucial step towards computer-assisted TCA age estimation.
<br>
<br>TCA images can be evaluated based on measuring their features, but until now no statistical model was developed. In this work, TCA images are modeled as hidden Markov random fields, because these models can incorporate prior knowledge about tooth rings and are thereby able to imitate human vision. In particular, the Markov random field is specified by the FRAME model which incorporates filter responses to the label image into the Gibbsian distribution and is thus able to take into account long-range dependencies among the observed values and periodicity in the placement of tooth rings. The estimation of model parameters is rendered possible via an EM algorithm. This coherent approach is developed step-by-step and tested extensively throughout this work.
Zahnzementannulation (TCA) ist der Prozess der geschichteten Bildung von Zahnzement an der Wurzel von Zähnen und kann bei Menschen zur Schätzung des Individualalters genutzt werden. Hierzu werden mikroskopische Aufnahmen von dünnen Querschnitten der menschlichen Zahnwurzel angefertigt (sogenannte TCA-Aufnahmen), in denen die vermutlich jährlich gebildeten Zuwachslinien als dunkle und helle Bänder erscheinen. (Kagerer and Grupe [2001]) Bisher wurden die dunklen Zuwachslinien (Zahnringe) optisch am Mikroskop oder am (digitalen) Bild ausgezählt, um eine Altersschätzung abzuleiten. Ein Algorithmus zur automatischen Auswertung der TCA-Aufnahmen ist von großer Bedeutung, da Forschungsarbeiten, die manuelle Zählungen verwendeten, zu widersprüchlichen
<br>Resultaten führten.
<br>
<br>In der vorliegenden Arbeit wurde das erste Modell-basierte Verfahren zur Auswertung von TCA-Aufnahmen entwickelt. Hierzu wurden TCA-Aufnahmen als sogenanntes 'hidden Markov random field' modelliert, welches weitreichende Abhängigkeiten der beobachteten Grauwerte mithilfe eines Filter-basierten Modells einbezieht. Dieses Modell kann menschliches Sehen nachahmen, indem es die periodische Platzierung der Zahnringe nachbildet. Die Anwendung auf TCA-Aufnahmen erzielte konkurrenzfähige, zum Teil sogar bessere, Ergebnisse verglichen mit den manuellen Schätzungen. Diese Arbeit stellt daher ein wertvolles Hilfsmittel dar für weitere anthropologische sowie paläodemografische Forschungsarbeiten an und mit der TCA-Methode.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/3014
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-30145
https://freidok.uni-freiburg.de/dnb/download/3014
https://freidok.uni-freiburg.de/data/3014
oai:freidok.uni-freiburg.de:3093
2018-07-19T15:10:21Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Plasma polymerized biofunctional multilayers based on a SiO 2-like adhesion promoting film
Plasma polymerisierte biofunctionale Multilayer basiert auf einen haftvermittelnde SiO 2-artigen Film
Anye, Ngu Chifen
Silicium
Polymere
Online-Ressource
Für die Anwendung von dünnen Polymerschichten auf kommerziellen Geräten, z.B. Sensoren, muß die Reaktionsfähigkeit der Dünnschichten heutzutage gezielt optimiert werden.
<br>Häufig müssen die Oberflächenfilme mit deren Substraten mittels verschiedenen chemischen Reaktionsmethoden an die Grenzfläche gebunden werden, denn die chemische Zusammensetzung von diesen Oberflächenfilmen und Substraten ist stets unterschiedlich. Diese Optimierung der Grenzflächen von Substraten wird meist nass-chemisch durchgeführt, um die Leistungsfähigkeit des Films (und somit letztendlich die des Sensors) in verschiedenen Medien zu verbessern.
<br>Beispielsweise sind Biosensoren, welche aus drei Bestandteilen bestehen, folgendermaßen aufgebaut: Bio-Film (Biomaterialen), Signalumwandler (elektrische Materialen) und Detektorelement. Dies bedeutet, dass die Effektivität der Biosensoren von der Stabilität oder Adhäsion zwischen den Biomaterialen und dem Signalumwandler abhängig ist.
<br>Die Eigenschaften von synthetischen Biomaterialen spielen eine wesentliche Rolle für die Konzeptionierung eines Biosensors, z.B. in der Gewebetechnik- und Bioelektronikindustrie. Die Reaktionsprozesse an den Grenzflächen zwischen den synthetischen Biomaterialien und biologischen Medien kommen heutzutage sehr häufig im interdisziplinären Bereich zum Einsatz. Trotzdem gibt es eine Reihe von Bio-Filmen, die durch verschiedene Methoden hergestellt worden sind und nicht zum Einsatz kommen können da sie mangelnde Adhäsionseigenschaften auf Substraten in natürlichen extrazellularen Medien aufweisen.
<br>In diesem Sinne ist für die Anwendung von Bio-Filmen in einem Biosensor die Optimierung der Adhäsion zwischen dem Bio-Film und einem Subtrat notwendig, um die funktionellen Eigenschaften in Lösungen beizubehalten.
<br>In dieser Arbeit sollten stabile plasma polymerisierte Schichtsysteme (Engl. Multilayer), welche die Adhäsion zwischen einer elektrischen Grenzfläche und einer biofunktionellen Dünnschicht (Film) optimieren, entwickelt werden. Weiterhin sollen die entwickelten Multilayer stabile und bio-funktionelle Eigenschaften besitzen, um eventuell biologische Moleküle anzubinden.
<br>Um diese Multilayer zu entwickeln, wurde der Zusammenhang zwischen den Plasma Prozessparametern und den Eigenschaften von abgeschiedenen SiO2 -artigen Filmen untersucht, wobei die dünnen SiO2 Filme als eine Adhäsionsschicht zwischen einem bio-funktionellen Film und
<br>
<br>einem Substrat (z.B. Signalumwandler) dienten. Die Adhäsionseigenschaft der SiO2 –artigen Filme wurde durch O2 Plasma optimiert, somit konnten die bio-funktionellen Filme angebunden werden.
<br>Im zweiten Teil dieser Arbeit wurden Stabilität und Alterung SiO2 –artiger Filme und Multilayer im wässrigen Medium untersucht. Diese Untersuchungen begründen sich aus der Zielsetzung dieser Arbeit, stabile Multilayer zu entwickeln, die die Anbindung von biologischen Molekülen im wässrigen Medium verbessern sollten.
<br>Eine Anwendungsmöglichkeit der angebundenen Biomoleküle oder biologisch relevanten Molekülen (z.B. Vesikel) auf die plasma polymerisierten Multilayer wurde untersucht, indem Fluorophormoleküle in die Vesikel eingekapselt wurden. Die Auflösung der Vesikel, um die Fluorophormoleküle freizusetzen, erfolgte ausschließlich durch enzymatische Reaktion und wurde fluoreszenz-spektroskopisch verfolgt.
<br>Dieser Abschnitt der Arbeit basiert auf einem Biosensor, welcher für die robuste Bestimmung membranauflösender Toxine verwendet werden könnte.
<br>Zum Schluss wurden nano-poröse SiO2 –artige Filme hergestellt, die als mögliche Materialen für biologischen Zwecken eingesetzt werden könnten.
The aim of this thesis is to design stable plasma polymerized (pp) multilayer, which will improve the adhesion between an electrical interface and a bio-functional film.
<br>Nowadays, the reactivity of a film on a sensor device or model system needs to be optimized. More often, these films have a different chemical composition than their substrates, which lead to poor device efficiency. Specifically, biosensor devices consist of three components namely; bio-material, transducer (connects both components) and detector element. Thus, the crucial step for developing an array platform is a stable adhesion between the electrical surface and the functional bio-material.
<br>Bio-materials play an essential role for the fabrication of a biosensor platform, tissue engineering and bioelectronics. These materials have been used nowadays in broad inter-disciplinary area where properties and processes at interfaces between synthetic materials and biological environments have been investigated. So far, these materials have been obtained by various fabrication methods and were not suitable for specific applications, due to some major problems such as adhesion, mechanical degradation and bio-incompatibility of the films when subjected to the natural extra-cellular environment. From this point of view, it is important to design a new bio-material platform that will address some of these drawbacks mentioned herein.
<br>The aim of this work was to design a multilayer using plasma enhanced chemical vapor deposition (PECVD), whereby, the inter-layer adhesion is to be optimized between an electrical insulator material and the bio-functional film. Furthermore, the possible application of the designed multilayer system was to be implemented in a biological medium.
<br>Firstly, the correlation between the plasma parameters and the film properties of deposited pp organosilicon films was investigated. Whereby, ultra thin SiO2 –like films were deposited and would serve as an adhesion interlayer between a functional organic layer and an electrical substrate. The adhesion properties of the SiO2 –like layer was optimized for the subsequent pp of a bio-material film via a plasma modification process.
<br>Secondly, the aging in air and stability in aqueous medium of the multilayer were also investigated.
<br>Finally, a possible application of the biofunctional multilayer was achieved by attaching fluorophore-encapsulated vesicles on the plasma polymerized multilayer. The fluorophore release was initiated enzymatically and then monitored by fluorescence spectroscopy, which could be implemented as a biosensor.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/3093
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-30931
https://freidok.uni-freiburg.de/dnb/download/3093
https://freidok.uni-freiburg.de/data/3093
oai:freidok.uni-freiburg.de:3104
2018-06-07T17:55:46Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Multi-Tier Programming
Multitierprogrammierung
Neubauer, Matthias
Operationale Semantik
Verteilte Programmierung
Online-Ressource
Multi-tier applications are traditionally designed in the style of a client-server architecture,
<br>forcing different parts of the system to be split up into separate modules that are
<br>targeted for different platforms. Even though the advantages of a modular design are
<br>apparent, it is questionable whether choosing a multi-tier architecture for the physical
<br>design of an application should also dictate its logical design. Not to forget that the
<br>increase in complexity as the result of manually developing a distributed application can
<br>raise the occurrence rate of bugs considerably.
<br>
<br>In this thesis, we provide the basic building blocks for a sequential multi-tier programming
<br>language. Such a language would allow programmers to write multi-tier
<br>applications in sequential style instead of having to write distributed code manually.
<br>Henceforth, the process of modularizing the program code into components targeted for
<br>the specific tiers could be handed over to a (semi-)automatic tool.
<br>
<br>To realize the process mentioned above, this dissertation proposes an approach based
<br>on two pillars: firstly, on an algorithm for computing an optimal modularization, and
<br>secondly, on a transformation scheme that generates a distributed program with the
<br>same semantics as the original sequential program.
<br>
<br>The first pillar focuses on the theoretical background of a placement inference system.
<br>This system automatically assigns a correct placement to a sequential program,
<br>characterizing a potential distribution of code. Such a placement is needed as input for
<br>the succeeding steps of transformation. Elements of the first pillar are an intermediate
<br>language expressing the timing behavior of distributed programs, a constraint-based
<br>placement analysis, and a constraint solver determining all valid placements for a program.
<br>Through devising a cost model for distributed programs, it is possible to estimate
<br>the worst-case runtime behavior of a program with a given placement. Optimal placements
<br>are computable by determining placements with minimal worst-case behavior.
<br>
<br>The second pillar presents a program transformation scheme which, by going through
<br>a series of intermediate languages, transforms a sequential program with the support of
<br>a placement into a distributed counterpart that uses explicit communication primitives.
<br>The intermediate languages are formally defined by operational semantics and static
<br>type systems with annotated types. The transformation steps of the scheme are formally
<br>specified by either equational rules or translations between two calculi. For onemajor step
<br>of the transformation scheme, namely the shift from a message-based to a bidirectional
<br>stream-based communication paradigm, the thesis provides a formal correctness result
<br>using the bisimulation proof method.
Multitieranwendungen werden herkömmlicherweise im Stile der Client-Server-Architektur
<br>entworfen. Bei solch einem Entwurf muss das System typischerweise passend zur
<br>anvisierten Zielplattform in Module aufgeteilt werden. Obwohl das modulare Entwerfen
<br>unbestritten viele Vorteile besitzt, ist es fraglich, ob die Auswahl einer bestimmten Architektur
<br>für den physikalischen Systementwurf Einfluss auf den logischen Systementwurf
<br>haben sollte. Des Weiteren geht das manuelle Entwickeln von verteilten Anwendungen
<br>in der Regel mit einer erhöhten Systemkomplexität einher, was das Auftreten von
<br>Laufzeitfehlern begünstigt.
<br>
<br>In der vorliegenden Arbeit präsentieren wir die Grundbausteine zur Realisierung einer
<br>sequentiellen Multitierprogrammiersprache. Statt wie üblicherweise manuell verteilt
<br>zu programmieren, erlaubt es eine solche Programmiersprache Multitieranwendungen
<br>sequentiell zu schreiben. Die Modularisierung des Programmcodes in zu den vorgesehenen
<br>Schichten passende Programmkomponenten kann somit automatischen — oder
<br>zumindest halbautomatisch — mit Hilfe eines Programmierwerkzeugs erfolgen.
<br>
<br>Der mit dieser Dissertation präsentierte Ansatz zur Umsetzung dieser Idee fußt auf
<br>zwei Pfeilern: einem Verfahren zur Berechnung einer optimalen Programmaufteilung
<br>und einem Programmtransformationsschema, das es erlaubt aus einem ursprünglich
<br>sequentiell verfassten Programm eine verteile Anwendung mit äquivalenter Bedeutung
<br>zu erzeugen.
<br>
<br>Zur Realisierung des ersten Pfeilers wird in dieser Arbeit der theoretischen Unterbau
<br>für eine statische Codeplatzierungsanalyse entwickelt, die sequentiellen Programmen
<br>Codeplatzierungsvorschriften zuweist. Eine solche Codeplatzierungsvorschrift charakterisiert
<br>eine mögliche Codezuteilung auf Schichten und dient als Eingabe für folgende
<br>Programmtransformationsschritte. Konkret formalisiert die vorliegende Arbeit eine
<br>Zwischensprache, die es erlaubt das Verhalten verteilter Programme zeitbasiert zu untersuchen,
<br>eine constraintbasierte Plazierungsanalyse, und einen Constraintlöser zur
<br>Gewinnung gültiger Platzierungsvorschriften. Indem das Worst-Case-Laufzeitverhalten
<br>verteilter Programme mit Hilfe eines Kostenmodells abgeschätzt wird, besteht die
<br>Möglichkeit, optimale Platzierungsvorschriften zu berechnen.
<br>
<br>Zur Realisierung des zweiten Pfeilers wird in dieser Arbeit ein Programmtransformationsschema
<br>vorgestellt, das ein sequentielles Programm mit vorliegender Codeplatzierungsvorschrift
<br>über mehrere Zwischensprachen hinweg in ein verteiltes Programm
<br>mit expliziten Kommunikationsprimitiven übersetzt. Die hierzu verwendeten
<br>Zwischensprachen sind unter Zuhilfenahme von operationellen Semantiken und statischen
<br>Typsystemen mit annotierten Typen definiert. Einzelne Übersetzungsschritte
<br>sind durch Gleichheitsregeln oder Übersetzungsfunktionen spezifiziert. Für einen der
<br>Haupttransformationsschritte des Transformationsschemas, die Umwandlung von einem
<br>nachrichtbasierten hin zu einem bidirektionalen, strombasierten Kommunikationsparadigma,
<br>präsentiert die vorliegende Arbeit mit Hilfe von Bisimulationsbeweistechniken
<br>ein Korrektheitsresultat.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/3104
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-31045
https://freidok.uni-freiburg.de/dnb/download/3104
https://freidok.uni-freiburg.de/data/3104
oai:freidok.uni-freiburg.de:3293
2018-07-13T15:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Detektion von Hirnnervenfasern auf der Basis von diffusionsgewichteten Magnetresonanzdaten
Detection of neuronal fibre-pathways based on diffusion-weighted MRI
Kreher, Björn Wolf
Anisotrope Diffusion
Markov-Ketten-Monte-Carlo-Verfahren
Bayes-Verfahren
Online-Ressource
Die Magnetresonanztomographie (MRT) erlaubt die ortsaufgelöste Messung von Gewebeeigenschaften im Inneren des menschlichen Körpers. Zusätzlich zu anatomischen Bildern ist es ebenso möglich, physikalische und physiologische Prozesse, wie die Bewegung von Molekülen entlang einer Richtung, zu quantifizieren. Diffundierende Teilchen sind ein typisches Beispiel für eine mittels der MRT messbare Molekularbewegung. Die Diffusion ermöglicht Rückschlüsse auf die Mikrostruktur des Gewebes. Beispielsweise ist in faserigen Geweben wie in den Nervenbahnen eine wesentlich höhere Diffusion entlang der Bahn als senkrecht zur Faser vorzufinden. Diese Eigenschaft kann zur Rekonstruktion des Verlaufs der Nervenbahnen herangezogen werden, was häufig als 'Fibertracking' bezeichnet wird. Fibertracking eröffnet demzufolge die Möglichkeit, Faserverläufe nicht-invasiv zu bestimmen. Obwohl diese neue Disziplin noch am Anfang der Entwicklung steht, erlangt ihr weitreichendes Potential bereits größere Bedeutung im Bereich der neurologischen Forschung und Klinik.
<br>
<br>Allgemein wird bei der Methode des Fibertrackings der Faserverlauf nicht direkt gemessen, sondern indirekt auf der Basis eines physikalischen Modells bestimmt. Viele der publizierten Ansätze basieren auf der Diffusionstensorbildgebung (DTI), bei der ein verhältnismäßig einfaches Modell verwendet wird. Bei stark ausgeprägten Nervenbahnen liefert DTI Ergebnisse, die eine gute Übereinstimmung mit der bekannten Morphologie zeigen. Allerdings rekonstruieren die DTI basierten Methoden vor allem in Regionen mit sich kreuzenden Nervenbahnen falsche Faserverläufe. Aus diesem Grund wurden einige Lösungsansätze zu dieser essentiellen Problematik veröffentlicht. Die meisten dieser Verfahren passen sich nicht der vorliegenden Faserkonfiguration an, so dass die Qualität der Ergebnisse stark von der anatomischen Position abhängt. Dies resultiert in falschen oder unscharfen Ergebnissen oder auch im Verlust von relevanten Informationen.
<br>
<br>Die vorliegende Arbeit greift die geschilderte Problematik der Kreuzungsregionen als Kernpunkt auf. Es wird das Verfahren des Multi/Single-Diffusions-Tensor (MDT/SDT) Algorithmus vorgestellt, welches Regionen sich kreuzender Fasern erkennt und mehrere Faserrichtungen innerhalb eines Voxels bestimmt. Zur zusätzlichen Verifizierung der durch den MDT/SDT-Algorithmus bestimmten Faserrichtung wurde ein DTI-basiertes Fibertracking Verfahren für das MDT/SDT-Modell erweitert (mFACT).
<br>
<br>Die als Point-Tracking benannte Methode baut auf einer Weiterentwickelung des MDT-Modells auf. Im Gegensatz zu den gängigen Verfahren wird hier von den globalen Eigenschaften der Nervenbahnen ausgegangen und deren Rekonstruktion simultan mit der Modellierung der Diffusion durchgeführt. Diese Herangehensweise erlaubt die Verwendung eines adaptiven MDT-Modells, dessen Komplexität sich den jeweiligen Gegebenheiten anpasst.
<br>
<br>Die oben erörterten Methodiken beschäftigen sich primär mit der qualitativen Bestimmung von Nervenbahnverläufen für visuelle Zwecke. Um quantitative Aussagen über die Stärke einer neuronalen Verbindung zweier Gehirnareale vornehmen zu können, sind andere Verfahren notwendig. Eine Möglichkeit der Quantifizierung bieten Karten, die Verbindungswahrscheinlichkeiten zu einem definierten Startpunkt, dem sogenannten Seedpunkt, beschreiben. Allerdings ist in vielen Fragestellungen die Quantifizierung einer bestimmten Nervenverbindung erforderlich, die durch zwei Punkte definiert wird. Daher widmet sich ein weiterer Teil der vorliegenden Arbeit der Entwicklung eines effizienten Verfahrens, Nervenbahnen zu quantifizieren.
<br>
<br>Auf der Basis der bearbeiteten Themen gliedert sich die vorliegende Arbeit folgendermaßen: Kapitel 1 führt in die allgemeinen Grundlagen der Diffusion, der Grundprinzipien der diffusionsgewichteten MRT sowie der Anatomie und Physiologie des menschlichen Gehirns ein. Kapitel 2 erörtert die für die Arbeit notwendigen informations- und wahrscheinlichkeitstheoretischen Grundlagen. Dabei wird vor allem auf die sogenannten räumlichen Punktprozesse eingegangen, welche die Basis der entwickelten Point-Tracking Methode repräsentiert. Anschließend gibt Kapitel 3 einen Überblick über die existierenden Modelle zur Beschreibung der Diffusionsverteilung und über die existierenden Ansätze zur Nervenbahnrekonstruktion.
<br>
<br>Aufbauend auf den dargestellten Grundlagen der Kapitel 1 bis 3 präsentieren die Kapitel 4 bis 7 die im Rahmen der Promotion erarbeiteten Methoden und Ergebnisse. Kapitel 4 stellt den MDT/SDT-Algorithmus vor und demonstriert seine Leistung anhand von Simulationen und in vivo. Darauf aufbauend werden in Kapitel 5 die zwei Verfahren mFACT und Point-Tracking vorgestellt, welche die Rekonstruktion der Nervenbahnen in Kreuzungen ermöglichen. Kapitel 6 beschreibt ein Verfahren zur quantitativen Bestimmung neuronaler Verbindungen. Das letzte Kapitel fasst die Ergebnisse dieser Arbeit noch einmal zusammen und gibt einen kurzen Ausblick auf mögliche Weiterentwicklungen der vorgestellten Methoden.
Magnetic-Resonance Imaging (MRI) allows the quantification of physical processes like the diffusivity of water inside the human body. When repeating the diffusion sensitive MR-measurement with various diffusion encoding directions, the spherical distribution of diffusion coefficients can be sampled. In fibrous tissue, like in neuronal fibres bundles of the white matter in brain, the highest diffusion coefficient will be along the fibre direction. This property can be used to reconstruct fibre pathways non-invasively. This very new method is called fibre tracking.
<br>
<br>Most fibre tracking methods are based on Diffusion Tensor Imaging (DTI). Thereby, the spherical diffusion distribution is simplified by a tensor for each voxel. For very dominant fibre pathways, the DTI based fibre tracking methods are able to reconstruct a good approximation to the known morphology. But especially in areas of crossing fibres, the tensor model cannot resolve the different directions of the underlying fibres.
<br>
<br>One central topic of this work deals with the above described issue of the fibre reconstruction methods. A Multi-Diffusion-Tensor (MDT) based method is introduced to identify and resolve crossing fibres. Based on this approach, a deterministic and a probabilistic method for fibre reconstruction in crossing regions was developed.
<br>Besides the main topic, an efficient, DTI based method to quantify fibre connections was developed and is introduced in this work.
<br>
<br>The first three chapters of this work give a brief introduction to the concerning fields and provides an overview of the fibre tracking related methods. Thereby, the first chapter describes the basics of the diffusivity in vivo and their quantification by MRI. The second chapter provides an introduction to the used probability and computer science related methodologies. Especially, spatial point processes and their simulation by Monte Carlo Markov Chains (MCMC) are described in this chapter. Chapter three gives an overview of the available methods and models to describe the spherical diffusion distribution and for reconstruction of the fibre-trajectories.
<br>
<br>Chapter four, five, and six provide the methods and results of the new approaches developed in this work. Chapter four introduces the so called MDT/SDT-approach to identify and resolve the direction of crossing fibre pathways. The following fifth chapter describes the two fibre-tracking methods, which are capable to reconstruct crossing fibre pathways. The deterministic mFACT method is based on the results of the MDT/SDT-approach. This method is also used to verify the local fibre directions determined by the MDT/SDT-method. The second so called Point-Tracking method is based on spatial point-processes. Here, the spherical diffusion distribution is simulated by an adaptive MDT-model. All trajectories in the brain are determined simultaneously by minimising the residuals and a global error term scoring the trajectories. The sixth chapter introduces a new DTI-based method to quantify fibre connections by combining different connectivity maps. Finally, the whole work is summarised in the last chapter, containing a short outlook to the further work.
2007
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/3293
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-32934
https://doi.org/10.6094/UNIFR/3293
https://freidok.uni-freiburg.de/dnb/download/3293
https://freidok.uni-freiburg.de/data/3293
oai:freidok.uni-freiburg.de:3301
2018-06-07T17:56:24Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Three-dimensional perception for mobile robots
Dreidimensionale Wahrnehmung für Mobile Roboter
Triebel, Rudolph
Mobiler Roboter
Objekterkennung
Online-Ressource
Diese Arbeit befasst sich mit dem Problem der dreidimensionalen Wahrnehmung von mobilen Robotern, wobei die Wahrnehmung aus den Teilaspekten Datenaufnahme, konsistente und effiziente Datenrepräsentation, sowie der Klassifikation der vorhandenen 3D Objekte besteht. Für all diese drei Bereiche werden neuartige
<br>Herangehensweisen bereitgestellt.
<br>Zur Datenaufnahme stellen wir ein Robotersystem bestehend aus einem Arm mit vier Freiheitsgraden und einem Laser-Entfernungs-Sensor vor. Dieses System kann Objekte, die innerhalb der Reichweite des Arms ist, in 3D erfassen. Die Wege, die der Laser-Sensor dabei abfährt, werden selbstständig geplant, indem der erwartete Informationsgewinn entlang möglicher kollisionsfreier Wege maximiert wird. Dadurch wird die Anzahl der Datenerfassungen minimiert und die Sensorwege werden dem Objekt angepasst.
<br>Zur konsistenten und effizienten Datenrepräsentation entwickeln wir zunächst einen probabilistischen Algorithmus zur Erkennung von Ebenen in 3D Entfernungsdaten, welcher auf einem hierarchischen Bayesschen Netz basiert und das Prinzip der Erwartungswertmaximierung anwendet.
<br>Die dabei erreichten Verbesserungen gegenüber bisherigen Ansätzen beruhen auf dem Einbeziehen von Ebenen-Hauptrichtungen sodass Ebenen entweder parallel zueinander sind oder sich in einem bestimmten Winkel schneiden. Außerdem wird die Texturinformation zur Verbesserung der Ebenenberechnung verwendet. Im zweiten Teil des Datenrepräsentationsschritts formulieren wir eine neue
<br>probabilistische Kartendarstellung, die besonders zur Bewegungsplanung und zur Navigation in Umgebungen mit mehreren Oberflächen auf verschiedenen Höhenniveaus geeignet ist. Diese Datenrepräsentation wird als Mehrstufige Oberflächenkarte (kurz: MLS-Karte) bezeichnet und stellt eine Erweiterung der sogenannten Erhebungskarten dar. Der Vorteil von MLS-Karten ist die Fähigkeit, mehrere übereinander liegende Ebenen wie z.B. bei Brücken, darzustellen. Zusätzlich
<br>schlagen wir einen Algorithmus vor, der global konsistente Kartendarstellungen aus lokalen 3D Ansichten mit Hilfe von beschränkter Optimierung der Roboterpositionen in sechs Freiheitsgraden berechnet. Die dabei erreichte Verbesserung beruht auf der Hinzunahme von globalen Beschränkungen zusätzlich zu den lokalen, die aus dem paarweisen Zusammenfügen von aufeinander folgenden lokalen Ansichten entstehen. Dadurch kommt der Algorithmus mit weniger
<br>benötigten lokalen Ansichten zurecht, die sich gegenseitig zu geringeren Anteilen überlappen können. Außerdem wird kein Schleifenschließen benötigt, um den angesammelten Positionierungsfehler zu korrigieren.
<br>Zur Klassifikation von dreidimensionalen Objekten stellen wir einen Ansatz aus dem Kontext des überwachten Lernens vor. Die Grundidee des Algorithmus ist die der kollektiven Klassifikation, bei der die Klassenzuordnung eines Datenpunktes sowohl von der lokalen Evidenz abhängt, zu einer bestimmten Klasse zu gehören, als auch von der Zuordnung der benachbarten Datenpunkte. Dabei werden die statistischen Abhängigkeiten der Klassifizierungen benachbarter Datenpunkte
<br>modelliert. Zur Beschreibung der A-Posteriori-Verteilung der Klassenzuordnungen für eine gegebene Menge von Merkmalsvektoren benutzen wir Assoziative Markov-Netze (AMNs) und erweitern den AMN-Ansatz in zwei Aspekten. Einerseits entwickeln wir eine Technik zur adaptiven Reduktion des Trainingsdatensatzes mit Hilfe von geeignet zugeschnittenen kd-Bäumen. Dadurch wird der Lernschritt ohne
<br>Minderung der Klassifizierungsrate beschleunigt. Zum anderen kombinieren wir den AMN-Klassifikator mit einer instanzbasierten Nächste-Nachbarn-Methode. Dabei werden die Merkmale so transformiert, dass sie einfacher durch Hyperebenen trennbar sind, was eine Einschränkung bei der Benutzung von AMNs darstellt. Dadurch wird die Klassifikation im Vergleich zum Standard AMN-Ansatz verbessert.
<br>Schließlich stellen wir zwei Anwendungen für den vorgeschlagenen Ansatz der 3D Wahrnehmung vor. Die erste Anwendung ist die Erstellung von sehr großen, konsistenten MLS-Karten von Außenbereichen mit Hilfe eines Roboterautos. Das Auto ist ausgestattet mit verschiedenen Sensoren zum Lokalisieren und Kartenerstellen, wie z.B. einem GPS-Empfänger und einem 3D Laser-Entfernungs-Sensor. Wir zeigen, dass trotz eines sehr genauen Lokalisierungsmoduls der hier vorgestellte globale Registrierungsalgorithmus notwendig ist, um die Positionen des Fahrzeugs zu korrigieren. Die zweite Anwendung behandelt das Problem der Okklusionen in 3D Entfernungsdaten. Hierzu werden die vorhandenen Objekte zunächst wie gezeigt klassifiziert. Verdeckte Objekte, die vom Sensor nur teilweise erfasst wurden, werden dennoch richtig
<br>klassifiziert, solange ihr sichtbarer Anteil groß genug ist. Dann werden alle Instanzen eines Objekttyps zu einem Prototypen zusammengefügt. Der verdeckte Teil eines Objektes kann dann vervollständigt werden, indem das Objekt duch den Prototypen ersetzt wird.
This thesis addresses the problem of three-dimensional perception for mobile robots, where perception comprises three major tasks, namely data acquisition, consistent and efficient representation, and addition of semantic information by classification of the encountered objects. For all three of these subtasks we provide novel approaches.
<br>For the data acquisition we present a robotic system consisting of a 4 DOF manipulator that carries a laser range finder. This system is able to adaptively scan an object that is positioned within the range of the manipulator. The paths that are followed with the scanner are planned automatically by maximizing the expected information gain along possible collision-free scan paths. This way, the number of scans is minimized and the paths are adapted to the object.
<br>For the second task we propose methods for a compact and consistent representation of three-dimensional data. In a first step, we develop a probabilistic algorithm that detects planar structures in 3D range scans, which is based on a hierarchical Bayes net and uses expectation maximization (EM) to estimate the positions of the planes. The improvements over existing approaches are achieved by incorporating main directions into the plane estimation process. Furthermore, the use of texture information is introduced as an improvement of the plane estimation. In the second step, we formulate a new probabilistic representation that is particularly suited for motion planning and navigation in environments with several surfaces at different height levels. This representation is called multi-level surface maps (MLS maps) and constitutes an extension of the framework of elevation maps. The advantage over elevation maps is the ability to represent overhanging objects such as trees and multiple surface levels as in the case of bridges. Finally, in the third and last step,
<br>we propose an algorithm that computes globally consistent map representations from local 3D views by using a constraint optimization of the robot poses in 6 degrees of freedom. The improvement achieved by the presented registration method is based on global constraints in addition to the local constraints imposed by pairwise scan matching of consecutive views. A global constraint is derived from line features in different scans that correspond to a common plane. The new registration algorithm can deal with less local views that overlap
<br>each other in smaller portions. Also, no loop closing is required to correct for accumulated positioning errors.
<br>In the third and last task we provide a novel approach to classify 3D objects. The approach is formulated in the context of supervised learning, where a set of parameters is first computed in the learning step and later used to perform the object classification in the inference step. The main idea of the classification algorithm is taken from the framework of collective classification, where the labeling of each data point is decided upon the local evidence that this point
<br>belongs to a certain class as well as the labeling of the neighboring data points. This provides a method to model the statistical dependence of class labels of nearby data points. To describe the posterior distribution of the class labels for a given set of feature vectors, we use associative Markov networks (AMNs) where the AMN approach is extended in two ways. First, we provide a technique for adaptively reducing the training data set, based on appropriately pruned kd-trees. This results in a faster learning step without
<br>reducing the classification rates. Second, we combine the AMN classifier with an instance-based nearest-neighbor method. The idea here is to transform the features so that they are more easily separable by hyperplanes, which is one requirement for the use of AMNs. As a result, the classification improves over the standard AMN approach.
<br>Finally, we present two applications of the proposed 3D perception approach. The first application is the computation of a large-scale consistent MLS map of outdoor environments by use of a robotic car. The car is equipped with several sensors for localization and mapping, e.g. a GPS receiver and a 3D laser range finder. We show that, although the system includes a very accurate localization module based on an information filter, the global registration algorithm is
<br>needed for the correction of the vehicle poses. The second application addresses the problem of occlusions in 3D range scan data. Here, we first apply our object recognition technique to classify several objects in a range scan. Objects that are only partially visible due to occlusions in the input data, are still classified correctly, as long as their visible part is large enough. Then, all instances of one object class are matched to one object prototype using scan
<br>matching. Then the occluded part of an object instance is completed by replacing the occluded object with the prototype.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/3301
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-33016
https://freidok.uni-freiburg.de/dnb/download/3301
https://freidok.uni-freiburg.de/data/3301
oai:freidok.uni-freiburg.de:3394
2018-06-07T17:53:44Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
3D invariants for automated pollen recognition
3D-Invarianten zur automatischen Pollenerkennung
Ronneberger, Olaf
Mustererkennung
Volumendaten
Merkmalsextraktion
Haar-Integral
Support-Vektor-Maschine
Pollenflug
Mikroskop
Laser-Rastermikroskop
Online-Ressource
In biomedical research we can see a clear tendency towards the study of cells and whole organisms in their natural 3D environment, away from the studies of isolated flat cells, that were grown in a synthetic 2D environment and were analyzed with 2D techniques. Another trend in biomedical research is the ever increasing need for high-throughput experiments, e. g., to retrieve statistically relevant information. The equipment for the automatic recording of great amounts of 3D volumetric data is available in many research laboratories today, but the recorded 3D data are still manually evaluated which has become the main bottleneck in many applications.
<br>
<br>In this thesis the development of 3D invariants for the recognition of biological structures is described. These invariants are based on the Haar-integration-framework of Schulz-Mirbach (1995b). The invariance properties are reached by an integration over the desired transformation groups, e. g. rotation and translation. Several important aspects of the application of the Haar-integration framework to 3D volumetric data sets of biological structures are described. The most important extension is the introduction of deformation models such that the resulting features are robust to elastic deformations of the structures. Another important aspect is the reached robustness to even non-linear gray-scale transformations, that allow certain variations of the recording parameters between the training and the test objects. The direct computation of these invariants is computationally very expensive. Several new techniques are introduced that allow a fast computation of the invariants by means of the FFT, by the expansion of the integral into spherical harmonics series or by simultaneous computation of multiple invariants based on invertible vectorial kernel functions. Furthermore voxel-wise invariants are introduced for a simultaneous segmentation and recognition of 3D structures. Vectorial invariants are developed for a fast and reliable detection of spherical objects in cluttered environments. A very challenging application that demands many of the requirements to be fulfilled which are given in the biomedical research is the recognition of pollen grains. The high number of different pollen grains from different plants contain very different kinds of structures that have to be identified. For a part of these structures clear one-to-one correspondences can be identified, while for the other part of these structures only the statistical properties match.
<br>
<br>In the given application we use microscopically recorded images to recognize a real-world object. For the correct interpretation of the gray values it is important to understand the different effects within a microscope. The main four steps, illumination, interaction of the object with the light, transformation of the emitted light, and the recording of the light are explained.
<br>
<br>In pollen recognition (as in many other applications) we should differentiate between those results that can be reached within a clean and well-controlled laboratory environment and those results of a real-world routine application. In this thesis two representative data sets for these scenarios are used: The first one (denoted as "confocal data set" here) is a typical laboratory data set: The pollen were collected directly from the corresponding plants. They were carefully prepared on one slide per taxon and were manually recorded as a full 3D volumetric data set with confocal laser scanning microscopy. Due to the high costs of such a system and the time-consuming operation, only a small data set containing 389 pollen grains of 26 different taxa (15 grains per taxon) was recorded. The preparation and recording applied here guarantees a 100% correct labeling of the pollen grains and contains the lowest possible degree of distortion due to optical effects. On the other hand the used samples do not represent all variations within each taxon, such as different genera, species or subspecies, different growth conditions of the plants, etc. Furthermore this data set does not contain deformed, contaminated or agglomerated pollen grains or pollen grains at different levels of degradation and it does not contain the vast amount of other particles that are found in real air samples.
<br>
<br>The second data set (denoted as "pollenmonitor data set") is a typical real-world data set. It was automatically collected, prepared and recorded by the first prototype of the pollenmonitor during the pollen season 2006 in Freiburg and Zürich. It contains about 22,750 pollen grains from 33 taxa together with about 170,000 other spherical airborne particles.
<br>
<br>The detection of the pollen grains in the recorded volumetric data sets is done by vectorial voxel-wise invariants (named "MiSP detector" for Microscopical Spherical Particles). The precise segmentation of the detected pollen grains is performed by standard algorithms that were adapted to the given requirements. For the confocal data set a graph-cut-based segmentation was used. For the pollenmonitor data set a combination of a modified canny-edge detector, a model-based weighting of the found edges and a snake approach was applied. The feature extraction is done by the upper described invariants (named "MiSP invariants") which exhibit a high robustness to elastic deformations and nonlinear grayvalue transformations. At the same time these invariants are sensitive to subtle structural changes that cannot be modeled by deformations. The classification of the objects is performed with support vector machines that were optimized to deal with the very high dimensionality of the extracted feature vectors (e.g., 87,296 for the pollenmonitor data set).
<br>
<br>The recognition rate on the confocal data set (389 pollen grains of 26 taxa) is very high. In a leaveone- out validation with a simple 1 Nearest Neighbor classifier only 3 of the 389 pollen grains were misclassified (99.2% recognition rate). With a support vector machine only 2 incorrectly classified pollen grains were obtained (99.5% recognition rate). In the second case the misclassified pollen were confused with another genus from the same family. The best recognition rates obtained by other approaches on typical "laboratory" data sets are 89% on a data set containing 3,800 pollen grains from 19 taxa, or 70% on a data set containing 16,220 pollen grains from 80 taxa.
<br>
<br>For the rating of the results on the pollenmonitor data set another statistical measure that the recognition rate is useful. In pollen samples from the ambient air we are confronted with a very high number of particles other than pollen that have to be correctly rejected by the recognition system. Here the precision (fraction of correctly classified pollen within the objects, that were classified as pollen) is the most important statistical measure. The validation was done by splitting the pollenmonitor data set (22,750 pollen grains from 33 taxa + about 170,000 dust particles) into a training set and a test set. The training set contains only samples from Freiburg, while the test set contains samples from Freiburg and Zürich. The obtained precision for all 33 pollen taxa is 96.7% at a recall of 84.3%. The results for the five highly allergenic pollen taxa in this data set (that are monitored for the pollen forecasts) are 98.5% precision at a recall of 86.5%. The best results obtained by other approaches on a real-world data set (3104 pollen grains from 8 taxa + about 30,000 dust particles) is a precision of 30% at a recall of 64.9%.
<br>
<br>The results obtained with the proposed MiSP invariants are significantly better than the state of the art in pollen recognition. Furthermore these techniques have proven to work not only on a small laboratory-type data set but also on a very large real-world data set. Especially the reached robustness to elastic deformations and the full 3D approach seems to be a key requirement for a reliable recognition of biological structures. We think that the new findings will be a valuable foundation for many further developments in the field of the recognition of biological structures in 3D volumetric data sets.
In der bio-medizinischen Forschung ist eine klare Tendenz erkennbar, die weg von der klassischen 2D Analyse einzelner flacher Zellen in einer synthetischen zweidimensionalen Umgebung hin zur Untersuchung von Zellen und ganzen Organismen in ihrer natürlichen dreidimensionalen Umgebung geht. Außerdem wächst der Bedarf an Experimenten, die an einer großen Zahl gleicher Systeme durchgeführt werden, um z.B. Daten für statistische Aussagen zu gewinnen. Die apparative Ausstattung zur Aufnahme großer Mengen dreidimendionaler Volumendaten ist heutzutage in vielen Forschungslaboratorien verfügbar, aber die Auswertung dieser Daten erfolgt immer noch manuell. Diese zeitaufwändige Auswertung ist inzwischen der Haupt-Engpass in vielen derartigen Anwendungen.
<br>
<br>In der vorliegenden Dissertation wird die Entwicklung von 3D Invarianten zur Erkennung von biologischen Strukturen beschrieben. Diese Invarianten wurden mit Hilfe eines Schemas entwickelt, das von Schulz-Mirbach (1995b) angegeben wurde und auf der Haar-Integration beruht. Die benötigten Invarianzeigenschaften werden dabei durch die Integration über die entsprechende Transformationsgruppe wie z.B. Rotation und Translation erreicht. Verschiedene Erweiterungen des Haar-Integrations-Schemas werden beschrieben, die für die Anwendung auf 3D Volumendaten biologischer Strukturen benötigt werden. Die wichtigste Erweiterung ist dabei die Einführung eines Deformationsmodells, so dass die resultierenden Merkmale robust gegenüber elastischen Deformationen der betrachteten Strukturen werden. Ein weiterer wichtiger Aspekt ist die erreichte Robustheit gegenüber nicht-linearen Grauwert-Transformationen, die gewisse Veränderungen der Aufnahmebedingungen zwischen den Aufnahmen der Trainings- und der Test-Objekte erlaubt.
<br>
<br>Die direkte Berechnung dieser Invarianten ist extrem rechenaufwändig. Mehrere neue Verfahren zur schnellen Berechnung der Invarianten durch den Einsatz der FFT, durch die Entwicklung des Integrals in eine Reihe von Kugelfunktionen, oder durch die simultane Berechnung von mehreren Invarianten, basierend auf invertierbaren vektoriellen Kernfunktionen, werden vorgestellt. Außerdem werden voxelweise berechnete Invarianten eingeführt, mit deren Hilfe die Segmentierung und Erkennung von 3D Strukturen in einem Schritt durchgeführt werden kann. Für eine schnelle und zuverlässige Detektion von kugelförmigen Objekten in sehr heterogenen Umgebungen werden vektorielle Invarianten entwickelt.
<br>
<br>Eine sehr anspruchsvolle Anwendung, bei der viele der Anforderungen erfüllt werden müssen, die unter anderem in der bio-medizinischen Forschung auftreten, ist die Erkennung von Pollen. Die große Anzahl von verschiedenen Pollen der verschiedenen Pflanzen enthalten sehr unterschiedliche Typen von Strukturen, die identifiziert werden müssen. Für einen Teil dieser Strukturen können klare eins-zu-eins Korrespondenzen gefunden werden, während für einen anderen Teil der Strukturen nur die statistischen Eigenschaften übereinstimmen.
<br>
<br>In der vorliegenden Anwendung soll ein reales Objekt anhand von mikroskopisch aufgenommenen Bildern erkannt werden. Für die korrekte Interpretation der Grauwerte ist es wichtig, die verschiedenen Effekte innerhalb des Mikroskops zu verstehen. Daher werden die vier wichtigsten Schritte, die Beleuchtung, die Wechselwirkung des Lichtes mit dem Objekt, die Transformation des emittierten Lichtes und die Aufnahme des Lichtes umfassend erläutert.
<br>
<br>In der Pollen-Erkennung (so wie in vielen anderen Anwendungen) sollte man zwischen solchen Ergebnissen unterscheiden, die in einer sauberen, gut kontrollierbaren Labor-Umgebung erreicht werden können, und solchen Ergebnissen, die in einer realen Routineanwendung erreicht werden. In dieser Dissertation werden zwei repräsentative Datensätze für diese beiden Szenarien verwendet. Der erste (hier als "Konfokal-Datensatz" bezeichnet) ist ein typischer Labor-Datensatz: Die Pollen wurden direkt von den entsprechenden Pflanzen gesammelt und sorgfältig auf einem Objektträger pro Taxon präpariert. Von jedem Pollenkorn wurde manuell ein 3D Volumendatensatz mit einem konfokalen Laser-Scannnig-Mikroskop aufgenommen. Aufgrund der hohen laufenden Kosten eines solchen Systems und der zeitaufwändigen Aufnahme wurde nur ein relativ kleiner Datensatz mit 389 Pollen von 26 verschiedenen Taxa (15 Pollen pro Taxon) erzeugt. Dieses Vorgehen garantiert ohne Ausnahme die korrekte Zuordnung der Pollen zu der entsprechenden Pflanzenart und die geringst mögliche Verfälschung der Aufnahmen durch optische Effekte. Andererseits werden in diesem Datensatz nicht alle möglichen Variationen innerhalb eines Taxons abgedeckt. Dies betrifft vor allem Variationen aufgrund von verschiedenen Genera, Arten oder Unterarten innerhalb des Taxons, oder aufgrund von verschiedenen Wachstumsbedingungen der Pflanzen. Desweiteren enthält dieser Datensatz keine deformierten, kontaminierten oder agglomerierten Pollen, sowie keine Pollen in verschiedenen Zersetzungs-Zuständen und vor allem nicht die enorm hohe Zahl anderer Partikel, die in echten Luftstaubproben auftreten. Der zweite Datensatz (hier als "Pollenmonitor Datensatz" bezeichnet) ist ein typischer "Real-World"-Datensatz. Die Proben wurden in der Pollensaison 2006 vollautomatisch mit dem ersten Prototypen des Pollenmonitors gesammelt, präpariert und aufgenommen an den Standorten Freiburg und Zürich. Dieser Datensatz enthält insgesamt ca. 22.750 Pollen von 33 Taxa und etwa 170.000 andere rundliche luftgetragene Partikel.
<br>
<br>Die Detektion der Pollen in den aufgenommenen volumetrischen Datensätzen erfolgt mit vektoriellen voxel-weisen Invarianten (hier als "MiSP detector" für "Microscopical Spherical Particles" bezeichnet). Für die nachfolgende Segmentierung der detektierten Partikel werden angepasste Standardverfahren eingesetzt: Eine graph-cut basierte Segmentierung für den Konfokal-Datensatz und eine Kombination aus einem modifizierten Canny-Edge-Detector, einer modellbasierten Gewichtung der gefundenen Kanten und einem Snake-Ansatz für den Pollenmonitor-Datensatz. Für die Merkmals-Extraktion werden die oben beschriebenen Invarianten eingesetzt (hier als "MiSP invariants" bezeichnet), die eine hohe Robustheit gegenüber elastischen Deformationen und nichtlinearen Grauwerttransformationen aufweisen. Trotzdem sind diese Invarianten noch sensitiv für subtile strukturelle Änderungen, die nicht durch eine elastische Deformation modelliert werden können. Für die Klassifikation der Objekte werden Support-Vektor-Maschinen eingesetzt, die für die Verarbeitung von sehr hoch-dimensionalen Merkmalsvektoren optimiert wurden (z.B. 87.296 Dimensionen beim Pollenmonitor Datensatz).
<br>
<br>Die erreichte Erkennungsrate auf dem Konfokal-Datensatz (389 Pollen aus 26 Taxa) ist sehr hoch. In einer "leave-one-out validation" mit einem einfachen 1-nächster-Nachbar Klassifikator wurden nur drei Pollenkörner falsch klassifiziert (99.2% Erkennungsrate). Beim Einsatz einer Support-Vektor-Maschine sinkt diese Zahl auf 2 falsch klassifizierte Pollenkörner (99.5% recognition rate), wobei diese zwar einem anderen Genus zugewiesen wurden, der aber zur selben Familie gehört. Die besten Erkennungsraten mit anderen Ansätzen auf typischen Labor-Datensätzen liegen bei 89% bei einem Datensatz mit 3.800 Pollen aus 19 Taxa oder 70% bei einem Datensatz mit 16.220 Pollen aus 80 Taxa. Für die Bewertung der Ergebnisse auf dem Pollenmonitor-Datensatz ist ein anderes statisches Maß als die einfache Erkennungsrate sinnvoll. Pollenproben aus der Umgebungsluft enthalten eine sehr hohe Anzahl von anderen luftgetragenen Partikeln die von dem Erkennungssystem korrekt zurückgewiesen werden müssen. In diesem Fall ist die Präzision (Anteil der korrekt klassifizierten Pollen innerhalb aller Objekte, die als Pollen klassifiziert wurden) das wichtigste statistische Maß. Die Validierung des Systems auf dem Pollenmonitor-Datensatz (22.750 Pollen aus 33 Taxa + etwa 170.000 Staubpartikel) wurde durch eine Aufteilung in einen Trainings-Datensatz und einen Test-Datensatz durchgeführt. Der Trainings-Datensatz enthält nur Proben aus Freiburg, während der Test-Datensatz Proben aus Freiburg und aus Zürich enthält. Die erreichte Präzision bei der Betrachtung aller 33 Taxa ist 96.7% bei einer Erkennungsrate von 84.3%. Die Ergebnisse für die 5 hoch-allergenen Pollenarten (die für die Pollenflugvorhersagen relevant sind) liegen noch leicht darüber. Dort konnte eine Präzision von 98.5% bei einer Erkennungsrate von 86.5% erreicht werden. Die besten Ergebnisse, die mit anderen Ansätzen auf einem "Real-World"-Datensatz (3104 Pollen aus 8 taxa + etwa 30.000 Staubpartikel) erreicht wurden, liegen bei 30% Präzision bei einer Erkennungsrate von 64.9%.
<br>
<br>Die erzielten Ergebnisse mit den vorgeschlagenen "MiSP invariants" sind signifikant besser als der Stand der Technik. Darüber hinaus konnte demonstriert werden, dass diese Techniken nicht nur auf kleinen Labor-Datensätzen sondern auch auf sehr großen "Real-World"-Datensätzen sehr gute Ergebnisse liefern. Insbesondere die erreichte Robustheit gegenüber elastischen Deformationen und der 3D Ansatz scheinen eine wesentliche Voraussetzung für die verlässliche Erkennung von biologischen Strukturen darzustellen. Wir glauben, dass die neuen Erkenntnisse eine wertvolle Grundlage für viele weitere Entwicklungen im Bereich der Erkennung von biologischen Strukturen in 3D Volumendaten sind.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/3394
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-33942
https://freidok.uni-freiburg.de/dnb/download/3394
https://freidok.uni-freiburg.de/data/3394
oai:freidok.uni-freiburg.de:3449
2018-02-14T10:54:32Z
pub-type:other_doctype
ddc:004
has-source-swb:true
hasFile:true
Zuverlässige Montagetechnik für Baugruppen mit Chip Scale Packages : Schlußbericht für den Zeitraum: 01.02.2005 bis 30.06.2007 ...
Zukowski, Elena
Wilde, Jürgen
Simulation
Ziel des vorliegenden Forschungsvorhabens ist die Erstellung eines Zuverlässigkeitsmodells für CSP, mit dem die Lebensdauer bei verwandten, neuen CSP-Bauformen oder modifizierten Umgebungsbelastungen ausgehend von existierenden Zuverlässigkeitsdaten abgeschätzt werden kann. Eine Voraussetzung hierfür ist die Ermittlung von Basisdaten zur Zuverlässigkeit von Baugruppen mit neuen Bauformen wie µBGA und QFN sowie mit bleifreien Loten bei typischen thermischen Wechselbelastungen. In dem vorliegenden Vorhaben sollten alle relevanten Einflussgrößen, welche die Lebensdauer der Baugruppen beeinflussen, gefunden und in ein möglichst universelles Zuverlässigkeitsmodell für die verschiedenen CSP umgesetzt werden.
<br>
<br>Daher wurden im Vorhaben KMU-relevante Bauformen gemeinsam mit dem Projektbegleitenden Ausschuss ausgewählt. Die untersuchten Bauformen umfassen verschiedene µBGA (Mikro-Ball-Grid-Array) und QFN (Quad-Flat-No-Lead). Der Schwerpunkt der Untersuchungen lag dabei auf thermisch-mechanischen Fragestellungen. Dabei erfolgte eine arbeitsteilige Bearbeitung bei den beteiligten Forschungsstellen. Am IMTEK lag der Schwerpunkt auf der Planung und Entwicklung des Testprogramms und der Proben, auf der Finite-Elemente-Modellierung und der Metallurgie, bei IZM ZVE wurden die Testbaugruppen hergestellt, getestet und zerstörungsfrei geprüft.
<br>
<br>Zu den gewählten Bauformen wurden Proben für die erste Strukturanalyse zum Teil vom PBA bereitgestellt. Die Darstellung und Vermessung des Aufbaues der Bauteile wurde mit Hilfe der metallographischen Präparation, ergänzt durch die Bildanalyse von Schliffbildern, realisiert. Die zu erstellenden FE-Modelle umfassen neben der Geometrie auch die in der Anwendungsumgebung relevanten Werkstoffdaten. Für realistische Simulationen muss ihre Temperatur- und Zeitabhängigkeit berücksichtigt werden. Bei den implementierten Werkstoffdaten handelt es sich sowohl um im Rahmen des Vorhabens gemessene Werte als auch um recherchierte Hersteller-angaben und Literaturdaten. Die Streuungen in den Eingangsparametern bei Design, Material und Geometrie wurden dabei ebenfalls analysiert.
<br>
<br>Testbord-Layouts wurden entwickelt und bleifreie Lötversuche wurden vorgenommen. Dabei wurden eine Reihe relevanter Einflussparameter bezüglich Material, Aufbau und Fertigungstechnologie, wie die Bestückungs- und Lötprozess-Parameter variiert. Das Versuchsprogramm deckt insgesamt die für industrielle KMU-Anwender typischen Bedingungen weitgehend ab. Die gefertigten Proben wurden zunächst metallographisch und mit Röntgendurchstrahlung charakterisiert. Zur Untersuchung der Zuverlässigkeit der Lötverbindungen wurden die gelöteten Testboards bis zu 2000fachen Temperaturwechseln von -40°C bis 125 °C ausgesetzt. Die Untersuchung auf Ausfälle erfolgte offline elektrisch an sog. Daisy-Chains. Nach den Temperaturwechselversuchen wurden die Baugruppen metallographisch untersucht und die Ausfallkinetik grafisch wurde dargestellt.
<br>
<br>Zur Modellierung der Streuung von Zielgrößen wurden Monte-Carlo-Verfahren verwendet, um die Wirkung der Veränderlichkeit von Geometrie und Material-eigenschaften auf Lebensdauervorhersagen zu untersuchen. In den weiteren Arbeitspaketen wurden alle relevanten Einflussgrößen, welche die Lebensdauer der Baugruppe beeinflussen, gefunden. Die Empfindlichkeit bzw. Wirkung der Parameter wurde durch Berechnung von Korrelationskoeffizienten zwischen jeder Einflussgröße und der Zuverlässigkeit ermittelt. Die Modellbildung ergab durch die Anwendung der probabilistischen Methode erstmals synthetisch berechnete Verteilungskurven für CSP-Baugruppen bei Temperaturwechselbelastungen. Die Verifikation der Methode wurde durch einen Vergleich experimentell ermittelter Lebensdauerkennwerte und solcher aus der Simulation verwirklicht.
<br>
<br>Hierauf aufbauend wurden statistische Modelle entwickelt, um die thermische Zuverlässigkeit der CSP wie µBGA und QFN vorauszusagen. So können den Anwendern kostengünstiger und schneller Ergebnisse zur Verfügung gestellt werden, die es ermöglichen, den Einfluss der Lötverbindungs-Geometrie, Bauteilgröße, Materialeigenschaften und Temperatur-Zyklen auf die Zuverlässigkeit der Bauteile zu verstehen und zu quantifizieren.
<br>
<br>Da hierbei der Einsatz aufwändiger FE-Simulationen weitgehend reduziert wird, ist die Methode besonders für KMU zur Zuverlässigkeitsabschätzung in einer Konzeptphase geeignet. Unternehmen können die angestrebten Ergebnisse dieses Forschungsvorhabens auch im Rahmen von Entwicklungsvorhaben zur Technologie- und Prozessqualifizierung und zur Optimierung ihrer Produkte und Prozesse nutzen.
2007
ger
other_doctype
pdf
free
https://freidok.uni-freiburg.de/data/3449
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-34492
https://doi.org/10.6094/UNIFR/3449
https://freidok.uni-freiburg.de/dnb/download/3449
https://freidok.uni-freiburg.de/data/3449
oai:freidok.uni-freiburg.de:3485
2015-04-29T10:21:49Z
pub-type:other_doctype
ddc:004
has-source-swb:true
hasFile:true
Zuverlässigkeit bleifrei gelöteter Leistungsbaugruppen
Reliability of lead-free solders within power electronics
Wilde, Jürgen
Dalin, Johan
Löten
Mechatronik
Zuverlässigkeit
Leistungselektronik
Online-Ressource
Ziel des vorliegenden Forschungsvorhabens ist die Darstellung eines robusten Auslegungs- und Designprozesses zur Montage von Leistungsbauelementen mit bleifreien Loten. Eine Voraussetzung hierfür ist die Identifikation alle relevanten Einfluss-größen, welche die Lebensdauer der Lotverbindung beeinflussen. Wichtige Einfluss-größen sind Geometrie und Materialeigenschaften der Bauelemente und Substrate. Die Ermüdung der Lotverbindungen tritt speziell bei thermo-mechanischen Belastungen im Betrieb auf. Insbesondere bei mechatronischen Systemen sind Belastungen durch Temperatur, Verlustleistung und Vibration sehr hoch. Durch diesen mechanischen Stress entstehen Mikrorisse im Lot, die durch die Verbindung fortschreiten und elektrischen Ausfall der Module verursachen können.
<br>
<br>Die erprobten Leistungsbauelemente sind in gehäuster Ausführung (DPAK) und als Bare-Chips entweder mit einem SMT-Prozess auf Leiterplatten montiert oder direkt auf Keramik-Substrate gelötet und drahtgebondet worden. Das Löten der Module erfolgte auf Fertigungseinrichtungen der PbA-Mitglieder. Die Untersuchung der Zuverlässigkeit an gelöteten Baugruppen wurde mittels passiver und aktiver Temperaturwechseltests durchgeführt. Mit FE-basierten Belastungsanalysen in Kombination mit Schadensanlysen an experimentell geprüften Baugruppen wurden die relevanten Einflussgrößen auf die Zuverlässigkeit der Lotgefüge charakterisiert. Wichtige Ergebnisse sind:
<br>
<br>• Nach 1100 bis 1900 passiven Temperaturwechselzyklen liegt die Risslänge für aufgelötete DPAK-Bauformen auf FR4-Substraten im Bereich von 0 bis 100 Mikrometer. Nach 5000 passiven Temperaturwechselzyklen liegt die Risslänge im Bereich von 0 bis 1000 Mikrometer (SnAg3,8Cu0,7).
<br>
<br>• Das Keramikmaterial (Al2O3 / AlN) sowie die Größe des ICs für aufgelötete Bare-Chips auf DCB-Substraten haben signifikante Auswirkung auf das Risswachstum in den Lotverbindungen. Dabei ist ein niedrigerer Ausdehnungskoeffizient günstiger.
<br>
<br>Die erzielten Ergebnisse des vorliegenden Berichts sind notwendige Basisdaten für die Auslegung und Fertigung von zuverlässigen Leistungsbaugruppen. Sie sind damit sowohl für Hersteller von Materialien, Bauteilen und Loten als auch für Hersteller von Leistungsbaugruppen sowie für Endanwender von Interesse. Insbesondere werden Einflussgrößen wie Konstruktion und Technologien auf die Zuverlässigkeit von großflächigen Lotgefügen mit bleifreien Lotlegierungen beschrieben.
<br>
<br>Zur Nutzung der durch im Projekt erzielten Ergebnisse kann das Ausfallverhalten von Lotgefügen an Leistungsbaugruppen schon in der Entwicklungsphase mit relativ wenig Aufwand qualifiziert werden.
2007
ger
other_doctype
pdf
free
https://freidok.uni-freiburg.de/data/3485
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-34851
https://freidok.uni-freiburg.de/dnb/download/3485
https://freidok.uni-freiburg.de/data/3485
oai:freidok.uni-freiburg.de:4102
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
Die Rolle der Informatik in der Schule
Schlier, Christoph
Informatikunterricht
Online-Ressource
1976
ger
article
pdf
Zentralblatt für Didaktik der Mathematik 8 (1976), S. 82-84, ISSN: 0044-4103
free
https://freidok.uni-freiburg.de/data/4102
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-41028
https://freidok.uni-freiburg.de/dnb/download/4102
https://freidok.uni-freiburg.de/data/4102
oai:freidok.uni-freiburg.de:4103
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
Computer in die Schule - aber wie?
Schlier, Christoph
Mensch-Maschine-Kommunikation
Computerunterstützter Unterricht
Online-Ressource
1973
ger
article
pdf
Der mathematische und naturwissenschaftliche Unterricht 26 (1973), S. [321]-332, ISSN: 0025-5866
free
https://freidok.uni-freiburg.de/data/4103
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-41035
https://freidok.uni-freiburg.de/dnb/download/4103
https://freidok.uni-freiburg.de/data/4103
oai:freidok.uni-freiburg.de:4548
2018-06-12T11:33:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Mapping and exploration for search and rescue with humans and mobile robots
Kartierung und Erkundung in Katastrophengebieten durch Mensch und Roboter
Kleiner, Alexander
Katastrophenhilfe
Robotik
Exploration
Kartierung
Online-Ressource
Urban Search And Rescue (USAR) is a time critical task since all survivors have to be rescued within the first 72 hours. One goal in Rescue Robotics is to support emergency response by mixed-initiative teams consisting of humans and robots. Their task is to explore the disaster area rapidly while reporting victim locations and hazardous areas to a central station, which then can be utilized for planning rescue missions. To fulfill this task efficiently, humans and robots have to map disaster areas jointly while coordinating their search at the same time. Additionally, robots have to perform subproblems, such as victim detection and navigation, autonomously. In disaster areas these problems are extraordinarily challenging due to the unstructured environment and rough terrain. Furthermore, when communication fails, methods that are deployed under such conditions have to be decentralized, i.e. operational without a central station. In this thesis a unified approach joining human and robot resources for solving these problems is contributed. Following the vision of combined multi-robot and multi-human teamwork, core problems, such as position tracking on rough terrain, mapping by mixed teams, and decentralized team coordination with limited radio communication, are directly addressed. More specific, RFID-SLAM, a novel method for robust and efficient loop closure in large-scale environments that utilizes RFID technology for data association, is contributed. The method is capable of jointly improving multiple maps from humans and robots in a centralized and decentralized manner without requiring team members to perform loops on their routes. Thereby positions of humans are tracked by PDR (Pedestrian Dead Reckoning), and robot positions by slippagesensitive<br>odometry, respectively. The joint-graph emerging from these trajectories serves as an input for an iterative map optimization procedure. The introduced map representation is further utilized for solving the centralized and decentralized coordination of large rescue teams. On the one hand, a deliberate method for combined task assignment and multi-agent path planning, and on the other hand, a local search method using the memory of RFIDs for coordination, are proposed.<br>For autonomous robot navigation on rough terrain and real-time victim detection in disaster areas an efficient method for elevation map building and a novel approach to genetic MRF (Markov Random Field) model optimization are contributed. Finally, a human in the loop architecture is presented that integrates data collected by first responders into a multi-agent system via wearable computing. In this context, the support and coordination of disaster mitigation in large-scale environments from a central-command-post-perspective are described. Methods introduced in this thesis were extensively evaluated in outdoor environments and official USAR testing arenas designed by the National Institute of Standards and Technology (NIST). Furthermore, they were an integral part of systems that won in total more than 10 times the first prize at international competitions, such as the RoboCup world championships.
Katastrophenhilfe ist eine zeitkritische Aufgabe bei der Überlebende innerhalb der ersten 72 Stunden gerettet werden müssen. Ein Ziel der Rettungsrobotik ist die Unterstützung dieser Aufgabe mit kooperierenden Teams bestehend aus Menschen und Robotern. Dabei sollen das Katastrophengebiet flächendeckend erkundet und Positionen Überlebender an eine zentrale Befehlsstelle zur Planung von Rettungsmissionen gemeldet werden. Dies kann nur effizient erfolgen wenn Menschen und Roboter das Katastrophengebiet gemeinsam kartieren und gleichzeitig
<br>ihre Suche koordinieren. Roboter sollten dabei in der Lage sein, Teilprobleme, wie z.B. Navigation und das Aufspüren von Opfern, autonom durchzuführen. Aufgrund der unstrukturierten Beschaffenheit von Katastrophengebieten und der Unzugänglichkeit des Geländes ist die Bewältigung dieser Aufgaben außerordentlich schwierig. Des Weiteren müssen entwickelte Lösungen auch bei einem Totalausfall der Kommunikation dezentral funktionsfähig sein. In dieser Dissertation wird ein vereinheitlichter Ansatz für Menschen und Roboter zur Lösung dieser Probleme vorgestellt. Dabei werden Kernprobleme, wie z.B. Positionsbestimmung auf unwegsamen Gelände, Kartenerstellung durch heterogene Teams und dezentrale Team Koordination mit eingeschränkter Kommunikation direkt behandelt. Es wird die Methode "RFIDSLAM" zur robusten und effiziente Kartierung großräumiger Gebiete vorgestellt, welche RFID Technologie zur Wiedererkennung von Orten einsetzt. Die vorgestellte Methode beinhaltet einerseits die fortwährende Positionsbestimmung von Menschen und Robotern, jeweils mittels
<br>Fußgänger-Koppelnavigation und rutschemfindlicher Radodometrie, und andererseits eine graphenbasierte Kartenoptimierung. Das Verfahren kann zentral oder dezentral erfolgen, wobei im Gegensatz zu herkömmlichen Methoden, ein wiederholtes Besuchen von Orten einzelner Teammitglieder zum optimieren der Karte nicht erforderlich ist. Aufbauend auf dieser Kartenrepräsentation werden für die Koordination größerer Rettungsteams eine deliberative Methode zur Bestimmung der Aufgabenverteilung und Multiagenten-Pfadplanung und eine Methode zur lokalen Suche unter der Verwendung des Speichers von RFIDs, vorgestellt. Zur autonomen Navigation von Robotern auf unwegsamen Gelände und automatischen Erkennung von Menschen in Katastrophengebieten werden einerseits eine effiziente Methode zur Erstellung von Höhenkarten und andererseits ein Ansatz zur genetischen Optimierung von "Markov Random Field" Modellen präsentiert. Abschließend wird eine human in the loop Architektur vorgestellt, welche die Integration von gesammelten Daten einzelner Rettungseinheiten in ein Multiagentensystem erlaubt. In diesem Zusammenhang wird die zentrale Koordination großräumiger Katastrophenhilfe mittels Agententechnologie beschrieben. Die in dieser Arbeit vorgestellten Verfahren wurden weitgehend in Outdoor-Szenarien und offiziellen Testszenarien zum Katastrophenschutz getestet. Sie waren ein wesentlicher Bestandteil von Systemen, die insgesamt mehr als zehn mal den ersten Platz bei internationalen Wettbewerben, wie z.B. den RoboCup Weltmeisterschaften, erreichten.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/4548
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-45489
https://freidok.uni-freiburg.de/dnb/download/4548
https://freidok.uni-freiburg.de/data/4548
oai:freidok.uni-freiburg.de:4680
2018-06-12T11:36:47Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
TransForm: Transaktionen für Web-Formulare
TransForm: Transactions for web forms
Ihle, Matthias
Transaktionsverarbeitung
Formular
World Wide Web
Online-Ressource
Das World Wide Web mit seinen universellen, plattformunabhängigen Browsern und deren eingebauten Formularen scheint eine ideale Plattform für OLTP-Anwendungen zu bilden. Allerdings bereitet gerade die Verarbeitung von Web-Formularen in Transaktionen Schwierigkeiten, wenn die Abhängigkeit der zu schreibenden Daten von den Ausgangswerten erfasst werden soll. Üblicherweise wird deshalb die Serverinfrastruktur an die Bedürfnisse der Formularverarbeitung angepasst und auf modifizierte Webserver oder zusätzliche Transaktionsserver zurückgegriffen.
<br>
<br>TransForm verfolgt einen entgegengesetzten Ansatz und passt den Mechanismus der Formularverarbeitung und die Schnittstelle für den Datenzugriff an die Gegebenheiten des WWW an. Dabei fungiert ein Web-Service als Wrapper für die eigentliche Datenbank, der über eine HTTP-basierte Schnittstelle einzelne Transaktionsschritte entgegennimmt und zu ACID-Transaktionen zusammenfasst. Spezielle Formulare bilden das clientseitige Gegenstück im Browser, die wie gewöhnliche HTML-Formulare im Seitenquelltext definiert werden. Die Tagdefinitionen enthalten alle benötigten Informationen, damit ein Javascriptprogramm Benutzerinteraktionen automatisch in Aufrufe des Web-Service übersetzen kann.
As result of the ubiquity and platform independence of web browsers with their built-in web forms the World Wide Web seems to be an ideal platform for OLTP applications. On the other side, comprising the dependency of written data and initial values, the processing of web forms raises difficulties when transactions come into play. For this purpose the server infrastructure is usually tailored to the form processing needs, either by modifying the web server or introducing an additional transaction server.
<br>
<br>In this thesis, we propose with TransForm a solution following an opposite approach by adjusting the form processing mechanism and the data access interface to the realities of the WWW. Therefore, a web service acts as a wrapper for the underlying database subsuming individual transaction steps that are received via an HTTP-based interface into ACID transactions. Special forms are the client-side counterpart in the browser, defined in the web page source code like ordinary HTML forms. The tag definitions contain all the information that a JavaScript program needs to automatically translate user interactions into web service calls.
2008
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/4680
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-46804
https://freidok.uni-freiburg.de/dnb/download/4680
https://freidok.uni-freiburg.de/data/4680
oai:freidok.uni-freiburg.de:4835
2018-06-12T11:25:30Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Face image analysis with convolutional neural networks
Gesichtsbildanalyse mit neuronalen Faltungsnetzwerken
Duffner, Stefan
Mustererkennung
Neuronales Netz
Online-Ressource
In this work, we present the problem of automatic appearance-based facial analysis with machine learning techniques and describe common specific sub-problems like face detection, facial feature detection and face recognition which are the crucial parts of many applications in the context of indexation, surveillance, access-control or human-computer interaction.
<br>To tackle this problem, we particularly focus on a technique called Convolutional Neural Network (CNN) which is inspired by biological evidence found in the visual cortex of mammalian brains and which has already been applied to many different classification problems. Existing CNN-based methods, like the face detection system proposed by Garcia and Delakis, show that this can be a very effective, efficient and robust approach to non-linear image processing tasks such as facial analysis.
<br>An important step in many automatic facial analysis applications, e.g. face recognition, is face alignment which tries to translate, scale and rotate the face image such that specific facial features are roughly at predefined positions in the image. We propose an efficient approach to this problem using CNNs and experimentally show its very good performance on difficult test images.
<br>We further present a CNN-based method for automatic facial feature detection. The proposed system employs a hierarchical procedure which first roughly localizes the eyes, the nose and the mouth and then refines the result by detecting 10 different facial feature points. The detection rate of this method is 96% for the AR database and 87% for the BioID database tolerating an error of 10% of the inter-ocular distance.
<br>Finally, we propose a novel face recognition approach based on a specific CNN architecture learning a non-linear mapping of the image space into a lower-dimensional sub-space where the different classes are more easily separable.
<br>We applied this method to several public face databases and obtained better recognition rates than with classical face recognition approaches based on PCA or LDA. Moreover, the proposed system is particularly robust to noise and
<br>partial occlusions.
<br>We also present a CNN-based method for the binary classification problem of gender recognition with face images and achieve a state-of-the-art accuracy.
<br>The results presented in this work show that CNNs perform very well on various facial image processing tasks, such as face alignment, facial feature detection and face recognition and clearly demonstrate that the CNN technique is a versatile, efficient and robust approach for facial image analysis.
In dieser Arbeit stellen wir das Problem der automatischen, erscheinungsbasierten Gesichts-Analyse dar und beschreiben gängige, spezifische Unterprobleme wie z.B. Gesichts- und Gesichtsmerkmals-Lokalisierung oder Gesichtserkennung, welche grundlegende Bestandteile vieler Anwendungen im Bereich Indexierung, Überwachung, Zugangskontrolle oder Mensch-Maschine-Interaktion sind.
<br>Um dieses Problem anzugehen, konzentrieren wir uns auf einen bestimmten Ansatz, genannt Neuronales Faltungs-Netzwerk, englisch Convolutional Neural Network (CNN), welcher auf biologischen Befunden, die im visuellen Kortex von Säugetierhirnen entdeckt wurden, beruht und welcher bereits auf viele Klassifizierungsprobleme angewandt wurde. Bestehende CNN-basierte Methoden, wie
<br>das Gesichts-Lokalisierungs-System von Garcia und Delakis, zeigen, dass dies
<br>ein sehr effektiver, effizienter und robuster Ansatz für nicht-lineare Bildverarbeitungs-Aufgaben wie Gesichts-Analyse sein kann.
<br>Ein wichtiger Schritt in vielen Anwendungen der automatischen Gesichts-Analyse, z.B. Gesichtserkennung, ist die Gesichts-Ausrichtung und -Zentrierung.
<br>Diese versucht das Gesichts-Bild so zu verschieben, zu drehen und zu vergrößern, bzw. verkleinern, dass sich bestimmte Gesichtsmerkmale an vordefinierten Bild-Positionen befinden. Wir stellen einen effizienten Ansatz für dieses Problem vor, der auf CNNs beruht, und zeigen experimentell und anhand schwieriger Testbilder die sehr gute Leistungsfähigkeit des Systems.
<br>Darüberhinaus stellen wir eine CNN-basierte Methode zur automatischen Gesichtsmerkmals-Lokalisierung vor. Das System bedient sich einem hierarchischen Verfahren, das zuerst grob die Augen, die Nase und den Mund lokalisiert, und dann das Ergebnis verfeinert indem es 10 verschiedene Gesichtsmerkmals-Punkte erkennt. Die Erkennungsrate dieser Methode liegt bei 96% für die AR-Datenbank und 87% für die BioID-Datenbank mit einer Fehler-Toleranz von 10% des Augenabstandes.
<br>Schließlich stellen wir einen neuen Gesichtserkennungs-Ansatz vor, welcher auf einer spezifischen CNN-Architektur beruht und welcher eine nicht-lineare Abbildung vom Bildraum in einen niedrig-dimensionalen Unterraum lernt, in dem die verschiedenen Klassen leichter trennbar sind. Diese Methode wurde auf verschiedene öffentliche Gesichts-Datenbanken angewandt und erzielte bessere Erkennungsraten als klassische Gesichtserkennungs-Ansätze, die auf PCA oder LDA beruhen. Darüberhinaus ist das System besonders robust bezüglich Rauschen und partiellen Verdeckungen.
<br>Wir stellen ferner eine CNN-basierte Methode zum binären Klassifizierungs-Problem der Geschlechtserkennung mittels Gesichts-Bildern vor und erzielen eine Genauigkeit, die dem aktuellen Stand der Technik entspricht. Die Ergebnisse, die in dieser Arbeit dargestellt sind, beweisen, dass CNNs sehr gute Leistungen in verschiedenen Gesichts-Bildverarbeitungs-Aufgaben erzielen, wie z.B. Gesichts-Ausrichtung, Gesichtsmerkmals-Lokalisierung und Gesichtserkennung. Sie zeigen außerdem deutlich, dass CNNs ein vielseitiges, effizientes und robustes Verfahren zur Gesichts-Analyse sind.
2007
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/4835
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-48350
https://freidok.uni-freiburg.de/dnb/download/4835
https://freidok.uni-freiburg.de/data/4835
oai:freidok.uni-freiburg.de:4905
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
Die Entwicklung der Datenverarbeitung an der Universitätsbibliothek Freiburg 1991 bis 1994
Ruppert, Hans-Adolf
Datenverarbeitung
Universitätsbibliothek Freiburg
Online-Ressource
1994
ger
article
pdf
Bärbel Schubel (Hrsg.): Die Universitätsbibliothek Freiburg: Perspektiven in den neunziger Jahren; Wolfgang Kehr zum 63. Geburtstag und zum Beginn des Ruhestandes. Freiburg i. Br.: Universitätsbibliothek, 1994, S. 125-150, ISBN: 3-928969-02-1
free
https://freidok.uni-freiburg.de/data/4905
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-49057
https://freidok.uni-freiburg.de/dnb/download/4905
https://freidok.uni-freiburg.de/data/4905
oai:freidok.uni-freiburg.de:4907
2021-08-19T11:32:23Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
Datenschutz bei automatisierten Ausleihverfahren : Ergebnis der Prüfungen der Datenschutzbehörden in Baden-Württemberg
Ruppert, Hans-Adolf
Datenschutz
Ausleihverbuchung
Online-Ressource
1985
ger
article
pdf
Zeitschrift für Bibliothekswesen und Bibliographie. - 32, 6 (1985) , 471 - 477, ISSN: 0044-2380
free
https://freidok.uni-freiburg.de/data/4907
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-49075
https://freidok.uni-freiburg.de/dnb/download/4907
https://freidok.uni-freiburg.de/data/4907
oai:freidok.uni-freiburg.de:4909
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
The online information system of the University of Freiburg Library as part of a local area network : a case study
Ruppert, Hans-Adolf
Universitätsbibliothek Freiburg
Online-Informationssystem
Online-Ressource
1987
eng
article
pdf
Klaus-Dieter Lehmann (Hrsg.): The application of micro-computers in information, documentation and libraries: proceedings of the 2. International Conference on the Application of Micro-Computers in Information, Documentation and Libraries, Baden-Baden, .... Amsterdam: North-Holland, 1987, S. 100-105, ISBN: 0-444-70135-4
free
https://freidok.uni-freiburg.de/data/4909
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-49096
https://freidok.uni-freiburg.de/dnb/download/4909
https://freidok.uni-freiburg.de/data/4909
oai:freidok.uni-freiburg.de:5204
2018-06-12T11:33:07Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Werkzeuge zur Entwicklung von XML-Spezifikationen
Checking the satisfiability of XML-specifications
Hiss, Harald
XML
Spezifikationssprache
Online-Ressource
Neue Entwicklungen in Datenbanken beruhen auf XML-Technologien. Konzepte des relationalen Modells werden für XML übertragen. Das ist nicht unproblematisch, das Übertragen von Integritätsbedingungen verursacht ein Erfüllbarkeitsproblem.
<br>Diese Arbeit präsentiert Werkzeuge zur Entwicklung von XML-Spezifikationen. Eine umfangreiche Formalisierung von XML-Spezifikationen wird entwickelt. Die Arbeit präsentiert eine Transformation zum Model Checking von XML-Spezifikationen. Die Transformation generiert Constraints. Ein Model Checker beweist die Erfüllbarkeit der Constraints. Eine umfangreiche Bibliothek von Theoremen beweist die Korrektheit der Transformation. Die Arbeit beweist die Komplexität der Erfüllbarkeit.
<br>Ein deduktiver Checker für XML-Spezifikationen wird präsentiert. Der Checker generiert eine Repräsentation mit F-Logik zum Checken mit Florid. Die Formalisierung integriert zirkuläre XML-Spezifikationen mit einer induktiven Methode. Diese XML-Spezifikationen sind nicht erfüllbar. Theoreme der Erweiterungen beweisen die Korrektheit des Checkers implementiert im DEAXS Projekt.
New developments in databases build on XML-technologies. Concepts of the relational model can be transferred to XML. This is not unproblematic, transfer of integrity constraints causes a satisfiability problem.
<br>This work presents tools for the development of XML-specifications. An extensive formalization of XML-specifications is developed. A transformation is presented for model checking XML-specifications. The transformation generates constraints. A model checker proves the satisfiability of the constraints. An extensive library of theorems proves the correctness of the transformation. The work proves the complexity of the satisfiability.
<br>A deductive checker for XML-specifications is presented. The checker generates a representation with F-logic that is checked with Florid. The formalization integrates circular XML-specifications with an inductive method. These XML-specifications are unsatisfiable. The theorems of the formalization prove the correctness of the checker implemented in the DEAXS project.
2007
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5204
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52042
https://freidok.uni-freiburg.de/dnb/download/5204
https://freidok.uni-freiburg.de/data/5204
oai:freidok.uni-freiburg.de:5219
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
An overview of the SODA system
Thiemann, Peter
Softwareentwicklung
Online-Ressource
1995
eng
article
pdf
AMAST <3, 1993, Enschede>: Selected papers of the third International Conference on Algebraic Methodology of Software Technology : (AMAST '93), University of Twente, Enschede, The Netherlands, 21 – 25 June 1993. Amsterdam: Elesevier, 1995. (Theoretical computer science 140;1), S. [185] - 192
free
https://freidok.uni-freiburg.de/data/5219
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52199
https://freidok.uni-freiburg.de/dnb/download/5219
https://freidok.uni-freiburg.de/data/5219
oai:freidok.uni-freiburg.de:5223
2018-08-17T11:48:47Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
Towards a denotational semantics for concurrent state transformers
Thiemann, Peter
Wandler
Online-Ressource
1995
eng
article
pdf
Masato Takeichi (Hrsg.): Fuji Workshop on Functional and Logic Programming : Fuji Susono, Japan, July 1995. Singapore: World Scientific Press, S. 19 - 33, ISBN: 981-02-2437-0
free
https://freidok.uni-freiburg.de/data/5223
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52231
https://freidok.uni-freiburg.de/dnb/download/5223
https://freidok.uni-freiburg.de/data/5223
oai:freidok.uni-freiburg.de:5259
2018-06-12T11:38:38Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
RNA secondary structure design under simple and complex constraints
RNA Sekundärstruktur-Design unter einfachen und komplexen Bedingungen
Busch, Anke
RNS
Design
Online-Ressource
Die Struktur von RNA Molekülen ist oft entscheidend für ihre Funktion. Deshalb ist das Design von RNA Sequenzen, die in eine gegebene Struktur falten, von großem Interesse in der derzeitigen Forschung.
<br>
<br>In dieser Arbeit stellen wir zwei neue Ansätze vor, die sich mit dem Design von RNA Sequenzen beschäftigen. Im ersten Teil entwickeln wir einen schnellen und erfolgreichen Ansatz (INFO-RNA) zur Lösung des inversen RNA Faltungsproblems. Im zweiten Teil geht es um ein weitaus komplexeres Designproblem. Hier stellen wir den Ansatz SECISDesign vor, der sich mit dem Design von kodierenden RNA Sequenzen beschäftigt und deshalb zusätzlich die von der designten mRNA kodierte Aminosäuresequenz berücksichtigt.
<br>
<br>Im ersten Teil dieser Dissertation geht es um das inverse RNA Faltungsproblem mit einigen Einschränkungen der möglichen Sequenz. Mit anderen Worten, es geht um die Suche nach einer RNA Sequenz S=S_1...S_n, die sich in eine gegebene Sekundärstruktur T faltet und zusätzlich gegebene Bedingungen C = C_1...C_n an die RNA Sequenz erfüllt. Unser neuer Ansatz, INFO-RNA, besteht aus zwei Teilen: einem dynamischen Programmierverfahren zur Erzeugung einer initialen Sequenz und einer anschließenden erweiterten stochastischen lokalen Suche, die eine neue effektive Methode zur Kandidatenauswahl benutzt. Durch die Initialisierung finden wir eine Sequenz, die die gegebene Struktur mit der geringsten
<br>möglichen freien Energie annimmt. Es gibt keine andere Sequenz, die eine geringere freie Energie hat, wenn sie in T faltet. Trotzdem kann nicht garantiert werden, dass sich unsere designte Sequenz S in die gewünschte Struktur T faltet, da S selbst in eine andere Struktur mit geringerer freier
<br>Energie falten könnte. Deshalb wird die initial-gefundene Sequenz durch eine anschließende lokale Suche bezüglich ihrer Faltungseigenschaft weiter verbessert. Während dieser Suche verwenden wir ein zusätzliches Energiekriterium, dass uns erlaubt, einen Schritt vorauszublicken. Nachdem alle Sequenzkandidaten durch dieses Kriterium in eine Reihenfolge (entsprechend ihrer Güte) gebracht wurden, werden sie mit dem eigentlichen Suchkriterium geprüft. Hierbei wird versucht, die Distanz zwischen der Zielstruktur T und der Struktur mit minimaler freier Energie der designten Sequenz zu minimieren oder die
<br>Faltungswahrscheinlichkeit für T zu maximieren.
<br>
<br>Wir vergleichen INFO-RNA mit den beiden existierenden Programmen zur inversen RNA Faltung, RNAinverse und RNA-SSD. Dazu verwenden wir sowohl künstlich generierte also auch biologisch real existierende Datensätze. Es zeigt sich, dass INFO-RNA schneller bessere Ergebnisse liefert als die beiden Vergleichsprogramme.
<br>
<br>Der zweite Teil der Dissertation beschäftigt sich mit einem komplexeren Design von RNA Sequenzen. Es wird nicht nur die gewünschte Sekundärstruktur betrachtet sondern auch die Aminosäuresequenz, die durch die designte RNA Sequenz kodiert wird. Somit kann dieser Teil der Arbeit zum Design von kodierenden Teilen der mRNA benutzt werden. Das bekannteste Beispiel ist die Anwendung des Programms auf Selenoproteine. Diese sind Proteine, die die 21ste Aminosäure Selenocystein enthalten, die durch das sonstige Stopcodon UGA kodiert wird. Um Selenocystein einzubauen ist eine spezielle mRNA Sequenz strangabwärts des UGA-Codons
<br>notwendig, die eine haarnadel-ähnliche Struktur ausbildet. Sie wird "selenocysteine insertion sequence" (SECIS) genannt und kodiert außerdem für die Aminosäuren, die dem Selenocystein folgen.
<br>
<br>Während der vergangenen Jahre sind Selenoproteine immer mehr ins Interesse der Forschung gerückt. Trotzdem ist relativ wenig über sie bekannt. Das liegt daran, dass es nur schwer möglich ist, große Mengen von ihnen in einem rekombinanten Expressionssystem wie E.coli herzustellen, da der Einbau von Selenocystein in E.coli anders funktioniert als in Eukaryoten. Deshalb muss die RNA eukaryotischer Selenoproteine für die Expression in E.coli umdesignt werden, so dass sie das SECIS-element an der für E.coli notwendigen Position haben. In dieser Arbeit stellen wir den polynomiellen Algorithmus SECISDesign vor, der
<br>dieses Designproblem löst und präsentieren außerdem Ergebnisse für bekannte
<br>Selenoproteine des Menschen und der Maus.
<br>
<br>Im dritten Teil dieser Arbeit stellen wir zwei Webserver vor, durch die es möglich ist, unsere Programme INFO-RNA und SECISDesign online zu benutzen und sie somit einer breiten Masse von Wissenschaftlern zugänglich zu machen.
<br>
<br>Abschließend bleibt zu sagen, dass INFO-RNA und SECISDesign zwei schnelle und erfolgreiche Programme zum Design von RNA Sequenzen sind, die besser und schneller arbeiten als andere existierende Verfahren.
The structure of RNA molecules is often crucial for their function. Therefore, designing RNA sequences that fold into a given structure with special features is of interest for biologists in several fields.
<br>
<br>In this thesis, we introduce two approaches dealing with RNA sequence design. First, we develop a fast and successful new approach to the inverse RNA folding problem, called INFO-RNA, incorporating constraints on the sequence, while afterwards, our interests focus on a more complex design of RNA sequences taking into account the translated amino acid sequences. We develop an algorithm, called SECISDesign, that solves this complex task successfully.
<br>
<br>In the first part of this thesis, we focus on the search for an RNA sequence S=S_1...S_n that folds into a given secondary structure T and fulfills given constraints C = C_1...C_n on the primary sequence. Our new approach INFO-RNA consists of two parts; a dynamic programming method for good initial sequences and a following improved stochastic local search that uses an effective neighbor selection method. During the initialization, we design a sequence that among all sequences adopts the given structure with the lowest possible energy. There is no other sequence that has lower energy when folding into this structure. Nevertheless, the sequence is not guaranteed to fold into T since it can have even less energy when folding into another structure. Therefore, the resulting sequence is processed further using a stochastic local search. For the selection of neighbors during this search, we use a kind of look-ahead of one selection step applying an additional energy-based criterion. Afterwards, the pre-ordered neighbors are tested using the actual optimization criterion of minimizing the structure distance between the target structure and the structure of the considered neighbor with minimal free energy or maximizing the probability of folding into T.
<br>
<br>We compare INFO-RNA to the two existing tools RNAinverse and RNA-SSD using artificial as well as biological test sets. Running INFO-RNA, we perform better than RNAinverse and in most cases, we obtain better results than RNA-SSD, the probably best inverse RNA folding tool on the market.
<br>
<br>The second part of this thesis concentrates on a more complex design of RNA sequences. Here, not only the secondary structure of the RNA sequence is taken into account but also the amino acid sequence, which is encoded by the designed RNA. Thus, this part of the thesis can be applied to the design of coding parts
<br>of mRNA sequences. The most prominent example is the application to selenoproteins. These are proteins containing the 21st amino acid selenocysteine, which is encoded by the STOP-codon UGA. For its insertion
<br>it requires a specific mRNA sequence downstream the UGA-codon that forms a hairpin-like structure (called selenocysteine insertion sequence (SECIS)) and codes for the amino acids following the selenocysteine in the protein.
<br>
<br>Selenoproteins have gained much interest recently since they are important for human health. In contrast, very little is known about them. One reason for this is that one is not able to produce enough amount of selenoproteins by using recombinant expression in a system like E.coli straightforwardly since the selenocysteine insertion mechanisms are different between E.coli and eukaryotes. Thus, one has to redesign the human/mammalian selenoprotein for the expression in E.coli. In this thesis, we introduce an polynomial-time algorithm, called SECISDesign, for solving the computational problem involved in this design and present results for known selenoproteins.
<br>
<br>In the third part of this thesis, we introduce two web services, which make it possible to use our two algorithms online. They introduce the programs INFO-RNA and SECISDesign to a wide community of scientists and allow them to design RNA sequences in an automatic manner. They allow to use INFO-RNA and SECISDesign without compiling their source codes and even without having an executable version of them on the local computer.
<br>
<br>To conclude, both, INFO-RNA and SECISDesign, are fast and successful tools for the design of RNA sequences dealing with simple and complex constraints, respectively. They outperform existing tools and methods for most structures.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5259
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52597
https://freidok.uni-freiburg.de/dnb/download/5259
https://freidok.uni-freiburg.de/data/5259
oai:freidok.uni-freiburg.de:5260
2018-06-12T11:37:50Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
SAT-Algorithmen und Systemaspekte: vom Mikroprozessor zum parallelen System
SAT algorithms and system considerations: from microprocessors to parallel systems
Schubert, Tobias
Paralleler Algorithmus
Erfüllbarkeitsproblem
Online-Ressource
Beim Erfüllbarkeitsproblem der Aussagenlogik (in Anlehnung an die englische Übersetzung, Boolean Satisfiability Problem, üblicherweise als SAT-Problem bezeichnet) handelt es sich um eines der fundamentalen Probleme der Informatik. Das Erfüllbarkeitsproblem ist dabei nicht nur von theoretischer, sondern auch von erheblicher praktischer Bedeutung, da sich viele in der Praxis auftretende Fragestellungen, wie etwa aus den Bereichen EDA und AI Planning, als SAT-Instanz kodieren und mit entsprechenden Algorithmen lösen lassen.
<br>
<br>Neben der Optimierung der zumeist sequentiellen SAT-Algorithmen bietet sich mit der Parallelisierung, bei der mehrere sequentielle SAT-Prozeduren zu einem parallelen Verfahren zusammengefasst werden, eine weitere Möglichkeit der Leistungssteigerung von SAT-Algorithmen an.
<br>
<br>Im Rahmen dieser Arbeit sind mit PIChaff, MiraXT und PaMiraXT für unterschiedliche Multiprozessorsysteme insgesamt drei parallele SAT-Verfahren entwickelt worden, die speziell für den Einsatz auf der jeweils anvisierten Hardware-Plattform optimiert wurden.
The Boolean Satisfiability Problem (SAT) is one of the fundamental problems in computer science. Besides being theoretically important, many relevant industrial problems from a wide range of disciplines, including EDA and AI Planning to name just a few, can be encoded as SAT instances and solved by SAT engines.
<br>
<br>In addition to the development of powerful sequential SAT algorithms, the parallelization of SAT engines is an important and useful way to increase performance.
<br>
<br>In this thesis, three parallel SAT solvers – PIChaff, MiraXT, and PaMiraXT – were designed and implemented. Each solver was created for a different multiprocessor system, and then optimized in order to obtain the maximum possible performance in that hardware environment.
2008
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5260
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52601
https://freidok.uni-freiburg.de/dnb/download/5260
https://freidok.uni-freiburg.de/data/5260
oai:freidok.uni-freiburg.de:5268
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
Avoiding repeated tests in pattern matching
Thiemann, Peter
Mustererkennung
Online-Ressource
1993
eng
article
pdf
Patrick Cousot (Hrsg.): Static analysis : third international workshop; proceedings. Berlin [u.a.]: Springer, 1993, S. 141 - 152, ISBN: 3-540-57264-3
free
https://freidok.uni-freiburg.de/data/5268
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52689
https://freidok.uni-freiburg.de/dnb/download/5268
https://freidok.uni-freiburg.de/data/5268
oai:freidok.uni-freiburg.de:5269
2019-01-25T09:00:34Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
LaToKi: a language toolkit for bottom-up evaluation of functional programms
Thiemann, Peter
Softwareentwicklung
Online-Ressource
1992
eng
article
pdf
Programming language implementation and logic programming : 4th international symposium; proceedings. - Berlin : Bruynooghe, M. (ed.), 1992. - 481-482, ISBN: 3-540-55844-6
free
https://freidok.uni-freiburg.de/data/5269
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-52694
https://doi.org/10.1007/3-540-55844-6_159
https://freidok.uni-freiburg.de/dnb/download/5269
https://freidok.uni-freiburg.de/data/5269
oai:freidok.uni-freiburg.de:5310
2015-04-29T10:21:49Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
The essence of LR parsing
Sperber, Michael
Thiemann, Peter
LRk-Parser
Online-Ressource
1995
eng
article
pdf
Proceedings of the ACM SIGPLAN Symposium on Partial Evaluation and Semantics Based Program Manipulation: La Jolla, California, June 21 - 23, 1995. New York: ACM Press, 1995, S. 146-154, ISBN: 0-89791-720-0
free
https://freidok.uni-freiburg.de/data/5310
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-53102
https://freidok.uni-freiburg.de/dnb/download/5310
https://freidok.uni-freiburg.de/data/5310
oai:freidok.uni-freiburg.de:5380
2018-06-12T11:39:58Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
SAT-based verification - from core algorithms to novel application domains
SAT-basierte Verifikation - von Basis-Algorithmen zu neuen Anwendungsdomänen
Herbstritt, Marc
Erfüllbarkeitsproblem
Bounded Model Checking
Online-Ressource
In this thesis we discuss the verification of systems to guarantee their correct behavior, that is given by a specification, using formal techniques. For the work at hand, the mathematical and algorithmic methods that are used for this verification task are the application of the so-called model checking technique that is combined with automated proof systems for solving the satisfiability problem (short: SAT).
<br>
<br>SAT-based verification of circuits and discrete systems has become one of the most effective technique within the last 10 years, such that industrial as well as academic applications heavily rely on it.
<br>
<br>SAT-based verification is the topic of this thesis, too, whereby our contributions cover the whole range of a SAT-based tool application. This means in practical terms that we propose extensions and concepts that concentrate on the core of a SAT-solver. However, these proposals are then transfered to novel verification models such as linear hybrid automata. Furthermore, we describe and evaluate approaches that incorporate the structure of the underlying problem to exploit knowledge gained during the verification process on the level of the SAT-solver.
<br>
<br>The main focus of the thesis at hand is on the verification of incomplete system designs, which occur for example in the early phase of a design. Our contributions are several SAT-based modeling techniques for the verification of such incomplete system designs. We describe various modeling concepts that can be embedded into a taxonomy with respect to their expressiveness and required computational resources, such that depending on the complexity of the underlying verification problem different methods are available, thus assuring a flexible approach for the desired verification. The proposed methods are evaluated experimentally to guarantee their applicability in practice.
<br>
<br>Taken together, this thesis provides contributions to the state-of-the-art in SAT-based verification, starting from core algorithms up to novel application domains.
In dieser Arbeit geht es um die Verifikation von Systemen, mit dem Ziel, deren korrektes Verhalten, welches durch eine Spezifikation vorgegeben ist, mit formalen Mitteln zu gewährleisten. Die dabei angewendeten mathematischen und algorithmischen Methoden sind in erster Linie die sogenannte Modellprüfung und deren Kombination mit automatischen Beweissystemen zur Lösung des Erfüllbarkeitsproblems (kurz: SAT).
<br>
<br>Die SAT-basierte Verifikation von Schaltkreisen und diskreten Systemen hat sich in den letzten 10 Jahren zu einer der erfolgreichsten Methode entwickelt: Sie ist zunehmend unverzichtbar in vielen industriellen Anwendungen.
<br>
<br>Die SAT-basierte Verifikation ist auch das Thema dieser Arbeit, wobei die von uns gelieferten Beiträge die ganze Bandbreite eines derartigen Werkzeugeinsatzes umfassen. Konkret bedeutet dies, dass wir Erweiterungen und Konzepte präsentieren, die sich auf den Kern von SAT-Beweisern konzentrieren. Diese werden dann jedoch auch auf neuartige Verifikationsmodelle, wie z.B. lineare hybride Automaten, übertragen. Desweiteren beschreiben und evaluieren wir Ansätze, um Wissen, welches im Verifikationsprozess auf der Ebene des SAT-Beweisers generiert wurde, aufgrund problemspezifischer Struktur geschickt auszunutzen.
<br>
<br>Der Schwerpunkt der vorliegenden Arbeit liegt in Untersuchungen zum Problem der Verifikation von unvollständigen Systementwürfen, wie sie z.B. in einer frühen Entwurfsphase auftreten. Zunächst entwickeln wir Modellierungstechniken, um solche unvollständige Systementwürfe unter Verwendung von SAT-Methoden zu verifizieren. Es werden dann mehrere Modellierungskonzepte vorgeschlagen, die in eine Taxonomie hinsichtlich ihrer Genauigkeit und den entsprechend erforderlichen Rechenresourcen eingebettet werden können, so dass je nach Komplexität des zugrundeliegenden Verifikationsproblems verschiedene Methoden zur Verfügung stehen. Hierdurch wird eine flexible Herangehensweise zur gewünschten Verifikation gewährleistet. Die vorgeschlagenen Methoden werden durchgehend experimentell evaluiert, um ihre praktische Anwendung zu garantieren.
<br>
<br>Der Inhalt dieser Arbeit liefert somit konstruktive Beiträge zum aktuellen Stand der Forschung im Bereich der SAT-basierten Verifikation, angefangen bei den Basis-Algorithmen bis hin zu unterschiedlichen Anwendungsdomänen.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5380
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-53801
https://freidok.uni-freiburg.de/dnb/download/5380
https://freidok.uni-freiburg.de/data/5380
oai:freidok.uni-freiburg.de:5461
2018-06-12T11:42:54Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Semantic labeling of places with mobile robots
Semantische Klassifikation von Umgebungen mit mobilen Robotern
Martinez Mozos, Oscar
Autonomer Roboter
Maschinelles Lernen
Automatische Klassifikation
Mustererkennung
Online-Ressource
Indoor environments can typically be divided into places with different functionalities like corridors, rooms or doorways. The ability to learn such semantic categories from sensor data enables a mobile robot to extend the representation of the environment, and to improve its capabilites. As an example, natural language terms like "corridor" or "room" can be used to communicate the position of the robot in a more intuitive way. Other tasks, like exploration or localization, can also be carried out by the robot in a better way when semantic information is taken into account.
<br>In this thesis, we present a method that enables a mobile robot to classify the different places of indoor environments into semantic classes, and then use this information to extend its representations of the environments. The main idea is to classify the position of the robot based on the current observations taken by the robot. In this work, we use as main observations the scans obtained from a laser range sensor. Each scan is represented by a set of features that encode the geometrical properties of the current position. These features are then used to classify the scan into the corresponding semantic class. The output of the classification is represented by a probability distribution over the set of possible semantic classes. This probabilistic representation permits us to apply further probabilistic techniques to improve the final classification, reducing the number of errors. We also present an extension which enables the robot to include other types of observations in the classification, like camera images.
<br>
<br>This work additionally introduces several applications of the previous approach in different robotic tasks. First, we will show how the semantic information can be used to extract topological maps from indoor environments. In a second application, we present a method that incorporates transitions between different places when classifying a trajectory taken by a mobile robot. It will also be shown that the semantic information can reduce the time needed by the robot in exploration and localization tasks. Finally, we present the semantic classification of places as part of an integrated robotic system designed for interacting with humans using natural language.
Innenumgebungen können normalerweise in Orte verschiedener Funktionalität unterteilt werden, wie etwa Korridore, Räume oder Türdurchgänge. Die Fähigkeit solch semantische Kategorien aus Sensordaten zu lernen, ermöglicht einem Roboter die Umgebungsrepräsentation zu erweitern und seine Fertigkeiten zu verbessern. So können beispielsweise natürlichsprachliche Ausdrücke, wie etwa Korridor oder Raum, dazu verwendet werden um die Position des Roboters in einer intuitiveren Weise mitzuteilen.
<br>Andere Aufgaben, wie Exploration oder Lokalisierung, können durch den Roboter ebenfalls besser bewältigt werden, wenn dabei semantische Informationen berücksichtigt werden.
<br>
<br>In dieser Doktorarbeit wird ein Verfahren vorgestellt, das einem mobilen Roboter ermöglicht, verschiedenen Orten in Innenumgebungen semantische Kategorien zuzuordnen und die Umgebungsrepräsentation durch diese Information zu erweitern. Die Kernidee dabei ist, die Position des Roboters durch die aktuellen Beobachtungen des Roboters zu klassifizieren. Die Beobachtungen, die wir in der vorliegenden Arbeit nutzen werden, sind die Abstandsmessungen eines Laserscanners. Aus jedem Scan wird eine Menge von Merkmalen extrahiert, welche Informationen ueber die geometrischen Eigenschaften des Ortes an dieser Position
<br>tragen. Der Scan wird dann aufgrund dieser Merkmale in die entsprechende semantische Kategorie eingeteilt. Das Ergebnis der Klassifikation ist eine Wahrscheinlichkeitsverteilung über der Menge möglicher semantischer Klassen. Diese wahrscheinlichkeitstheoretische Darstellung erlaubt es uns weitere
<br>probabilistische Techniken einzusetzen, um die Klassifikation zu verbessern, und somit die Anzahl an Fehlern zu verringern. Wir werden auch eine Erweiterung des Verfahrens vorstellen, die es dem Roboter ermöglicht andere Beobachtungsmodalitäten, wie etwa Kamerabilder, in den Klassifikationsprozess zu integrieren.
<br>
<br>Zusätzlich stellen wir in dieser Arbeit verschiedene Anwendungen des obigen Verfahrens im Bereich der Robotik vor. Zunächst werden wir zeigen, wie wir semantische Informationen dazu verwenden können, topologische Karten von Innenumgebungen zu erstellen. In einer zweiten Anwendung stellen wir eine Methode vor, welche die Übergänge zwischen verschiedenen Orten in Betracht zieht, um die Trajektorie eines mobilen Roboters zu klassifizieren. Zudem kann durch Berücksichtigung semantischer Information die von einem Roboter
<br>benötigte Zeit für Explorations- und Lokalisierungsaufgaben verringert werden. Die vorliegende Arbeit wird solche Verbesserungen aufzeigen. Schliesslich stellen wir die semantische Klassifikation als Teil eines Robotersystems vor, das dazu ausgelegt ist, mit Menschen in natürlicher Sprache zu kommunizieren.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5461
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-54615
https://freidok.uni-freiburg.de/dnb/download/5461
https://freidok.uni-freiburg.de/data/5461
oai:freidok.uni-freiburg.de:5667
2018-08-17T11:48:12Z
pub-type:article
ddc:004
has-source-swb:true
hasFile:true
The generation of a higher-order online partial evaluator
Thiemann, Peter
Glück, Robert
Softwareentwicklung
Evaluation
Online-Ressource
1995
eng
article
pdf
Masato Takeichi (Hrsg.): Fuji International Workshop on Functional and Logic Programming. Singapore: World Scientific. 1995, S. 239-253, ISBN: 981-02-2437-0
free
https://freidok.uni-freiburg.de/data/5667
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-56676
https://freidok.uni-freiburg.de/dnb/download/5667
https://freidok.uni-freiburg.de/data/5667
oai:freidok.uni-freiburg.de:5674
2018-06-12T11:43:52Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Probabilistic models for autonomous systems
Probabilistische Modelle für Autonome Systeme
Pfaff, Patrick
Robotik
Online-Ressource
Whenever robots are supposed to robustly and efficiently
<br>operate in real world environments, they need to consider the
<br>uncertainty in their perception and actuation. In mobile robot
<br>navigation, these uncertainties arise, for example, when a robot has
<br>to fulfill steering commands or is equipped with noisy sensors to
<br>perceive information regarding the environment. Probabilistic models
<br>for sensory data as well as for actuators are a key concept to deal
<br>with these uncertainties while addressing navigation problems such as
<br>mapping, localization, or path planning.
<br>
<br>The main contribution of this thesis are novel probabilistic
<br>observation models for localization and mapping using range
<br>sensors. The models we developed constitute more fundamental
<br>approaches than state of the art models and yield a more robust and
<br>efficient localization. The key idea in our models is to consider the
<br>errors caused by the sample-based approximation of the probability
<br>distribution of potential robot poses. Since the number of samples
<br>from this distribution is limited, pose hypothesis should be
<br>considered as regions covering the configuration space which introduce
<br>statistical dependencies between the individual sensor
<br>measurements. In contrast to the Models proposed frequently in the
<br>literature which try to overcome this problem with an artificial
<br>smoothing of the likelihood function or with additional data dependent
<br>heuristics we present models which directly incorporate the
<br>dependencies between individual laser beams and which are
<br>location-dependent. Exploiting the dependencies between the individual
<br>laser beams leads to a more efficient and accurate localization since
<br>this allows us to integrate more sensor measurements than in state of
<br>the art approaches. Another advantage of the models proposed in this
<br>thesis is that they consider that the world, in general, cannot be
<br>regarded as continuous. These discontinuities cause serious problems
<br>since range finders directly measure distance. For example, in
<br>situations in which the robot operates close to edges of obstacles or
<br>in highly cluttered environments, small changes in the pose of the
<br>robot can lead to large variations in the acquired range
<br>information. If the sensor model does not appropriately characterize
<br>the resulting fluctuations, the performance of probabilistic
<br>approaches may substantially degrade. In this thesis, we therefore
<br>also present approaches which use mixtures of Gaussians to model the
<br>likelihood function for single range measurements as well as for
<br>entire range scans. In practical experiments, we compare our
<br>approaches against previous methods and demonstrate the substantial
<br>improvements when the dependencies between sensor perceptions are
<br>considered, as well as the gain achieved by models which allow to
<br>model strong fluctuations in the perceptions of the robot.
<br>
<br>The contribution of this thesis in the context of mapping are
<br>three-dimensional environment models for in-and outdoor navigation. We
<br>introduce the concept of the extended elevation maps as well as a
<br>further extension of elevation maps towards multiple surfaces. These
<br>so-called multi-level surface maps (MLS maps) offer the opportunity to
<br>model environments with more than one traversable level and vertical
<br>objects at the same time. Additionally, both data structures provide a
<br>classification based on the corresponding environment which leads to a
<br>more efficient and robust data association when actual
<br>three-dimensional sensor data has to be integrated into an existing
<br>map. As a result we are able to build highly accurate maps of
<br>large-scale outdoor environments even without a global pose estimation
<br>system such as GPS. In practical experiments, we applied the MLS map
<br>approach to mapping of large outdoor environments, localization using
<br>laser range finders, and exploration in combined indoor and outdoor
<br>environments.
Seit einigen Jahren nimmt der Einsatz von Robotern im täglichen Leben mehr
<br>und mehr zu. Um Roboter sicher und effizient in der echtenWelt einsetzen zu
<br>können, müssen diese in der Lage sein, die Unsicherheit in ihren Wahrnehmungen
<br>und Handlungen zu berücksichtigen. Beim Navigieren mit mobilen
<br>Robotern entstehen diese Unsicherheiten immer dann, wenn ein Roboter Steuerungskommandos ausführen soll und mit ungenauen oder störanfälligen Sensoren ausgestattet ist, um Informationen aus der Umgebung wahrnehmen zu können. Der Schlüssel, um mit diesen Unsicherheiten umgehen zu können, ist in der Verwendung von probabilistischen Modellen zu sehen. Die Modellierung der Wahrnehmungen und ausführbaren Aktionen sind essentiell, wenn autonome Systeme Aufgaben wie beispielsweise das Kartieren von Umgebungen, Lokalisierung oder Pfadplanung erfüllen sollen. Der Beitrag dieser Arbeit besteht aus neuartigen probabilistischen Sensormodellen zum Lokalisieren von autonomen Systemen und zum Erstellen von Umgebungskarten. Die Modelle, die im Zusammenhang mit der probabilistischen Lokalisierung entwickelt wurden, stellen einen allgemeineren Ansatz als existierende Techniken dar und ermöglichen deshalb eine sicherere und effizientere Lokalisierung. Diese Eigenschaft liegt darin begründet, dass die Modelle, die wir in dieser Arbeit präsentieren, von der aktuellen Position des Roboters abhängen und deshalb die statistischen Abhängigkeiten zwischen den Sensormessungen, der aktuellen Positionsschätzung und der Umgebungskarte berücksichtigen. Aufgrund dieser fundamentalen Herangehensweise, ist es
<br>nicht notwendig, wie in früheren Ansätzen häufig vorgeschlagen, diese Modelle künstlich anzupassen und zusätzliche Umgebungs- und Datenabhängige Heuristiken einzuführen. Darüber hinaus betrachten wir die statistischen Abhängigkeiten zwischen einzelnen Messungen einer Laser-Entfernungsmessung. Als Folge dessen erreichen wir eine effizientere und genauere Lokalisierung, da uns diese techniken ermöglichen, mehr Sensormessungen als bisherige Ansätze gleichzeitig zur Positionsschätzung auszuwerten. Als weiteren Vorteil ziehen unsere neuartigen Modelle mögliche Diskontinuitäten, wie sie im allgemeinen Fall existieren, in Betracht. Diese Diskontinuitäten verursachen ernsthafte Probleme da entfernungs Sensoren direkt Distanzmessungen liefern und treten beispielsweise auf, wenn ein Roboter nahe an Ecken oder Hindernissen vorbeifährt oder wenn ein Roboter in einer sehr unstrukturierten Umgebung
<br>operiert. In diesen Situation führen geringe Änderungen in der Roboterposition zu sprunghaften Veränderungen in der Wahrnehmung des Roboters. Deshalb ist es notwendig, diese Fälle zu modellieren, um einen substantiellen Abfall der Performanz der Lokalisierung zu verhindern. In dieser Arbeit wenden wir deshalb Gauss’sche Mischmodelle an, um sowohl einzelne Entfernungsmessungen als auch komplette Scans, die aus mehreren Entfernungsmessungen bestehen, zu modellieren. In praktischen Experimenten und unter Verwendung von echten Daten, die von mobilen Robotern aufgenommen wurden, vergleichen wir unsere Ansätze mit existierenden Methoden. Dabei demonstrieren wir den substantiellen Gewinn, der erreicht wird, wenn sowohl die Abhängigkeiten zwischen einzelnen Messungen als auch die möglichen Fluktuationen in den Sensormessungen des Roboters in Betracht gezogen wird.
<br>
<br>Der Beitrag dieser Arbeit im Bereich der Kartierung liegt im Bereich neuartiger
<br>dreidimensionaler Modelle für die Navigation im Innen- und Außenbereich. Wir stellen sowohl das Konzept von erweiterten Höhenkarten (Extended Elevation Maps) als auch das Konzept einer Erweiterung dieser Idee auf mehrere Ebenen (Multi-Level Surface Maps) vor. Die Multi-Level Surface Map ermöglicht, zur gleichen Zeit vertikale Objekte und mehr als eine befahrbare Ebene der Welt zu modellieren. In praktischen Experimenten haben wir diese Datenstruktur angewendet, um weitläufige Gebiete im Aussenbereich zu Kartieren, autonome Roboter aufgrund dieser Karten zu lokalisieren und unbekannte Gebiete mit autonomen Fahrzeugen zu explorieren.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5674
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-56744
https://freidok.uni-freiburg.de/dnb/download/5674
https://freidok.uni-freiburg.de/data/5674
oai:freidok.uni-freiburg.de:5775
2018-06-12T11:44:32Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
CORDE: Cosserat rod elements for the animation of interacting elastic rods
CORDE: Über die robuste und effiziente Simulation von interagierenden Cosserat Stäben
Spillmann, Jonas
Computergrafik
Computeranimation
Cosserat-Kontinuum
Online-Ressource
The physically-based simulation and animation of one-dimensional deformable objects, also known as elastic rods, is an important research field in both mechanics and computer graphics. One-dimensional deformable objects are characterized in having the shape of a curve in space, where the radius is small compared to the length. Consequently, elastic rods have large global deformations, even if the local strains are small. In computer graphics, they represent e. g. ropes, threads or hair strands. Due to the mandatory rotational degrees-of-freedom and due to their negligible volume, the simulation and contact handling of elastic rods is challenging.
<br>
<br>This thesis presents efficient techniques for the physically plausible animation of elastic rods. Two main aspects are addressed, notably the modeling of the deformations, and the handling of collisions. The goal is to dynamically simulate elastic rods in contact at interactive rates.
<br>
<br>First, it is investigated into a deformation model for elastic rods with material torsion. If material torsion is considered, then the orientation degrees-of-freedom of the rod must be carried along the simulation. Since the centerline is explicitly represented, an accurate contact handling is enabled. The deformation model is able to reproduce the characteristic buckling and looping phenomena at interactive rates.
<br>
<br>If the simulation of knots is considered, then it is observed that a high mechanical accuracy is required to represent the knot. In contrast, the computational effort should be minimized in the undeformed parts of the rod. Consequently, the thesis investigates an adaptive technique for elastic rods. To improve the efficiency and to avoid post-stabilization, a novel variational subdivision approach is employed that requires the solve of a non-linear system
<br>of equations.
<br>
<br>When addressing the contact handling, elastic rods share similarities with both rigid and volumetric deformable objects. Therefore, an approach to handle contacts of interacting volumetric deformable objects is presented. The approach maintains the non-penetration constraints and computes the contact forces directly, without employing an iterative technique. Thereby, the problems inherent to both penalty approaches and analytical methods are overcome.
<br>
<br>The approach for volumetric deformable objects is then extended to handle elastic rods in contact. Since elastic rods are assumed to have a rigid cross-section, a global scheme is mandatory. An iterative technique solves the non-linear system of equations. Further, the proposed approach approximates Coulomb friction and enables the simulation of complex knots at interactive rates.
<br>
<br>Additional contributions have been achieved in the field of spatial discretization of objects and in the field of collision detection. An approach is presented that produces well-shaped tetrahedral meshes from arbitrary input surfaces, thereby avoiding any surface pre-processing. Moreover, an approach to detect collisions between geometrically deformable objects is presented. The performance of the approach depends only on the number of colliding primitives, without requiring to visit each deformed primitive.
Die physikalisch basierte Simulation von eindimensionalen verformbaren Objekten ist ein wichtiges Forschungsgebiet in der Mechanik und der Computergraphik. Eindimensionale verformbare Objekte haben die Form einer Kurve im Raum, wobei der Radius klein ist im Vergleich zur Länge. Daher haben eindimensionale verformbare Objekte im Allgemeinen grosse globale Verformungen, obschon die lokalen Spannungen klein sind. In der Computergraphik werden diese Objekte gebraucht, um Seile, Fäden oder Haarsträhnen zu repräsentieren. Wegen den Rotationsfreiheitsgraden und wegen des vernachlässigbar kleinen Volumens gelten eindimensional verformbare Objekte als schwierig zu simulieren.
<br>
<br>Diese Dissertation beschäftigt sich mit effizienten Techniken, um eindimensional verformbare Objekte physikalisch plausibel zu simulieren. Zwei Hauptaspekte werden adressiert, nämlich die Modellierung der Verformung und die Kontaktbehandlung. Das Ziel ist die interaktive dynamische Simulation von diesen Objekten.
<br>
<br>Zuerst wird ein Verformungsmodell für eindimensional verformbare Objekte erforscht, welches die Materialverdrehung unterstützt. Dies bedingt, dass die Orientierungsfreiheitsgrade zusätzlich simuliert werden müssen. Die explizite Simulation der Kontrollpunkte erleichtert eine genaue Kontaktbehandlung. Das Verformungsmodell kann die charakteristischen Phänomene, welche die Verformung von eindimensionalen verformbaren Objekten auszeichnen, in interaktiven Raten simulieren.
<br>
<br>Für die Simulation von Knoten ist eine hohe mechanische Genauigkeit notwendig, um den Knoten zu repräsentieren. Im Gegensatz dazu soll der Berechnungsaufwand in den nicht-verformten Bereichen minimiert werden. Deshalb widmet sich die Dissertation einer adaptiven Technik. Um die Effizienz weiter zu erhöhen und gleichzeitig Nachstabilisierung zu vermeiden, wird ein neuartiger Ansatz basierend auf der Variationsrechnung verwendet, der das Lösen eines nichtlinearen Gleichungssystems erfordert.
<br>
<br>Im Kontext von der Kollisionsbehandlung wird beobachtet, dass eindimensional verformbare Objekte Ähnlichkeiten mit sowohl Starrkörpern als auch volumetrisch verformbaren Objekten haben. Deshalb wird zuerst ein Ansatz präsentiert, der Kontakte zwischen volumetrischen Objekten behandelt. Der Ansatz hält die Nichteindringungsbedingungen bei und berechnet die Kontaktkräfte direkt. Dadurch werden die Probleme überwunden, unter welchen Penalty- und iterative Ansätze leiden.
<br>
<br>Der Ansatz wird danach auf die Kontaktbehandlung von eindimensional verformbaren Objekten erweitert. Weil der Querschnitt als starr angenommen wird, ist ein globales Schema notwendig. Eine iterative Technik wird angewendet, um das nichtlineare Gleichungssystem zu lösen. Der Ansatz approximiert zudem Coulomb-Reibung und ermöglicht die Simulation von komplexen Knoten in interaktiven Raten.
<br>
<br>Weitere Beiträge wurden in den Bereichen der räumlichen Diskretisierung von Objekten und im Bereich der Kollisionserkennung gemacht. Ein Ansatz wird präsentiert, der wohlgeformte Tetraedernetze von beliebigen Oberflächen berechnet. Dabei wird eine Vorverarbeitung von den Oberflächen vermieden. Überdies wird ein Ansatz präsentiert, der Kollisionen zwischen geometrisch verformbaren Objekten erkennt. Die Komplexität des Ansatzes hängt von der Anzahl der kollidierten Primitiven ab, und nicht von der Anzahl der verformten Primitiven.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5775
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-57751
https://freidok.uni-freiburg.de/dnb/download/5775
https://freidok.uni-freiburg.de/data/5775
oai:freidok.uni-freiburg.de:5813
2018-06-12T11:53:51Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
On energy-efficient broadcasts
Über energie-effiziente Broadcasts
Gunia, Christian
Energieverbrauch
Datenübertragung
Online-Ressource
In this work we address three different kinds of communication problems, in which a server stores and transmits data items to a set of clients. The transmission is performed as a broadcast such that every currently listening client receives it. We call these data items henceforth pages. In any investigated scenario we require the existence of a (technical) infrastructure that supports this kind of operation and merely focus on the timing of the broadcasts. This infrastructure is modeled by a transmission channel. We analyze the energy consumption needed to obtain a predetermined quality of service at the serviced clients.
<br>
<br>In the first scenario clients request the pages and the quality of service is measured by the sum of the experienced flow times. The flow time is the time a client waits until it has received the requested page completely. Each page is associated to an individual transfer volume that defines the amount of data needed to be transferred, in order to transmit it completely. The transmission speed of the channel is fixed and, thus, a broadcast takes a fixed amount of time and thereby consumes a fixed amount of energy. The server is provided with an energy limit that must not be exceeded. Depending on the number of stored pages and the their transfer volumes we distinguish different variants of the problem. Basically, we distinguish between the single-page and the multi-page case. After presenting offline algorithms that compute an optimal sequence of broadcasts in polynomial time, we lower bound the achievable competitive ratio for the online version by providing worst-case instances. We point out that the obtained lower bounds hold for randomized online algorithms as well. Finally, we show how to realize them by deterministic algorithms. These deterministic algorithms turn out to induce only a slight administrative and technological overhead at the clients when compared to broadcasting strategies for servers without energy saving techniques.
<br>
<br>In the second scenario we require the clients to issue a deadline along with their request. The server must broadcast the requested page completely before the deadline in order to answer its request. Analyzing the flow time in this scenario is not meaningful as the clients upper bound the accepted flow time by providing the deadline. Instead we minimize the energy consumption needed at the server to perform the schedule. The transmission channel is speed-controlled with a convex function describing the ratio between transmission speed and consumed energy. We show that an optimal sequence of broadcasts is computable in polynomial time in the offline version for the single-page case. For the online version we derive an upper bound on the achievable competitive ratio by presenting a structurally simple algorithm for the single-page case and show that it is worst-case optimal. For the multi-page case we present lower and upper bounds on the achievable competitive ratio.
<br>
<br>In the third scenario the push-based model is addressed where the server transmits the pages on a regular basis without explicit requests by the clients. Each page has a window length associated with that upper bounds the distance between two consecutive broadcasts of this page. The server has access to a set of speed-controlled channels and again the objective is energy minimization. We show how to achieve a constant factor approximation in polynomial time by providing offline algorithms for the single- and multi-channel case.
<br>
<br>In the last part of this work we investigate the second scenario once more. We experimentally analyze the energy savings on request sequences taken from real-world applications. Here, we use traces recorded by web servers and derive a random model on their typical' distribution. We show that the capability to adjust the speed of every broadcast independently helps saving energy on these request sequences.
In dieser Arbeit befassen wir uns mit drei verschiedenen Kommunikationsproblemen. In jedem speichert ein Server verschiedene Nachrichten, die er an eine Menge von Klienten übermittelt. Diese Übermittlung wird als Broadcast durchgeführt. Somit erhält jeder empfangsbereite Klient die gesendete Nachricht. Wir gehen jeweils davon aus, dass bereits eine Infrastruktur existiert, die diese Art der Übertragung ermöglicht, und modellieren dies durch einen Übertragungskanal. Wir widmen unser Augenmerk den zeitlichen Aspekten der Broadcasts und analysieren den Energiebedarf, der notwendig ist, um eine gewisse Servicequalität bei den Klienten zu garantieren.
<br>
<br>In dem ersten untersuchten Szenario fragen die Klienten die Nachrichten explizit an. Die Antwortzeit einer Anfrage ist die Zeit, die zwischen dem Absenden der Anfrage und der vollständigen Übermittlung der Antwort verstreicht. Wir verwenden die Summe der resultierenden Antwortzeiten als Maß der Servicequalität. Diese ist offensichtlich zu minimieren. Jede Nachricht hat ein gewisses Transfervolumen, das die Menge an Daten angibt, die gesendet werden müssen, um die Nachricht vollständig zu übertragen. Die Sendegeschwindigkeit des Übertragungskanals ist a priori festgelegt, und somit benötigt die Übermittlung einer Seite sowohl eine gewisse Zeit als auch eine gewisse Energiemenge. Der Server verfügt über eine begrenzte Menge an Energie, die dieser zur Beantwortung der Anfragen verwenden darf. Abhängig von der Anzahl an gespeicherten Nachrichten und dem Transfervolumen unterscheiden wir verschiedene Varianten dieses Problems. Zunächst präsentieren wir Offline-Algorithmen, die eine optimale Sequenz von Broadcasts in polynomieller Zeit berechnen. Anschließend beschränken wir den in der Online-Version erreichbaren kompetitiven Faktor von unten durch Angabe von Worst-Case Instanzen (auch für randomisierte Algorithmen). Schließlich zeigen wir, wie diese Schranken durch strukturell einfache und deterministische Algorithmen erreicht werden können. Diese angegebenen Algorithmen erfordern, verglichen mit Broadcast-Strategien, die keinerlei Energiesparmaßnahmen verwenden, lediglich einen geringen technologischen und administrativen Mehraufwand auf Seite der Klienten.
<br>
<br>In dem zweiten Szenario fordern wir von den Klienten, dass sie ihre Anfrage zusätzlich um eine selbst gesetzte Frist ergänzen. Der Server hat sicherzustellen, dass die angefragte Nachricht bis zu dieser Frist dem Klienten vollständig übermittelt wurde. Die Antwortzeit in diesem Szenario zu untersuchen, erscheint wenig sinnvoll, da die Klienten die Antwortzeit, die sie für akzeptabel halten, implizit durch Angabe der Frist festlegen. Anstelle dessen untersuchen wir die Möglichkeit, den Energieverbrauch des Servers zu minimieren. Dazu geben wir dem Server die Möglichkeit, die Übertragungsgeschwindigkeit des Kanals selbstständig zu regulieren. Ferner nehmen wir an, dass die Abhängigkeit zwischen Übertragungsgeschwindigkeit und Energieverbrauch durch eine konvexe Funktion beschrieben wird. Wir zeigen, dass eine optimale Lösung erneut in Polynomialzeit berechenbar ist, falls lediglich eine Nachricht auf dem Server gespeichert wird. Für die Online-Version erhalten wir eine obere Schranke für den erreichbaren kompetitiven Faktor, indem wir einen strukturell einfachen Algorithmus angeben und zeigen, dass dieser Worst-Case optimal ist. Im Falle einer beliebigen Anzahl an gespeicherten Nachrichten geben wir untere und obere Schranken für den erreichbaren kompetitiven Faktor an.
<br>
<br>In dem dritten Szenario widmen wir uns dem so genannten "push-based model", bei dem der Server die Nachrichten nicht auf Anfrage, sondern in regelmäßigen Abständen versendet. Jede Nachricht ist nun mit einer Fensterlänge versehen, die eine obere Schranke für den Abstand zwischen zwei aufeinander folgenden Übertragungen dieser Nachricht vorgibt. Dem Server steht zur Übertragung der Nachrichten eine Menge identischer Kanäle zur Verfügung, deren Geschwindigkeit er unabhängig voneinander regulieren kann. Auch hier ist das Ziel die Energieminimierung auf Seiten des Servers. Durch Angabe von Offline-Algorithmen sowohl für den Fall, dass nur eine Seite auf dem Server gespeichert wird, als auch für den allgemeinen Fall von mehreren gespeicherten Seiten, zeigen wir, dass eine Approximation von konstanter Güte in polynomieller Zeit erreichbar ist.
<br>
<br>Im letzten Teil der Arbeit betrachten wir das zweitgenannte Szenario unter einem abgewandelten Gesichtspunkt erneut. Wir analysieren die erreichbare Energieeinsparung experimentell mit Hilfe von Anfragesequenzen, die auf Anwendungen der wirklichen Welt basieren. Wir verwenden Aufzeichnungen von Anfragen an verschiedene Webserver und leiten von diesen zunächst ein Zufallsmodel für "typische Anfragen" ab. Anschließend zeigen wir, dass die Möglichkeit, die Geschwindigkeit von Broadcast zu Broadcast getrennt einstellen zu können, maßgeblich zur Energieeinsparung beiträgt.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5813
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-58139
https://freidok.uni-freiburg.de/dnb/download/5813
https://freidok.uni-freiburg.de/data/5813
oai:freidok.uni-freiburg.de:5891
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Group integration techniques in pattern analysis : a kernel view
Gruppen Integration Techniken in der Muster Analyse : eine Kern-Sicht
Reisert, Marco
Mustererkennung
Bildverarbeitung
Maschinelles Lernen
Online-Ressource
Diese Dissertation beschäftigt sich mit einer bestimmten
<br>Art von a-priori Wissen: wir nehmen an, dass die Daten ihre Bedeutung unter
<br>bestimmten Transformationen nicht ändern, dass heißt, der Mustererkennungsprozeß ist
<br>'invariant' unter diesen Transformationen. In der statistischen Mustererkennung
<br>sind die Daten typischerweise in vektorieller Form gegeben. In dieser Arbeit nehmen
<br>wir an, dass diese vektoriellen Daten von linearen, invertierbaren Transformationen verändert werden.
<br>Als Beispiel ist die Verschiebung oder Rotation des betrachteten Objektes zu nennen.
<br>
<br>Typischerweise kann der Erkennungsprozeß als eine Klassifikations- oder Regressionsfunktion
<br>ausgedrückt werden, dabei basiert das Argument dieser Funktion auf den zuvor erwähnten
<br>vektoriellen Daten. Kernbasierte Modelle dieser Funktionen kamen Mitte der 90er
<br>Jahren auf. Dieser neue Ansatz ermöglichte es Forschern, nichtlineare Beziehungen mit einer Effektivität zu analysieren,
<br> die bis dahin lediglich linearen Algorithmen vorbehalten war.
<br>Sowohl vom Gesichtspunkt der Berechenbarkeit als auch von einem konzeptuell, mathematischen
<br>Punkt aus, sind die kernbasierten Algorithmen sowohl effizient als auch wohlfundiert,
<br>wobei sie nicht unter den typischen Problemen nichtlinearer Algorithmen leiden, wie zum Beispiel
<br>das Steckenbleiben in lokalen Minimas oder dem sogenannten 'overfitting'.
<br>In dieser Arbeit werden wir die konzeptuelle Einfachheit der kernbasierten Modelle
<br>nutzen, um ein theoretisch wohlfundiertes Rahmenwerk des Invarianzbegriffs in der Musteranalyse aufzustellen.
<br>Die lineare Natur wird uns helfen, auf überraschend einfache Weise Optimalitätsaussagen
<br>zu treffen. Diese sind eng verwandt sind mit dem Prinzip der Gruppenintegration, welche seine
<br>Ursprünge in der klassischen Invariantentheorie hat. In Zusammenhang mit der Mustererkennung hat die
<br>Gruppenintegration von Anfang an eine zentrale Rolle gespielt, wenn sie auch in vielen Fällen
<br>eher implizit genutzt wurde.
<br>
<br>Diese Arbeit lässt sich in einen theoretischen und praktischen Teil gliedern. In der Theorie
<br>stellen wir das zuvor erwähnte Rahmenwerk auf, welches die Invariantentheorie mit den
<br>kernbasierten Methoden verknüpft. Die Betrachtungen schließen eine präzise Formulierung
<br>des Invarianzbegriffs und seine Erscheinungsform in kernbasierten Räumen mit ein.
<br>Als ein Hauptresultat ist das 'Representer Theorem' zu sehen, welches zeigt, dass
<br>jede Lösung eines bestimmen invarianten Lernproblems
<br>sich mit Gruppenintegration lösen lässt. Desweiteren stellen wir die Charakterisierung und
<br>Interpretation der auftretenden Kerne vor und zeigen Verbindungen zu verwandten Theorien
<br>auf, wie zum Beispiel der Volterra Theorie. Der praktische Teil beschäftigt sich auf der
<br>einen Seite mit der Merkmalsextraktion und auf der anderen Seite mit den Kernmaschinen
<br>selbst. Wir stellen Merkmale vor, welche auf Gruppenintegration basieren und wenden
<br>diese auf zwei Klassifikationsaufgaben an, der Klassifikation von Oberflächenmodellen und
<br>der Klassifikation von Proteinstrukturen. Auf der anderen Seite präsentieren wir ein Konzept
<br>zur Objektdetektion, welches auf der Idee der verallgemeinerten Hough Transformation
<br>basiert. Hierbei modellieren wir das Funktional, welches ein lokales Bildstück auf eine
<br>örtliche Wahrscheinlichkeitsverteilung abbildet, mittels einer Kernmaschine.
<br>
Pattern analysis deals with the problem of characterizing and analyzing relations in data
<br>in an automated way. A quite important issue during the design process of
<br>such algorithms is the incorporation of prior knownledge; knowledge that
<br>is related to all information about the problem available in addition to the training data.
<br>This thesis is about a certain kind of prior knowledge: we assume to know that
<br>the data does not change its meaning under certain transformations, that is, the
<br>pattern recognition process has to be 'invariant' under these transformations.
<br>In statistical pattern recognition the data is typically given in vectorial
<br>form. In this work we assume that the transformations affect this vectorial data just by a linear group-like
<br>transformation. This comprises, for example, translations or rotations of the object under consideration.
<br>
<br>Typically, the recognition process can be expressed as classification or regression
<br>functions based on the before mentioned vectorial data. Kernel-based models of these functions
<br>arose in the mid-1990s. This new approach enabled researchers to analyze non-linear relations with the
<br>effectiveness that have been previously reserved for linear algorithms. From a computational and a conceptual,
<br>mathematical point of view the kernel-based pattern analysis algorithms are as efficient and as well
<br>founded as linear ones, whereas problems like local minima and overfitting that were typical
<br>of previous non-linear methods have been overcome. In this work we will use the conceptual ease
<br>of kernel-based models to build a theoretical well-founded framework of invariance in pattern analysis.
<br>The linear nature will help us to provide, in a surprisingly simple way, optimality statements
<br>that are closely related with the principle of group integration having its origin in classical invariant theory.
<br>In the context of pattern recognition group integration has been playing a major role from the beginning while in most cases
<br>the use is rather implicit.
<br>
<br>This work is divided into a theoretical and a practical part. In the theoretical part we establish the
<br>beforementioned framework that connects invariance theory with kernel-based methods. The considerations
<br>include a precise formulation of the notion of invariance and its manifestation in kernel spaces.
<br>As a main result a representer theorem is proven, showing that any solution of a learning
<br>problem with certain invariance constraints makes use of the principle of group integration.
<br>Furthermore, we provide characterizations and interpretations of the occurring kernels, we mention kernels with
<br>different concepts of invariance and show connections to related work like Volterra theory.
<br>The practical part concerns on the one hand the feature extraction process and on the other hand
<br>the kernel framework itself. We propose features that are based on group integration and
<br>evaluate them with two classification tasks, classification of surface models and protein structures.
<br>Secondly, we propose a rotation-invariant object detection concept based on the generalized Hough transform.
<br>Thereby, we model the mapping from the local appearance patches onto the spatial probability density by
<br>a kernel machine.
<br>
<br>
<br>
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5891
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-58912
https://freidok.uni-freiburg.de/dnb/download/5891
https://freidok.uni-freiburg.de/data/5891
oai:freidok.uni-freiburg.de:5917
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Visualisierungen im Schaltkreisentwurf
Visualization of circuit designs
Eschbach, Thomas
Visualisierung
Logische Schaltung
Entwurfszeichnung
Online-Ressource
Ziel der Arbeit ist die Entwicklung neuer Methoden und Algorithmen zur automatischen Visualisierung von Schaltkreisen, welche im Bereich des
<br>modernen computergestützten Schaltkreisentwurfes benötigt werden.
<br>Dabei sollen speziell für die aus diesem Anwendungsszenario entstandenen neuen Herausforderungen geeignete Lösungswege ausgearbeitet werden. Anhand einer Integration dieser Ansätze in ein automatisches Schaltkreisvisualisierungswerkzeug soll deren Effektivität demonstriert
<br>werden.
Visualization of circuits is an important research area in electronic
<br>design automation. One commonly accepted method to visualize a circuit
<br>places the gates to and uses orthogonal lines to connect the gates.
<br>In this work methods are given and analysed which cover the demand in the modern circuit design process.
2008
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/5917
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-59176
https://freidok.uni-freiburg.de/dnb/download/5917
https://freidok.uni-freiburg.de/data/5917
oai:freidok.uni-freiburg.de:6048
2018-06-12T11:54:31Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Automated counterexample-driven audits of authentic system records
Automatisierte auf Gegenbeispielen basierte Audits von authentischen Systemaufzeichnungen
Accorsi, Rafael
Computersicherheit
Privatsphäre
Computerforensik
Online-Ressource
In modern computer topics, such as usage control, privacy protection and regulatory compliance, it is essential to enforce that computer systems adhere to the policies governing their operation, i.e. to prevent systems from violating the policies by transitioning into an illegal state.
<br>
<br>Reference monitors are employed to enforce policies during the execution. However, the increasing demand to demonstrate correct policy enforcement and the impossibility to fully enforce some of the policy elements at runtime raise the need for audits to decide whether systems in fact obey the policies. In computer systems, an audit is the a posteriori examination of system records conducted by an independent third-party to generate evidence about policy adherence. Despite the soaring need for audits, current state-of-the-art exhibits the following shortcomings:
<br>
<br>• logging mechanisms do not completely provide for authentic system records, so that a suitable basis for audits is not guaranteed.
<br>
<br>• audits are at best semi-automated, which has a negative impact on the time and cost involved in conducting audits, as well as on the correctness and credibility of generated evidence.
<br>
<br>This thesis tackles these shortcomings by introducing a novel model for automated audits and elaborates on the design, properties and implementation of two of its components, namely the BBox and ExaMINA. Like a flight recorder, the BBox is a digital black box for systems. It employs a trusted co-processor and a secure logging mechanism to protect system records, thereby providing for authentic and tamper-evident system records. The BBox also allows the extraction of portions of the system records filtered according to some simple search criteria, which reduce the size of the system records to be audited.
<br>
<br>Using an exemplary policy language for the expression of policies, ExaMINA automatically audits selected system records against the corresponding policy and generates evidence. To conduct audits, ExaMINA uses falsification: instead of showing that the system adheres to each rule, ExaMINA searches the system records for counterexamples for the adherence to the policy, thereby trying to refute the hypothesis that the system to which the records belong obeys the policy. Since finding a single counterexample suffices for refutation, counterexampledriven audits have the potential to provide for faster evidence generation in case of policy violations.
Die Durchsetzung von Richtlinien in Computersystemen ist von großer Bedeutung, um das Auftreten unzulässiger Zustände zu verhindern. Unter anderem im Zusammenhang mit der Nutzungskontrolle, dem Schutz der Privatsphäre und der Einhaltung gesetzlicher Auflagen (der sog. Compliance) ist dies unabdingbar.
<br>
<br>Bislang werden Ausführungsmonitore eingesetzt, um Richtlinien zur Laufzeit durchzusetzen. Dies reicht jedoch wegen der zunehmenden Forderung nach nachweisbarer Durchsetzung und der Unmöglichkeit, manche Elemente der Richtlinien während der Ausführung erzwingen zu können, allein nicht aus. Somit müssen nachträgliche, von unabhängigen Dritten durchgeführte Analysen der Ereignisprotokolle eines Systems herangezogen werden, um Evidenzen, also Nachweise, über die Einhaltung der Richtlinien zu erzeugen bzw. die Quelle aufgetretener Verletzungen aufzuzeigen. Derartige Analysen nennt man Audits.
<br>
<br>Trotz der Notwendigkeit von Audits weisen derzeitige Verfahren die folgenden Mängel auf:
<br>
<br>• Mechanismen zur Aufzeichnung von Ereignisprotokollen gewährleisten nur bedingt die Authentizität der erfassten und gespeicherten Ereignisse, sodass eine angemessene Basis für Audits nicht garantiert werden kann.
<br>
<br>• Audits sind bestenfalls halbautomatisiert. Dies wirkt sich nicht nur auf die Zeit und Kosten negativ aus, die zur Durchführung von Audits benötigt werden, sondern auch auf die Korrektheit und Glaubwürdigkeit erzeugter Evidenzen.
<br>
<br>Die vorliegende Arbeit führt ein neues Audit-Modell ein, das diese Mängel behebt, und beschreibt den Aufbau, die Eigenschaften und die Implementierung seiner wesentlichen Komponenten, nämlich BBox und ExaMINA. Ähnlich einem Flugschreiber ist die BBox eine digitale Black-Box zur Gewährleistung authentischer und manipulationssicherer Aufzeichnung von Ereignisprotokollen, welche auch die Erzeugung gefilterter Ereignisprotokolle ermöglicht und damit den Aufwand für Audits reduziert.
<br>
<br>Anhand einer beispielhaften Sprache zum Ausdruck von Richtlinien, führt ExaMINA automatisierte Audits durch und generiert dabei Evidenzen über die Einhaltung der Richtlinien. Zur Durchführung von Audits verwendet ExaMINA die Falsifikation: anstatt zu zeigen, dass das System die Regeln einer Richtlinie einhält, durchsucht ExaMINA die Ereignisprotokolle nach Gegenbeispielen. Da die Existenz eines Gegenbeispiels zur Falsifikation genügt, ermöglichen gegenbeispiel-orientierte Audits eine schnellere Erzeugung von Evidenzen im Falle von Verletzungen.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6048
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-60483
https://freidok.uni-freiburg.de/dnb/download/6048
https://freidok.uni-freiburg.de/data/6048
oai:freidok.uni-freiburg.de:6108
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Gaussian processes for flexible robot learning
Gaußprozesse in der Robotik - ein flexibler Lernansatz
Plagemann, Christian
Maschinelles Lernen
Autonomer Roboter
Online-Ressource
As robotic systems are becoming more complex and as they are developed for increasingly realistic environments, the role of machine learning within robotics becomes even more central than it has been. Robot learning tasks typically raise a number of hard requirements for learning methods including accurate estimation of uncertainty, dealing with inhomogeneously sampled data, computational efficiency, and high modeling accuracy.
<br>
<br>We show in this thesis that Gaussian processes as a machine learning method have the potential to address these issues. Gaussian processes are a Bayesian approach to function regression, that is, they allow to place a prior distribution over the space of functions. The approach has become one of the standard tools for solving non-linear regression problems, which are central to many machine learning problems. While the modeling capabilities of Gaussian processes are as high as for state-of-the-art alternatives, the basic concept is exceptionally clear and easy to implement.
<br>
<br>We present Gaussian process-based solutions to a wide variety of problems encountered in robotics. This includes the modeling of laser and gas sensors, the interpretation of camera images, the detection of failures during mobile robot navigation, and the estimation of probabilistic terrain maps from noisy range measurements. Furthermore, we introduce an approach that allows a robot to learn a model of its own body from scratch using only visual self-observation. In each of the studied problem domains, our solutions have been evaluated empirically using real and simulated data.
<br>
<br>As a contribution to machine learning in general, we study and improve extensions of the standard Gaussian process model, which can be used flexibly to solve non-robotics learning tasks also. This includes an approach to dealing with spatially-varying observation noise and one for adapting the function smoothness locally. We furthermore derive sparse approximations for these extensions to be able to apply the models to large data sets and in online settings.
Durch die rapide zunehmende Komplexität von Robotersystemen und ihrer Einsatzumgebungen kommt dem maschinellen Lernen als Grundlagentechnologie eine noch höhere Bedeutung innerhalb der Robotik zu als dies in der Vergangenheit der Fall war. Relevante Lernprobleme in der Robotik stellen hohe Anforderungen an die eingesetzten Lernverfahren. Dies beinhaltet ein hohes Maß an Modellierungsgenauigkeit, den verlässlichen Umgang mit Unsicherheiten, Speicher- und Zeiteffizienz, sowie Robustheit gegenüber fehlenden und verrauschten Daten. Mit dieser Arbeit zeigen wir, dass Gaußprozesse als Verfahren zur Regressionsanalyse das Potential haben, diesen Anforderungen in relevanten Anwendungen gerecht zu werden. Gaußprozesse sind ein etablierter und konzeptionell klarer Ansatz aus der Statistik, mit dessen Hilfe Verteilungen über Funktionen definiert und praktische Regressionsprobleme gelöst werden können.
<br>
<br>Ausgehend von den hohen Anforderungen der Robotik leiten wir eine Reihe von Erweiterungen für Gaußprozesse her, die sich auch außerhalb der Robotik als leistungfähig erwiesen haben. Dies beinhaltet einen neuen Ansatz zur Modellierung von inhomogenem Meßrauschen sowie einen Ansatz zur lokalen Adaption der Funktionsglattheit an die gegebenen Daten. Darüber hinaus werden Approximationen der erweiterten Modelle zur Effizienzsteigerung behandelt, die das Lernen auf großen Datenmengen und unter Resourcenbeschränkungen möglich macht. Diese Erweiterungen stellen einerseits einen Beitrag zum maschinellem Lernen im Allgemeinen dar und helfen andererseits, eine breitgefächerte Menge an Robotikproblemen zu lösen. Die in dieser Arbeit ausführlich behandelten Probleme umfassen die Modellierung von Laser- und Gassensoren, die Interpretation von Kamerabildern, die automatische Fehlerdetektion für mobile Roboter, sowie die Erstellung von probabilistischen Geländemodellen. Desweiteren stellen wir einen Ansatz vor, durch den ein Roboter seine eigene kinematische Struktur durch visuelle Selbstobservation modellieren und kontrollieren kann. Für jede dieser Problemstellungen wurde ein experimenteller Vergleich zu existierenden Lösungen durchgeführt und eine Diskussion der Vorteile des Gaußprozess Ansatzes geführt.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6108
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-61088
https://freidok.uni-freiburg.de/dnb/download/6108
https://freidok.uni-freiburg.de/data/6108
oai:freidok.uni-freiburg.de:6136
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Polyelectrolyte complexes and multilayers at solid surfaces via polymer brushes
Polyelektrolyt-Komplexen und Multilayer auf festen Oberflächen mittels Polymer-Bürsten
Yang, Hyun-Kwan
Online-Ressource
This thesis describes research that aimed at a better understanding of the parameters and mechanisms that govern the adsorption of polyelectrolytes on an oppositely charged polyelectrolyte brush. The work was motivated through earlier results described by Zhang, who observed for some cases a very strong templating effect of a PEL brush when this brush was used as a substrate for the so-called layer-by-layer deposition process.
<br>
<br>The formation of PEL-PEL complexes at surfaces is fairly well understood. Layer formation is due to the interplay between number of charges, solubility (swellability) and the presence of hidden charges. Additionally, “overcompensation” can occur due to kinetic reasons (irreversible processes) in weak-strong system and popping up of previously hidden charges in weak-weak system. We coined the term “Trojan Horse” (of Greek Mystery) mechanism for the fabrication of multilayer deposition.
<br>
Polyelektrolyt-Komplexen und Multilayer auf festen Oberflächen mittels Polymer-Bürsten
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6136
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-61365
https://freidok.uni-freiburg.de/dnb/download/6136
https://freidok.uni-freiburg.de/data/6136
oai:freidok.uni-freiburg.de:6150
2015-06-17T10:49:01Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Machine learning strategies for content based image retrieval
Maschinelle Lernstrategien fuer inhaltsbasierte Bildsuche
Setia, Lokesh
Bilderkennung
Maschinelles Lernen
Online-Ressource
The ever increasing amount of digital information has created a need for effective information retrieval systems. As it is said, information which cannot be found easily is as good as lost. As information comes in various formats and types, their retrieval mechanisms also need to differ correspondingly. In this work, we deal with the task of content based image retrieval, in which the system facilitates the interaction between a user and an image database by automatic analysis of the image content.
<br>
<br>We know about the ambiguities that can exist even in the simplest of phrases in a natural language. As an example, a sentence such as "Flying planes can be dangerous" can either mean "Flying planes are dangerous" or "Flying planes is dangerous". Images are no different. In fact, the old saying "A picture is worth a thousand words" is as true here as it is anywhere. In this work, we take the view that these ambiguities are natural, and thus the system should not take the one or the other viewpoint from the very beginning. The earliest systems for image retrieval allowed the user to specify his or her viewpoint by giving access to its internal system parameters, which can be complicated or tiring for the user. A modern system, on the other hand, seeks to learn this viewpoint by imposing less responsibilities on the user. This can be achieved using relevance feedback, in which the user progressively gives the system more and more information, in return for better results. Relevance feedback can be short-term, in which the data collected is discarded as soon as the session is over, and long-term, in which the data can be collected over multiple sessions of one user, or even over multiple users. In this work, however, we will constrain ourselves to short-term relevance feedback, as in our view the ambiguities or the multiple interpretations present in an image cannot be handled otherwise.
<br>
<br>The later part of the thesis delves into image search as an offshoot of the traditional text-based search engines. To this end, we explore the possibility of annotating an image database using keywords. One advantage of this approach is that the user does not need to provide a suitable starting image for the query. An equally important advantage is that the annotation process can be carried out offline for the whole database, unlike relevance feedback which must be carried out in real time. Apart from annotation, we show that further data mining operations can also be carried out on image databases, which can contribute to improving the effectiveness of the image search engine. We conclude with the demonstration of various algorithms on a real life medical image database in which very competitive results could be achieved in recent international benchmarks.
Die stets ansteigende Zahl digitaler Informationen hat die Notwendigkeit effizienter Informationsuchmachinen geschaffen. Informationen die man nicht leicht wiederfinden kann, könnten auch genau so gut verloren sein, so sagt man. Weil Informationen in den unterschiedlichsten Formaten und Typen vorkommen können, müssen auch die Suchmechanismen entsprechend unterschiedlich sein. In der vorliegenden Arbeit beschäftigen wir uns mit der inhaltsbasierten Bildsuche, die dem Benutzer die Interaktion mit einer Bilddatenbank mittels automatischer Analyse des Bildinhaltes erleichtert.
<br> Wir kennen die Mehrdeutigkeiten, die sogar in sehr einfachen Sätzen natürlicher Sprachen existieren. Ein Satz wie "Flying planes can be dangerous" kann unterschiedliche Bedeutungen haben ("Es kann gefährlich sein Flugzeuge zu fliegen" vs "fliegende Flugzeuge können gefährlich sein."). Das gleiche gilt auch für Bilder. Tatsächlich ist das alte Sprichwort: "Ein Bild sagt mehr als tausend Worte" hier treffender als irgendwo sonst. Dieser Arbeit liegt die Ansicht zugrunde, dass diese Mehrdeutigkeiten normal sind, und dass das System nicht im Vorhinein eine mögliche Bedeutung einer anderen bevorzugen sollte. Die frühesten Image Retrieval Systeme erlaubten dem Benutzer seine Sichtweise zu spezifizieren, indem sie ihm Zugang zu internen Systemparametern gewährten. Diese zu spezifizieren ist wenn nicht zu kompliziert so doch zumindest sehr mühsam. Ein modernes System versucht die Sichtweise des Benutzers zu lernen und somit dem Benutzer weniger Verantwortung zu überlassen. Dies kann mittels Relevance Feedback realisiert werden, wobei der Benutzer dem System nach und nach mehr Informationen gibt, in der Hoffnung auf bessere Ergebnisse. Man unterscheidet zwischen Kurzzeit-Relevance Feedback, bei welchem die gesammelten Daten nach jeder Session verworfen werden, und Langzeit- Relevance Feedback, bei welchem die Daten über mehrere Sessions eines Benutzers oder sogar für mehrere Benutzer gesammelt werden. In dieser Arbeit beschäftigen wir uns jedoch ausschließlich mit Kurzzeit-Relevance Feedback, da sich unserer Meinung nach die in digitalen Bildern vorhandenen Mehrdeutigkeiten nicht anders modellieren lassen.
<br> Im nächsten Teil der Arbeit wird die Bildsuche als Erweiterung traditioneller textbasierter Suchsysteme eingehend analysiert. Hierzu wird die Möglichkeit der Bildannotation mittels Schlüsselwörtern betrachtet. Ein Vorteil dieser Methode liegt darin, dass der Benutzer kein passendes Startbild für die Anfrage zur Hand haben muss. Ein ebenso wichtiger Vorteil besteht darin, dass der Annotationsschritt anders als Relevance Feedback offline vorgenommen werden kann. Darüber hinaus zeigen wir, dass weitergehende Data Mining Operationen auf Bilddatenbanken ausgeführt werden können, die dazu beitragen die Effektivität der Bildsuchmaschine zu steigern. Schließlich demonstrieren wir die Anwendung verschiedener Algorithmen auf einer realen medizinischen Datenbank, auf der sehr wettbewerbsfähige Ergebnisse erzielt werden konnten.
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6150
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-61503
https://freidok.uni-freiburg.de/dnb/download/6150
https://freidok.uni-freiburg.de/data/6150
oai:freidok.uni-freiburg.de:6217
2015-04-29T10:21:49Z
pub-type:other_doctype
ddc:004
has-source-swb:true
hasFile:true
Beständige, dichte Metall-Kunststoff-Verbindungenan an Premolded Gehäusen : Abschlussbericht 01.06.2006 bis 31.08.2008
Fellner, Thomas
Wilde, Jürgen
Kunststoff-Metall-Klebeverbindung
Kunststoff-Metall-Verbund
Computersimulation
Adhäsion
Bruchmechanik
Gehäuse
Spritzgießen
Online-Ressource
Es wurden in diesem Vorhaben geeignete Verfahren zur Herstellung langzeitstabiler Metall-Kunststoff-Verbindungen erprobt und evaluiert. Es wurden Testproben und Gehäuse hergestellt und mit dessen Hilfe Haftungsmechanismen vor und nach Alterung untersucht und bewertet. Außerdem wurde der Einfluss von Haftschichten auf die Dichtigkeit untersucht. Es wurden dabei Verfahren ausgewählt die selektiv applizierbar oder strukturierbar sind um keine Veränderung der Löt- und Bondflächen zu erzielen. Ebenfalls wurde ein Konzept zur technologischen Umsetzung erstellt.
<br>Die mechanische Stabilität der Verbundflächen konnte in diesem Vorhaben um nahezu zwei Größenordnungen langzeitstabil erhöht werden. Die Dichtigkeit konnte ebenfalls bereits um den Faktor 7,3 langzeitstabil erhöht werden. Insgesamt wurde eine deutliche Stabilisierung der Verbundstelle und somit eine höhere Baugruppenzuverlässigkeit der Gehäuse erfolgreich erzielt. Trotz allem steckt weiterhin hohes Potential in z.B. der Wahl der Materialkombinationen und Prozessparameter.
<br>Im Hinblick auf industrielle Anwendung sind zukünftig weitere Haftschichtuntersuchungen notwendig. Vor allem die exaktere Eingrenzung des optimalen B-Stage der Haftschicht birgt ein hohes Potential. Des Weiteren sind Untersuchungen zum Einfluss auf die Langzeitdichtigkeit bei Variation der Materialparameter wie dem CTE, dem E-Modul, der Spritzgussparameter sowie letztlich der Schichtdicke bei optimalen Prozessparametern von großer Bedeutung. All diese Parameter, vor allem der CTE, nehmen Einfluss auf die Größe der thermomechanischen Spannungen und sind somit verantwortlich für die Lebensdauer des Verbundsystems. Ein letzter und ebenfalls wichtiger Punkt ist die Untersuchung der Eignung unterschiedlicher Epoxidharzsysteme mit verschiedenen Glasübergangstemperaturen Tg. Epoxidharzsysteme mit hoher Temperatur-beständigkeit leisten ebenfalls einen Beitrag zu Langzeitdichtigkeit bei thermischer Belastung.
<br>Aus industrieller Sicht können somit Premolded Packages mit signifikant optimierten Eigenschaften einfach und mit verhältnismäßig geringem Zusatzaufwand hergestellt werden. Zur Übertragung der vorgestellten Beschichtungstechnologie in beispielsweise die Reel-To-Reel-Produktion von Premolded Packages sind geeignete InkJet-Druckköpfe zur Abscheidung der Beschichtung sowie ein vorgeschalteter Durchlaufofen zur Einstellung des B-Stage notwendig. Unter Umständen muss das Leadframeband einmal gedreht werden um eine rundum geschlossene Beschichtung zu erzielen.
<br>Die Firmen des Projektbegleitenden Ausschusses arbeiten weiterhin an der Technologie.
2008
ger
other_doctype
pdf
free
https://freidok.uni-freiburg.de/data/6217
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-62179
https://freidok.uni-freiburg.de/dnb/download/6217
https://freidok.uni-freiburg.de/data/6217
oai:freidok.uni-freiburg.de:6237
2015-06-11T14:04:09Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Visual object class recognition using local descriptions
Erkennung visueller Objektklassen mit Hilfe lokaler Beschreibungen
Teynor, Alexandra
Mustererkennung
Maschinelles Lernen
Online-Ressource
Die vorliegende Arbeit beschäftigt sich mit der Erkennung von Elementen visueller Objektklassen in digitalen Bildern, eine Aufgabe, die sich beispielsweise bei der Verwaltung großer Bild- und Videodatenbanken stellt. Bilder, die bestimmte Objekte enthalten, sollen leicht (wieder-) gefunden werden. Ziel ist es, Verfahren zu entwickeln, die nur auf den Bilddaten selbst beruhen.
<br>
<br>Das grundlegende Prinzip der in dieser Arbeit vorgestellten Methoden ist dabei die Verwendung von lokalen, visuellen Merkmalen, die aus den Bildern extrahiert werden. Die Arbeit besitzt zwei Schwerpunkte: der erste Teil beschäftigt sich mit der Identifikation und der Repräsentation von Objektteilen. Der zweite Teil beleuchtet Methoden, wie die Objektteile miteinander in (örtliche) Verbindung gesetzt werden können, um damit verschiedene Objektklassen zu modellieren. Im Folgenden werden die beiden Schwerpunkte kurz beschrieben.
<br>
<br>
<br>Identifikation von Teilen
<br>
<br>Um Orte für die lokale Merkmalsextraktion zu bestimmen, werden Punkte mit gewünschten Eigenschaften identifiziert. Welchen Kriterien diese Punkte entsprechen müssen, hängt von der Anwendung ab. Die Analyse einer Vielzahl von Detektoren zeigte, dass eine zu frühe Beschränkung der Art der detektierten Strukturen die Klassifikationsleistung negativ beeinflusst. Der von uns in dieser Arbeit verwendete Loupias-Detektor besitzt diesbezüglich sehr gute Eigenschafen. Er beruht auf einer Waveletanalyse des Signals, liefert in seiner Originalversion jedoch keine Größeninformation. Daher wurde dieser Detektor mit Hilfe eines Skalenselektionsverfahrens erweitert. Mit diesem neuen Detektor konnten bei Tests hervorragende Ergebnisse erzielt werden.
<br>
<br>An den detektierten Stellen im Bild werden verschiedene Merkmale berechnet, welche die lokale Struktur beschreiben. Diese Merkmale werden zur Konstruktion von Teilewörterbüchern verwendet, deren Einträge als Bausteine zur Erstellung von Objektklassenmodellen dienen. In dieser Arbeit konnte gezeigt werden, dass komplizierte, zeitintensive Verfahren, welche die genaue Anordnung der Lernstichproben in Merkmalsräumen berücksichtigen, zur Bestimmung der Prototypteile nicht nötig sind. Vielmehr reicht ein einfaches, sequenzielles Verfahren (MBSAS-clustering) aus, um geeignete Teilewörterbücher zu erzeugen. Die Berechnungszeit solcher Wörterbücher konnte von mehreren Tagen auf wenige Stunden reduziert werden.
<br>
<br>In herkömmlichen Teilewörterbüchern werden nur visuell ähnliche Strukturen zu Prototypteilen zusammengefasst. Bestimmte, semantisch äquivalente Teile eines Objekts können jedoch sehr unterschiedliche visuelle Ausprägungen haben. In dieser Arbeit wurde ein Verfahren entwickelt, visuell unterschiedliche, aber semantisch ähnliche Teile zu assoziieren. Dies geschieht mit Hilfe eines semantischen Ähnlichkeitsmaßes, das auf örtlichen Auftretensverteilungen beruht.
<br>
<br>
<br>Assoziation von Teilen zur Objektmodellierung
<br>
<br>Im zweiten Teil der Arbeit werden verschiedene Verfahren vorgestellt, einzelne Prototypen aus den Teilewörterbüchern zueinander in Verbindung zu setzten. Die Auswertung der relativen Position von Paaren lokaler Teile führt zu sogenannten cluster co-occurrence Matrizen. Diese Matrizen wurden als Merkmale zur Klassifikation von Röntgenaufnahmen eingesetzt. Damit konnten im "ImageCLEF medical image annotation" Wettbewerb in den Jahren 2006 und 2007 ausgezeichnete Ergebnisse erzielt werden.
<br>
<br>Mit Hilfe lokaler Teile kann neben der Klassifikation auch die exakte Position eines Objektes im Bild ermittelt werden. Im Rahmen dieser Arbeit wurde eine Methode entwickelt, die nicht nur die Lage und Größe eines Objekts, sondern auch dessen Orientierung erkennt. Diese beruht auf einem Hough-Mehrheitsverfahren und beachtet die Orientierung der einzelnen Detektionen im Bild.
<br>
<br>Bei Verfahren zur Bestimmung der wahrscheinlichen Lageparameter eines Objekts liegt die Annahme zugrunde, dass ein Objekt der Klasse im Bild vorhanden ist. Ob dies tatsächlich der Fall ist, wird nicht überprüft. Daher wird in dieser Arbeit vorgeschlagen, die Positionsparameterbestimmung mit der Erzeugung von lokalen Teilehistogrammen zu kombinieren, um damit eine Klassifikation von Bildern zu ermöglichen. Von Regionen mit einer hohen Auftretenswahrscheinlichkeit für das Objekt werden lokale Histogramme berechnet. Um die Klassifikationssicherheit von herkömmlichen regionenbasierten Histogrammen zu steigern, wurden SCP (spatially coherent parts) Histogramme entwickelt. Diese bestehen nur aus den Teilen, die für eine bestimmte Parameterkombination eines Objektes gestimmt haben. Dadurch entstehen Vorteile bei teilweise verdeckten Objekten sowie Objekten, durch die der Hintergrund durchscheint. Ein Test der neuen Verfahren auf einer schwierigen Fahrraddatenbank hat deren klare Überlegenheit gegenüber globalen Histogrammansätzen gezeigt.
This work is concerned with the recognition of visual object class members in digital images. The fundamental principle of all methods employed in this work is the use of local, visual features extracted from the images. There are two emphases: the first half of the work deals with the identification and the representation of the local object parts, the second half analyzes and proposes methods how to relate the object parts in order to build object class models. In the following, we give a short overview about the two emphases:
<br>
<br>
<br>Determining parts
<br>
<br>In order to identify locations for feature extraction, interest point detectors are used. Depending on the precise type of the detector, different kinds of structures can be discovered. We evaluated the properties of several detectors and could show that restricting the type of structure to be found too early can be harmful for the recognition performance. In this respect, the wavelet-based Loupias detector used in this work possesses beneficial properties. However, in its original version, it does not provide any scale information. For this reason, we extended the Loupias detector by a Laplacian scale selection mechanism. we could obtain superior results using this extended detector in a challenging animal classification task proposed by the MUSCLE Network-of-Excellence.
<br>
<br>From the regions discovered by the individual interest point detectors, visual features are calculated. These local descriptions of the structures under consideration can be used to construct part dictionaries or visual codebooks. The individual entries of these dictionaries serve as building blocks for object class models.
<br>
<br>In this work, we analyzed different state-of-the art methods for building visual codebooks. We were able to show that difficult, time-consuming algorithms, that try to recover the precise layout of the samples in feature space are not necessary. A simple sequential algorithm (MBSAS-clustering) is sufficient to construct high quality codebooks. In this way, we were able to reduce the time for constructing visual codebooks from several days to few hours.
<br>
<br>The visual codebooks contain a variety of different visual parts. Certain structures might have a common semantic meaning, but look considerably different. Treating these semantically related, but visually different entities separately can spoil the recognition performance. This work presents a method how these semantically related parts can be associated by comparing their object reference point distributions. Using semantically recombined features leads to improved recognition performance for nearest neighbor classifiers and enhanced speed for SVM based classification.
<br>
<br>
<br>Relating parts
<br>
<br>The second focus of this work is on methods how to combine the prototype parts to create object class models. An established way is to just consider the occurrence frequencies of the individual structures.
<br>
<br>A more sophisticated technique is to examine the pairwise relationship of the parts. This lead to the development of cluster co-occurrence matrices. These features were used for the classification of radiograph images in the ImageCLEF medical image annotation challenge. Superior results could be achieved for the 2006 and 2007 competitions.
<br>
<br>The local parts can also be used to recover the positional parameters of an object. In this work, we present a method that is not only capable of estimating the location and the scale of an object, but also its orientation. This is achieved by using a Hough-like voting scheme and object reference point distributions as well as the orientation of the local detections in the image.
<br>
<br>Methods to identify probable object parameters already assume that the object is indeed present in an image, but it can not be inferred whether this is true. We propose to combine an object parameter estimation stage and the creation of local histograms from the estimated object region to enable object classification. To improve the capabilities of the traditional regional histograms, we have developed histograms of spatially coherent parts (SCP). These are histograms only from parts that agree on a specific object parameter configuration. Tests on a challenging bicycle database have shown the superiority of the approach compared to a global bag-of-features approach.
<br>
<br>
2008
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6237
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-62371
https://freidok.uni-freiburg.de/dnb/download/6237
https://freidok.uni-freiburg.de/data/6237
oai:freidok.uni-freiburg.de:6371
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Algorithms and data structures for IP lookup, packet classification and conflict detection
Algorithmen und Datenstrukturen für IP Lookup, Paketklassifikation und Konflikterkennung
Maindorfer, Christine
Netzwerktopologie
Router
Algorithmus
Online-Ressource
The major task of an Internet router is to forward packets towards their final
<br>destination. When a router receives a packet from an input link interface, it uses its destination address to look up a routing database. The result of the lookup provides the next hop address to which the packet is forwarded. Routers only need to determine the next best hop toward a destination, not the complete path to the destination. Changes in network topologies due to physical link failures, link repairs or the addition of new routers and links lead to updates in the routing database. Since the performance of the lookup device plays a crucial role in the overall performance of the Internet, it is important that lookup and route update operations are performed as fast as possible. To accelerate lookup and update operations, routing tables must be implemented in a way that they can be queried and modified concurrently by several processes. Relaxed balancing has become a commonly used concept in the design of concurrent search tree algorithms.
<br>The first part investigates the hypothesis that a relaxed balancing scheme is better suited for search-tree based dynamic IP router tables than a scheme that utilizes strict balancing. To this end we propose the relaxed balanced min-augmented range tree and benchmark it with the strictly balanced variant using real IPv4 routing data. Further, in order to carry out a plausibility consideration, which corroborates the correctness of the proposed locking schemes, we present an interactive visualization of the relaxed balanced min-augmented range tree.
<br>Enhanced IP routers further provide policy-based routing (PBR) mechanisms,
<br>complementing the existing destination-based routing scheme. PBR provides a
<br>mechanism for implementing Quality of Service (QoS), i.e., certain kinds of traffic
<br>receive differentiated, preferential service. Besides QoS, PBR further provides a mechanism to enforce network security policies. PBR requires network routers to examine multiple fields of the packet header in order to classify them into flows. Flow identification entails searching a table of predefined filters to identify the appropriate flow based on criteria including source and destination IP address, ports, and protocol type. Geometrically speaking, classifying an arriving packet is equivalent to finding the best matching hyperrectangle among all hyperrectangles that contain the point representing the packet.
<br>The R-tree and its variants have not been experimentally evaluated and bench-
<br>marked for their eligibility for the packet classification problem.
<br>In the second part we investigate if the popular R*-tree is suited for packet classification. For this purpose we will benchmark the R*-tree with two representative
<br>classification algorithms in a static environment. Most of the proposed classification algorithms do not support fast incremental updates. If the R*-tree shows to be
<br>suitable in a static scenario, then the benchmark is a stepping stone
<br>for benchmarking R*-trees in a dynamic environment.
<br>If a packet matches multiple filters, a tiebreaker is used in order to determine
<br>the best matching filter among all matching filters. However, not every policy can be enforced by assigning priorities. In these cases, MSTB should be used instead. Yet, the most specific tiebreaker is only
<br>feasible if for each packet p the most specific filter that applies to p is well-defined.
<br>If this is not the case, the filter set is said to be conflicting.
<br>In the last part of the thesis we propose a conflict detection and resolution algorithm for static one-dimensional range tables, i.e., where each filter is specified by an arbitrary range. Further, we show that by making use of partial persistence, the structure can also be employed for IP lookup.
Die Hauptaufgabe eines Internet-Routers besteht in der Weiterleitung von Paketen.
<br>Im Falle, dass mehrere Präfixe in der Routertabelle
<br>mit der Zieladresse übereinstimmen, wird in der Regel eine Strategie gewählt, die als "Longest Prefix Matching" bekannt ist. Zur Lösung dieses sogenannten IP-Lookup-Problems sind
<br>zahlreiche Algorithmen und Datenstrukturen vorgeschlagen worden.
<br>Da die Performanz der IP-Lookup-Einheit einen entscheidenden Einfluss auf die Gesamtperformanz des Internets hat, ist
<br>es entscheidend, dass IP-Lookup sowie Aktualisierungen so schnell wie möglich
<br>durchgeführt werden. Um zu sichern, dass auf Suchbäumen basierte dynami-
<br>sche Routertabellen nicht durch Updates degenerieren, unterlegt man diese mit
<br>einer balancierten Suchbaumklasse. Relaxierte Balancierung ist ein gebräuchliches Konzept im Design von nebenläufig implementierten Suchbäumen.
<br>Der erste Teil dieser Dissertation untersucht die Hypothese, dass ein relaxiert
<br>balanciertes Schema für dynamische Routertabellen besser geeignet ist als ein
<br>Schema, welches strikte Balancierung verwendet. Dazu schlagen wir den relax-
<br>iert balancierten min-augmentierten Bereichssuchbaum vor und vergleichen diesen
<br>mit der strikt balancierten Variante im Rahmen eines Benchmarks.
<br>Des Weiteren stellen IP-Router "Policy basierte" Routing-Mechanismen (PBR) zur
<br>Verfügung.
<br>Um PBR zur Verfügung stellen zu können, müssen Router mehrere Paketfelder wie zum
<br>Beispiel die Quell- und Zieladresse, Port und Protokoll inspizieren, um Pakete
<br>in sogenannte "Flows" zu klassifizieren. Geometrisch gesprochen werden Filter durch d-dimensionale Hyperrechtecke und Pakete durch d-dimensionale
<br>Punkte repräsentiert. Paketklassifikation bedeutet nun, für ein weiterzuleiten-
<br>des Paket das am besten passende Hyperrechteck zu finden, welches den Punkt
<br>enthält.
<br>Im zweiten Teil werden wir eruieren, ob der weitverbreitete R*-Baum zur Lösung
<br>dieses Problems geeignet ist. Dazu wird dieser mit zwei repräsentativen statischen Klassifizierungsalgorithmen im Rahmen eines Benchmark-Tests verglichen. Erweist sich der R*-Baum als geeignet, ist dieses Benchmark ein Sprungbrett fÄur eine Untersuchung im dynamischen Fall.
<br>
<br>Falls mehrere Filter auf ein weiterzuleitendes Paket anwendbar sind, wird ein sogenannter Tiebreaker verwendet, um den am besten passenden Filter zu bestimmen.
<br>Es wurde festgestellt, dass nicht jede Policy durch die Vergabe von Prioritäten durchgesetzt werden kann und
<br>vorgeschlagen, in jenen FÄallen den "spezifischsten Filter" Tiebreaker anzuwenden.
<br>Jedoch ist dieser Tiebreaker nur realisierbar, wenn für jedes Paket der spezifischste Filter wohldefiniert ist. Ist dies nicht der Fall, sagt man, die Filtermenge sei widersprüchlich.
<br>Im letzten Teil dieser Dissertation schlagen wir einen Algorithmus zur Konflikt-
<br>aufdeckung und Beseitigung für den statischen eindimensionalen Fall vor, wobei
<br>jeder Filter durch ein beliebiges Intervall spezifiziert ist. Weiterhin zeigen wir, dass wenn zur Lösung dieses Problems eine partiell persistente Datenstruktur verwendet wird, diese Struktur auch IP-Lookup unterstützt.
2009
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6371
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-63718
https://freidok.uni-freiburg.de/dnb/download/6371
https://freidok.uni-freiburg.de/data/6371
oai:freidok.uni-freiburg.de:6409
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Automatenbasierte Entscheidungsverfahren für Theorien der Logik erster Stufe mit Addition
Automata-based decision procedures for first-order logical theories with addition
Eisinger, Jochen
Büchi-Automat
Automatentheorie
Entscheidungsverfahren
Online-Ressource
Büchi erkannte bereits 1960, dass Automaten über endlichen Wörtern nicht nur
<br>verwendet werden können, um verschiedene sequentielle und modale Logiken zu
<br>entscheiden. Sie können auch für arithmetische Theorien eingesetzt werden. Zum
<br>Beispiel kann mit Automaten über endlichen Wörtern die Addition natürlicher
<br>Zahlen dargestellt werden. Da Automaten unter booleschen Operationen und
<br>Projektion abgeschlossen sind, erhält man so ein Entscheidungsverfahren für
<br>die Presburger Arithmetik, d.h. die Theorie der Logik erster Stufe über den
<br>natürlichen Zahlen mit Addition FO(N,+) bzw. FO(Z,+,<). Büchi-Automaten
<br>ermöglichen einen ähnlichen Ansatz für die gemischte lineare Arithmetik, d.h.
<br>FO(R,Z,+,<). Boigelot et. al. haben gezeigt, dass bereits eine Teilklasse der
<br>Büchi-Automaten ausreicht, so genannte schwache deterministische
<br>Büchi-Automaten, um diese Logik zu entscheiden.
<br>
<br>Obwohl Implementierungen automatenbasierter Entscheidungsverfahren für
<br>FO(R,Z,+,<) existieren, sind noch viele Forschungsfragen offen bzw. nicht
<br>vollständig beantwortet, und die praktische Anwendbarkeit scheitert häufig an
<br>der Größe der Automaten.
<br>
<br>Ziel der vorliegenden Arbeit ist es, sowohl die praktische Anwendbarkeit
<br>automatenbasierter Entscheidungsverfahren zu erhöhen, als auch zu einem
<br>besseren theoretischen Verständnis solcher Entscheidungsverfahren beizutragen.
Büchi observed, in the 1960s, that automata over finite words can not only be
<br>used to decide various sequential and modal logics. Automata-based methods can
<br>also be used to analyze arithmetical theories. For example, automata over
<br>finite words can represent addition of natural numbers. Since automata are
<br>closed under boolean operations and projection, one immediately obtains a
<br>decision procedure for Presburger arithmetic, i.e., the first-order logical
<br>theory over the natural numbers with addition FO(N,+) or FO(Z,+,<). A similar
<br>approach works for mixed linear arithmetic, i.e., FO(R,Z,+,<) using Büchi
<br>automata. Boigelot et. al. have shown that even weak deterministic Büchi
<br>automata suffice to decide this logical theory.
<br>
<br>Although there exist efficient implementations of these automata-based
<br>decision procedures for FO(R,Z,+,<), many research questions are still only
<br>partially answered, and it turns out that a limiting factor in the
<br>automata-based representation is the size of the automata.
<br>
<br>This thesis aims at both, increasing the applicability of automata-based
<br>decision procedures and improving the theoretical understanding of such
<br>decision procedures.
2009
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6409
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-64099
https://freidok.uni-freiburg.de/dnb/download/6409
https://freidok.uni-freiburg.de/data/6409
oai:freidok.uni-freiburg.de:6476
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Resistive bridging faults - defect-oriented modeling and efficient testing
Resistive bridging faults - defektorientierte Modellierung und effizienter Test
Engelke, Piet
CMOS-Schaltung
Testen
Online-Ressource
This thesis covers defect-oriented testing of resistive shorts. This type of defect creates an unwanted connection between two or more conducting elements of a circuit. The impact of shorts on circuit behavior is represented by the resistive bridging fault model which has been proposed by Renovell et al. The model is designed for static voltage testing of circuits implemented in the complementary metal-oxide-semiconductor (CMOS) technology. In this thesis we present our contributions to defect-oriented testing of resistive shorts. We significantly improved the testability of these defects by enhancing the resistive bridging fault model, devised by Renovell et al., in several aspects. On the one hand we evolved the model, thus extending its scope of application. On the other hand we developed efficient algorithms and high-performance tools. These tools enable testing of resistive shorts in circuits of practically relevant size. Our extensive experiments demonstrate the benefits of the resistive bridging fault model in numerous application domains.
<br>
Diese Dissertation beschäftigt sich mit defektorientiertem Test widerstandsbehafteter Kurzschlussdefekte. Diese Art von Defekt führt zu einer unerwünschten Verbindung zwischen einem oder mehreren leitfähigen Elementen einer digitaler Logikschaltung. Die Auswirkung solcher Defekte auf das Verhalten der Schaltung wird durch das von Renovell et al. vorgestellte Fehlermodell für widerstandsbehaftete Brückenfehler (engl. resistive bridging fault model) beschrieben. Das Modell hat Gültigkeit für Schaltungen in komplementärer Metall-Oxid-Halbleitertechnologie (CMOS) und ist auf statischen Spannungstest ausgerichtet. In dieser Arbeit wird das Modell von Renovell et al. in mehrerer Hinsicht erweitert. Dadurch kann die Testbarkeit widerstandsbehafteter Kurzschlussdefekte signifikant verbessert werden. Die Erweiterungen betreffen zum einen die Fehlermodellierung als solche, wodurch das Einsatzspektrum des Modells deutlich vergrößert wird. Zum anderen wird auf die Entwicklung leistungsfähiger Algorithmen und Programme eingegangen. Mit Hilfe der hier diskutierten Programme ist es möglich, widerstandsbehaftete Kurzschlussdefekte in Schaltkreisen von praktisch relevanter Größe effizient zu testen. Des Weiteren demonstrieren umfassende Experimente, wie das in dieser Arbeit erweiterte Fehlermodell für widerstandsbehaftete Brückenfehler gewinnbringend in weiten Bereichen des Schaltungstests eingesetzt werden kann.
<br>
2009
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6476
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-64761
https://freidok.uni-freiburg.de/dnb/download/6476
https://freidok.uni-freiburg.de/data/6476
oai:freidok.uni-freiburg.de:6480
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
ViPER: Visual perception based information extraction of structured web content
ViPER: Visuelle wahrnehmungsorientierte Informationsextraktion von strukturierten Webinhalten
Simon, Kai Florian
Information Extraction
Data Mining
Information-Retrieval-System
Online-Ressource
No other medium has taken a more meaningful place in our life in such a
<br>short time than the world-wide largest data network, the World Wide Web.
<br>However, when searching for information in the data network, the user is
<br>constantly exposed to an ever-growing flood of information. This is both a
<br>blessing and a curse at the same time. While many users only scratch at the surface of the Web via index-based search engines, an almost endless amount of sources providing high quality information often stored in databases can be found in the depths of the WWW. In order to take advantage of these sources when searching the Web novel techniques are required facilitating the integration of heterogeneous Deep Web with minimal effort and enabling a semantic interpretation of their published content.
<br>With respect to the Semantic Web, which focuses on computer-computer and
<br>human-computer interactions, the Web still resides in its early stages of development. It is, however, not to be expected that the expenditure of a complete semantic annotation of all web inventories can be done manually. Instead, the development of automatic extraction, annotation, and integration systems operating on representation-oriented HTML pages will play a significant role in this context. In this thesis, the first challenge that is faced is the development of a fully automated wrapper system. Various new approaches will be presented to solve specific problems in the context of web data extraction. The spectrum of the presented methods ranges from visual document analysis techniques for the localization and relevance ranking of similar structured data regions to the reorganization of extracted data records and the automatic annotation of aligned data items. Finally, by materializing derived extraction and annotation rules we are able to automatically generate a wrapper specification for congeneric web pages which can be used to efficiently transform web data into arbitrary target formats or just integrate the extracted web data into local database systems.
Das weltweit größte Datennetz, das WorldWideWeb, hat sich in kürzester Zeit
<br>zu einem der wichtigsten Informationsmedien unsere Zeit entwickelt. Informationen sind in hypertext-basierten, verteilten Dokumenten an jedem Ort verfügbar. Diese stetig wachsende Datenmenge stellt immer neue Herausforderungen
<br>an Techniken zum gezielten Finden relevanter Informationen.
<br>Eine wesentliche Hilfe beim Durchsuchen des WWW stellen heutzutage indexbasierte
<br>Suchmaschinen wie beispielsweise Google dar. Basierend auf einem
<br>Index, ermöglichen sie eine effiziente Suche von relevanten Dokumenten durch
<br>die Eingabe von Suchbegriffen. Bei diesem Verfahren können jedoch nur Dokumente
<br>gefunden werden, die zuvor durch einen so genannten Webcrawler in
<br>den Index aufgenommen wurden. Durch die Größe des Webs, den Zeitversatz
<br>der zwischen einem Crawlvorgang und dem Indexieren von Dokumenten
<br>vergeht ergeben sich eine Reihe von Einschränkungen für indexbasierte Suchmaschinen. So ist bekannt, dass sich ein weitaus größerer, für Webcrawler unzugänglicher Anteil von zumeist qualitativ hochwertigeren Informationen in
<br>so genannten Backend Datenbanken befindet, deren Inhalte nur indirekt über
<br>dynamisch erzeugte Webseiten angefragt werden können. Um solche Quellen
<br>in eine Informationsrecherche einzubeziehen, bedarf es neuer Techniken, die
<br>es ermöglichen, die Informationsquellen mit geringem Aufwand zu integrieren
<br>und deren Inhalt semantisch zu erfassen.
<br>Einen Schritt in diese Richtung beschreibt die Idee des semantischen Webs. Informationen im Web sollen nicht nur für Menschen verständlich sein, sondern
<br>deren semantische Annotation soll die Kommunikation zwischen Computer-
<br>Computer und Mensch-Computer ermöglichen. Es ist jedoch nach heutigem
<br>Kenntnisstand nicht zu erwarten, dass der Aufwand einer vollständigen semantischen Annotierung der in HTML Dokumenten dargeboten Information
<br>manuell durchgeführt werden kann. Stattdessen kommen automatischen Verfahren
<br>zur Unterstützung der Annotation eine tragende Rolle zuteil.
<br>Im Rahmen dieser Dissertation werden Methoden untersucht, mit denen strukturierte
<br>Inhalte vollautomatisch aus Webseiten erkannt und extrahiert werden
<br>können. Das Spektrum reicht dabei von Mustererkennugsmethoden und
<br>visueller Dokumentenanalysetechniken zur Lokalisierung und Strukturerkennung
<br>zusammenhängender und relevanter Informationsbestandteile, über globale
<br>Alignmenttechniken zur Identifizierung von gleichartigen Informationen bis
<br>hin zu statistischen Heuristiken zur Erkennung von Extraktions- und Annotationsregeln. Basierend auf den gelernten Regeln ist es möglich, schnell und einfach Informationen in gewünschte Formate zu überführen und in einer semantischen Suche zu nutzen.
2009
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6480
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-64802
https://freidok.uni-freiburg.de/dnb/download/6480
https://freidok.uni-freiburg.de/data/6480
oai:freidok.uni-freiburg.de:6529
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Probabilistische Modelle zur Beschreibung und Vorhersage regulativer DNA-Sequenzen
Probabilistic models for describing and predicting regulatory DNA sequences
Pudimat, Rainer
DNS-Bindungsproteine
DNS-Bindung
DNS-Krümmung
DNS
Bioinformatik
Mustererkennung
Musteranalyse
Automatische Klassifikation
Bayes-Netz
Online-Ressource
Die Funktionsweise eines Proteins wird nicht nur durch eine enzymatische
<br>Wirkung definiert, sondern auch durch die Dynamik seines Auftretens in verschiedenen
<br>Zelltypen oder -stadien und verschiedenen physiologischen Situationen.
<br>Die Rate, mit der ein bestimmtes Protein produziert wird, bzw. die Aktivität des dazu-
<br>gehörigen Gens unterliegt einem vielschichtigen Regulationsapparat. Die bedeutendste
<br>Stufe dieses Apparats ist die transkriptionelle Genregulation. Diese wird durch Tran-
<br>skriptionsfaktoren ausgeübt, speziellen Proteinen, die auf der DNA binden können und
<br>Einfluss auf die Aktivität von bestimmten Genen nehmen können. Transkriptionsfak-
<br>toren binden bevorzugt eine für sie charakteristische Bindungssequenz (TFBS), einer
<br>kurzen Nukleotidfolge von ungefähr zehn bis zwanzig Basenpaaren. Abweichungen von
<br>dieser optimalen Sequenz werden je nach Transkriptionsfaktor mehr oder weniger stark
<br>toleriert. In komplexeren Lebewesen kooperieren häufig mehrere Transkriptionsfaktoren
<br>und wirken als funktionale Einheit auf die Genexpression. Zu wissen, welche Transkripti-
<br>onsfaktoren welche Gene regulieren, wäre ein Fortschritt bei der Aufklärung der Funktion
<br>von Proteinen.
<br>Diese Arbeit beschäftigt sich mit der rechnergestützten Analyse von regulativen DNA-
<br>Sequenzen, jenen DNA-Bereichen also, die durch Transkriptionsfaktoren gebunden wer-
<br>den. In drei Teilen werden drei verschiedene Aspekte dieses Forschungsgebiets bearbeitet:
<br>1.) die stochastische Modellierung und Erkennung einzelner TFBS, 2.) die stochastische
<br>Modellierung von funktionell zusammenhängenden Gruppen benachbarter TFBS und
<br>3.) das unüberwachte Lernen unbekannter Sequenzmotive.
The function of a protein is defined by its enzymatic impact but also by the dynamics of its
<br>precence in different cell tissues, and in different physiological circumstances.
<br>The expression rate of a protein-coding gene is regulated by several mechanisms. One important layer
<br>of regulation is the transcriptional gene regulation. Particular proteins, transcription factors,
<br>which are able to bind on short, characteristic DNA sequences and to influence the work of the RNA
<br>polymerase II complex are the actors of transcriptional regulation. Transcription factors
<br>tolerate some degree of variation of their prefered DNA binding sequence. Further, multiple
<br>transcription factors constitute functional units to trigger the regulatory effect.
<br>In order to understand the regulation of a gene it is important to know which transcription factors
<br>are able to bind the regulatory sequences of this gene.
<br>This thesis deals with the computational analysis of regulatory DNA sequences. In three parts
<br>the thesis describes my research results in three different disciplines of this research field:
<br>1.) the probabilistic modeling and prediction of single transcription factor binding sites, 2.) the stochastic
<br>modeling of groups of functional related transcription factor binding sites, and 3.) unsupervised learning algorithms
<br>of unknown sequence patterns.
2008
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6529
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-65299
https://freidok.uni-freiburg.de/dnb/download/6529
https://freidok.uni-freiburg.de/data/6529
oai:freidok.uni-freiburg.de:6605
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Funktionale Langzeitarchivierung digitaler Objekte : Entwicklung eines Demonstrators zur Internetnutzung emulierter Ablaufumgebungen
Functional long-term archiving of digital objects : development of a demonstration system for an internet usage of emulated runtime environments
Welte, Randolph
Langzeitarchivierung
Online-Ressource
Fast unbemerkt von der breiten Öffentlichkeit hat der schleichende Datenverlust unseres digitalen Erbes längst begonnen. Im Gegensatz zu bedrucktem Papier oder Fotografien sind digitale Objekte nicht human readable, bedürfen also immer technischer Apparate und Kontexte, um betrachtet werden zu können.
<br>Neben den gerade im Umfeld der Gedächtnisorganisationen angewandten, klassischen Archivierungsstrategien wie der Migration digitaler Objekte in neue Ablaufumgebungen liegt der Fokus dieser Arbeit primär auf Fragestellungen, welche sich direkt oder indirekt aus einer Emulation kompletter Ablaufumgebungen als Teil einer Langzeitarchivierungsstrategie digitaler Objekte ergeben.
<br>Im Vorfeld einer auf dem OAIS-Referenzmodell basierten Archivierung gilt es, möglichst viele Informationen über die zu archivierenden digitalen Objekte zu gewinnen. Ein oder mehrere hieraus resultierende View-Paths beinhalten neben Informationen zur ursprünglichen Erstellungsapplikation und dem benötigten Betriebssystem auch Informationen über die passende Hardware-Plattform sowie einen hierfür geeigneten Emulator.
<br>Diese View-Paths werden zusammen mit den digitalen Primärobjekten und weiteren Metadaten archiviert und gegebenenfalls in gewissen Zyklen aktualisiert. Die als Sekundärobjekte bezeichneten Softwarekomponenten solcher Ablaufumgebungen können in einem weiteren Archiv abgelegt werden.
<br>Eine solche Strategie bedingt weitreichende Konzepte, welche eine Benutzung und Sichtbarmachung solcher digitalen Objekte nach ihrer Bereitstellung durch ein Archiv (DIP) gewährleisten können. In dieser Arbeit sollen Erfolgsbedingungen für ein zu entwickelndes System ermittelt werden, welches eine Schnittstelle zu einem solchen Archiv schafft und eine Nutzung emulierter Ablaufumgebungen entkoppelt von lokal angebotenen Services über das Internet ermöglichen soll. Hierzu werden verschiedene Anwendungen und Techniken aus den Bereichen Application Publishing sowie Web-basierter Applikationsentwicklung vorgestellt. Zwingende Voraussetzungen – wie etwa der Transfer digitaler Objekte zwischen Host-System und emulierter Umgebung – sowie weitere Anforderungen und angedachte Erweiterungen des Systems werden anhand des Emulators QEMU exemplarisch diskutiert und erörtert.
<br>Ein nach diesen Vorgaben entwickeltes Demonstrationssystem, welches benutzerseitig in einem Webbrowser ausgeführt werden kann, versucht eine solche Benutzerschnittstelle bereitzustellen. Digitale Primärobjekte des Benutzers können mittels einer DROID Dateiformat-Identifizierung erkannt und dem Benutzer so gezielt vom System vorgeschlagene Caches – paketierte, emulierte Ablaufumgebungen – zur Sichtbarmachung der Objekte angeboten werden. Der Fernzugriff auf die grafischen Benutzerschnittstellen der emulierten Ablaufumgebungen erfolgt auf der Basis der Remotedesktop Software TightVNC.
Nearly unnoticed by the general public, the data loss of our digital heritage has already begun. Contrary to printed paper or photographs, digital objects are not humanly readable, thus always require technical equipment and contexts in order to be able to be observed correctly.
<br>Straight, classical archiving strategies like the migration of digital objects into new environments are applied in the surrounding field of the archiving organizations. However, the focus of this work is primarily on questions which result directly or indirectly from an emulation of complete environments as part of a long-term archiving strategy of digital objects.
<br>Before an OAIS based archive is operated, it is necessary to collect as much information about the digital objects as possible. One or more view-paths result containing information about the origin application which was used to create the digital object. Furthermore, view paths contain information about operating systems needed, suitable hardware platforms and therefore needed emulators.
<br>These view-paths were archived together with the so-called “primary objects” and further meta information. “Secondary objects” like operating systems or emulators can be stored in further archives. Such archiving strategies requiring extensive concepts ensure an employment of the digital object after its retrieval through an archive (DIP).
<br>This dissertation tries to detect the achievement-conditions for an interface using such an archive. Thus it should be possible to use such emulated environments via the Internet. For this, different applications and techniques from the category of application publishing as well as Web-based application development are presented.
<br>Compelling conditions - as for instance the transfer of digital objects between host system and emulated environment - as well as further requirements and possible extensions of the system are exemplary discussed on the basis of the emulator QEMU.
<br>A demonstration system developed using these specifications, which can be implemented user-side in a Web browser, attempts to make such a user interface available. Therefore the user can be offered suggested Caches - packaged, emulated environments - by the system for the execution of the digital objects.
<br>The remote access to the graphical user interfaces of the emulated environments is based on the TightVNC software.
2008
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6605
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-66056
https://freidok.uni-freiburg.de/dnb/download/6605
https://freidok.uni-freiburg.de/data/6605
oai:freidok.uni-freiburg.de:6606
2017-03-13T14:27:19Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Hotlink Assignment
Jacobs, Tobias
Website
Optimierung
Heuristik
Greedy-Algorithmus
Online-Ressource
Die vorliegende Dissertation behandelt kombinatorische Optimierungsprobleme, die mit dem Erweitern von Websites durch zusätzliche Hyperlinks zusammenhängen.
<br>
<br>Das Einfügen ggf. speziell hervorgehobener zusätzlicher Links, so genannter Hotlinks, ist ein Verfahren zur Optimierung von Websites. Ein Vorteil dieses Verfahrens ist, dass es nicht destruktiv ist, da die ursprüngliche Struktur der Site erhalten bleibt. Hotlinks können - abhängig von den Interessen der Benutzer - so zugeordnet werden, dass auf beliebtere Seiten schneller zugegriffen werden kann. Auf diese Weise wird die erwartete Anzahl an ,,Klicks minimiert und der Datenverkehr gleichzeitig verringert.
<br>
<br>Eine hierarchisch aufgebaute Website kann formal als gewichteter Baum T = (V,E,omega) beschrieben werden, wobei (V,E) ein Baum mit Wurzel r ist.
<br>Die Gewichtsfunktion omega ordnet jedem Knoten eine Zugriffswahrscheinlichkeit zu. Ein Hotlink Assignment ist eine Menge A von zusätzlichen Kanten, welche für die Benutzer Abkürzungen darstellen. Aus Gründen der Übersichtlichkeit ist nur eine gewisse Anzahl ausgehender Hotlinks pro Seite erlaubt. Ein Hotlink Assignment ist für einen gegebenen gewichteten Baum optimal, wenn es unter allen zulässigen Assignments die erwartete Länge des Pfades von der Wurzel r zu einem Knoten im Baum minimiert. Hierbei betrachten wir nicht den kürzesten Pfad, sondern gehen davon aus, dass jeder Hotlink auf dem Weg von der Wurzel zum Zielknoten durch die Benutzerin oder den Benutzer unmittelbar benutzt wird.
<br>
<br>Nach einer ausführlichen Einführung in die Problemstellung befassen wir uns zunächst mit der Berechnungskomplexität der optimalen Lösung. Hierbei zeigen wir, dass es NP-vollständig ist, zu entscheiden, ob für einen gegebenen Baum ein Hotlink Assignment existiert, welches eine bestimmte erwartete Pfadlänge erreicht. Dies gilt selbst für den Fall, dass maximal ein Hotlink von jedem Knoten ausgehen darf und dass nur die Blätter positive Zugriffswahrscheinlichkeit haben.
<br>
<br>Im darauffolgenden Kapitel identifizieren wir eine praxisrelevante Einschränkung des Lösungsraumes, unter deren Berücksichtigung das Hotlink-Assignment-Problem in Polynomialzeit gelöst werden kann. Es handelt sich hierbei um die Anforderung, dass Hotlinks nur auf die Blätter des Baumes weisen dürfen.
<br>
<br>Im weiteren Verlauf der Dissertation geben wir Algorithmen an, die in Polynomialzeit Näherungslösungen mit konstanten
<br>Approximationsfaktoren berechnen. Der Greedy-Algorithmus fügt immer den Hotlink in den Baum ein, welcher momentan die größte Verbesserung erzielt. Wir zeigen, dass mit diesem Verfahren mindestens die Hälfte der maximal möglichen Verbesserung erreicht wird.
<br>Des Weiteren geben wir ein Approximationsschema (PTAS) an, welches Lösungen mit beliebigem Näherungsgrad in Polynomialzeit berechnet, wobei der Grad des Polynoms vom gewünschten Näherungsgrad abhängt. Letzterer bezieht sich auch hier auf die maximal mögliche Verbesserung.
<br>Eine alternative Zielsetzung ist es, die erwartete Pfadlänge möglichst gut zu approximieren. Hierfür präsentieren wir einen Polynomialzeitalgorithmus mit Approximationsfaktor 2.
<br>
<br>Im letzten Kapitel der Dissertation präsentieren wir die Ergebnisse einer ausführlichen experimentellen Studie. Des weiteren geben wir eine neuartige heuristische Methode zum Einfügen von Hotlinks an, die in der Praxis exzellente Ergebnisse erzielt. Die Experimente basieren auf zwei Testdatensätzen. Der erste Datensatz besteht aus Baum-Instanzen, welche die Struktur der Websites großer Universitäten repräsentieren. Der zweite Datensatz beinhaltet synthetische Instanzen, die von einem probabilistisch arbeitenden Algorithmus erzeugt wurden. Letzterer wurde bei dieser Studie erstmals eingesetzt. Die Experimente zeigen, dass die heuristische Methode und der Greedy-Algorithmus in der Praxis die besten Lösungen berechnen und dass bei Einschränkung des Lösungsraumes auf Blätter durchaus vergleichbar gute Ergebnisse erzielt werden. Auf der anderen Seite schneiden Algorithmen, die auf Approximationsfaktoren bezüglich der erwarteten Pfadlänge abzielen, in den Experimenten deutlich schlechter ab.
This thesis treats combinatorial optimization problems that arise from the task to enhance web sites with additional hyperlinks.
<br>
<br>The goal of inserting additional hyperlinks called hotlinks is to optimize web sites. An advantage of this approach is that it is non-destructive, i.e. the original site structure is preserved. Hotlinks are typically assigned according to the interests of the users, such that popular pages can be accessed especially fast. This both minimizes user interaction and reduces web traffic.
<br>
<br>A hierarchically structured web site can be formalized as a weighted tree T=(V,E,omega), where (V,E) is a tree rooted at r. The weight function omega assigns an access probability to each node. A hotlink assignment is a set A of additional shortcut edges. For reasons of clearness, only a certain maximum number of hotlinks is allowed to leave each node. A hotlink assignment is optimal for T if it minimizes the expected length of the path from r to some other node. Instead of considering the shortest path, we assume that the user immediately takes any hotlink on the path to her or his destination node.
<br>
<br>After a detailed introduction to the problem, we first address the computational complexity of the optimal solution. We show that it is NP-complete to decide whether there exists a hotlink assignment for a given weighted tree achieving a given expected path length. This even holds true in the case where only one hotlink is allowed to leave each node and only the leaves can have a positive access probability.
<br>
<br>Subsequently, we identify a restriction of the solution space that is relevant in practice and allows for a polynomial time optimal algorithm. Namely, we study the model where hotlinks may only point to the leaves of the tree.
<br>
<br>Returning our attention to the original hotlink assignment problem, we give a number of polynomial time algorithms that compute solutions guaranteeing constant approximation factors. The Greedy algorithm always inserts a hotlink currently achieving the greatest improvement or gain. We prove that this algorithm achieves at least one half of the optimal solution's total gain. Furthermore, we give an approximation scheme (PTAS) which computes solutions with an arbitrary approximation ratio in polynomial time, where the degree of the polynom depends on the desired ratio. Here the ratio also corresponds to the gain. An alternative approach is to approximate the expected path length as good as possible. To this end, we present a polynomial time 2-approximation.
<br>
<br>In the last chapter of the thesis, we present the results of an extensive experimental study. Moreover, we propose a new heuristic that achieves excellent results in practice. Our experiments are based on two data sets. One set contains tree instances representing the structure of large university web sites. The other data set consists of synthetic instances generated by a new random construction method. The experiments show that in practice our heuristic method and Greedy achieve the best results, and, in terms of solution quality, assignments which are optimal under the restriction that hotlinks only point to leaves are comparable to the best assignments not meeting that restriction. On the other hand, algorithms tailored to approximate the expected path length perform considerably worse in the experiments.
2009
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6606
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-66068
https://freidok.uni-freiburg.de/dnb/download/6606
https://freidok.uni-freiburg.de/data/6606
oai:freidok.uni-freiburg.de:6611
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Einsatz von RFID zur Optimierung dezentraler Materialfluss-Steuerung : ein Informationssystem zur Flexibilisierung der Reihenfolgeplanung in Kanban
RFID for the optimization of decentralised material flow control : an information system for the flexibility of sequence planning in Kanban
Faupel, Titus
RFID
Wirtschaftsinformatik
Kanban-System
Materialfluss
Online-Ressource
Die automatisierte und sichtkontaktfreie Objektidentifikation auf Basis der RFID-Technolgie gewinnt zunehmend an ökonomischer Bedeutung. So verspricht die Einbettung von RFID-Transpondern in die physikalische Umgebung eine allgegenwärtige Datenerfassung, so dass die Lücke zwischen physikalischer Umgebung und deren informatischem Abbild geschlossen werden kann. Im betrieblichen Kontext sind somit Leistungssteigerungen zum einen durch die Reduktion manueller Arbeit (automatisierte Informationssammlung) und zum anderen durch die Ausnutzung zusätzlicher bzw. qualitativ besserer Informationen über die physikalische Umwelt (Verbesserung der Informationsqualität) denkbar.
<br>
<br>Aktuelle Fallstudienuntersuchungen zeigen, dass der betriebliche Einsatz von RFID als reine Automatisierungstechnologie in der Regel nicht die erwünschten Leistungssteigerungen zur Folge hat. In manchen Fällen ist sogar zu beobachten, dass es bei einem solchen Vorgehen zu einer Verschlechterung im Vergleich zum Status quo kommt. Dennoch wird RFID nach wie vor größtenteils als reine Rationalisierungstechnologie verstanden. Dies zeigt sich beispielsweise im Rahmen kanban-basierter Fertigungssysteme, welche der Arbeit als Fallstudie dienen. So sind zwar erste Konzepte bekannt, welche eine Optimierung von Kanban mittels RFID anstreben, diese verfolgen allerdings ausschließlich das Ziel, die bisherige händische Informationserfassung (bspw. das Auslesen der Kanban-Karte mit einem Barcode-Lesegerät) zu automatisieren. Die Ausnutzung der betriebswirtschaftlichen Potentiale von RFID ist im Rahmen solcher Konzepte nicht zu erwarten. Die Arbeit löst sich von dem Standpunkt, wonach RFID als reine Automatisierungstechnologie aufgefasst wird und fokussiert auf den Entwurf eines Informationssystems, mit Hilfe dessen die erweiterte Informationsbasis im Rahmen von kanban-basierten Fertigungssystemen ausgenutzt werden kann.
<br>
<br>Ausgehend von den neuen Möglichkeiten der Informatisierung betrieblicher Prozesse mittels RFID, ist es Ziel der Arbeit, ein neues Informationssystem zu entwickeln, mit Hilfe dessen das bisher nur suboptimal gelöste Problem der Reihenfolgenplanung in Mehrprodukt Kanban-Systemen optimiert werden soll. Dabei steht die Flexibilisierung der Reihenfolgenplanung im Vordergrund. So soll das System eine gezielte und variable Beeinflussung der Reihenfolgeplanung hinsichtlich mehrerer, zum Teil gegenläufiger, betriebswirtschaftlicher Zielgrößen erlauben. Dabei soll gleichzeitig sichergestellt werden, dass die Entscheidungen bezüglich des Reihenfolgeplans ohne bedeutenden Zeitverlust getroffen werden können und somit eine zeitnahe Anpassung an eine veränderte Produktionssituation möglich ist.
<br>
The automated and contact-free object identification based on RFID technology is gaining in economic importance. Thus, embedding RFID transponders in the physical environment promises a ubiquitous data collection, resulting in a real-time connection between the physical environment and the digital image. Business performance improvements can be achieved by the automation of information acquisition ("automation") and by the utilisation of additional or qualitatively improved information about business resources ("informatization").
<br>
<br>Current case studies indicate that the operational deployment of RFID technology as a pure automation technology usually does not have the desired performance improvements. In some cases, such an approach even leads to a decline of the status quo. Nevertheless, RFID is still mostly understood as an automation technology. This is reflected, for instance, in the context of Kanban-based manufacturing systems, which is used as a case study in this dissertation. Thus, initial concepts are published, in which an optimization of Kanban by RFID is aspired. However, these concepts solely aim at the automation of current manual information acquisition. Within such concepts, the use of the full potential of RFID cannot be expected. The author disassociated himself from the position that RFID is a pure automation technology and focused on the design of an information system, whereby the advanced information basis can be exploited in the context of Kanban-based production systems.
<br>
<br>Based on the new possibilities of RFID, the aim of the dissertation is the development of a new information system, whereby the hitherto suboptimally solved problem of sequence planning in multi-product Kanban systems can be optimized. The focus is thereby on the flexibility of sequence planning.
<br>
2009
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6611
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-66116
https://freidok.uni-freiburg.de/dnb/download/6611
https://freidok.uni-freiburg.de/data/6611
oai:freidok.uni-freiburg.de:6794
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Local invariant features for 3D image analysis
Lokale invariante Merkmale für die Analyse von 3D Bildern
Fehr, Janis
Bildverarbeitung
Dreidimensionale Computergrafik
Mustererkennung
Online-Ressource
The automatic analysis of 3D volume data is an emerging topic. The recent development towards increasingly cheaper, faster and better 3D imaging devices, such as CT, MRI and especially confocal microscopy results in huge amounts of 3D data which eventually have to be analyzed and evaluated. In most cases, the evaluation is still accomplished by very tedious and resource consuming manual work.
<br>This rises the demand for (semi)-automatic algorithms, which not only allow a qualitative high throughput evaluation of the recorded data, but also provide reliable and reproducible quantitative measures for further statistical analysis or mathematical modelling of complex systems.
<br>Typical tasks of 3D image analysis usually include the detection, segmentation and classification of objects and (sub)-structures, counting and localizing, as well as the quantitative description of textures, shapes and positions.
<br>
<br>While there has been very intense research in the area of 3D medical image analysis over the last decades, most of the methods developed in this context tend to fail on recently emerging biological 3D image analysis problems. The main reasons can be seen in the more difficult imaging properties, smaller target structures and higher intra class variations within the biological data. Also, other new research areas in demand for 3D evaluation methods, like the analysis of protein structures or 3D object retrieval, hardly benefit from existing medical image processing results.
<br>This motivated us to try to address the problem of 3D image analysis in a more general way - moving away from very specialized ''one Ph.D. per problem'' solutions and towards highly generic, multi purpose methods which can easily be adapted to new problems. It is obvious that this is a very ambiguous goal, but we were able to show that the methods and ideas which we derive throughout this thesis cover a wide range of different operations (detection, segmentation, classification, etc.) on quite different types of 3D volume data from different sources.
<br>
<br>In this thesis, we present a novel framework which provides generic methods for the automatic analysis of 3D volume data. We combine local invariant feature descriptors with learning techniques to infer mathematical models describing 3D objects (structures) in dense and cluttered data.
<br>Using annotated training examples, our overall framework is able to adapt to a wide range of different problems by learning local formations of shape and texture properties.
<br>
<br>Local feature descriptors play the key role in our concept. Due to the often times high intra class variations and anisotropic nature of the data, we derive features that are invariant towards the most common data transformations, including rotation, gray-scale changes and for some applications also scaling and translation. Throughout this thesis, we provide as many as 14 different local 3D features: from general texture and shape features to very specific and highly specialized detectors.
<br>The derived features operate either on gray-scale and scalar multi-channel volume data or on 3D vector fields (which usually are obtained from the gradient information of scalar input data). Besides an in-depth theoretical investigation of the mathematical background and the actual, highly optimized
<br>implementation of invariant features for 3D volume data, we also provide learning methods for the selection and data driven construction of the features.
<br>The second key contribution to our framework are supervised and partially interactive learning methods using the input of the local features to detect, segment and classify given objects or structures. While we are mostly relying on ''standard'' algorithms such as Support Vector Machines (SVM) and Markov Random Fields (MRF) to train our framework, we derived several algorithms to speedup the classification of huge 3D volume datasets:
<br>We introduce a novel fast linear approximation of non-linear SMVs and also derive two new algorithms for the fast inference of MRFs via ''Generalized Belief Propagation''.
<br>
Die automatische Analyse von 3D Volumendaten wird in naher Zukunft eine immer grössere Rolle spielen. Die aktuelle Entwicklung hin zu immer
<br>billigeren, schnelleren und qualitativ höherwertigen Bildgebungsverfahren zur Erzeugung von 3D Volumendatan wie z.B. CT, MRT und insbesondere
<br>die 3D Konfokalmikroskopie, führen dazu, dass enorme Mengen an 3D Daten anfallen, welche ausgewertet und analysiert werden müssen.
<br>Da die Auswertung der Daten in den allermeisten Fällen noch in aufwändiger und zeitraubender "Handarbeit" durch menschliche Experten
<br>erledigt wird, steigt mit zunehmender Datenmenge auch rapide der Bedarf an (semi)-automatischen Analyse- und Auswertungsverfahren.
<br>Diese sollen in der Regel nicht nur eine qualitative "Hochdurchsatz"-Analyse der Daten liefern, sondern oftmals auch robuste, quantitative
<br>Kenngrössen liefern, welche in weiteren Verarbeitungsschritten zur Erstellung statistischer Auswertungen oder mathematischer Modelle
<br>verwendet werden sollen.
<br>Typische Teilaufgaben der Bildanalyse beinhalten die Detektion, Segmentierung und Klassifikation von Objekten oder (Teil)Strukturen, das
<br>Zählen und Lokalisieren, sowie die quantitative Beschreibung von Texturen, Formen und relativen Positionen.
<br>
<br>Wenngleich es im Bereich der medizinischen Bildverarbeitung bereits seit Jahrzehnten eine intensive Forschung in Richtung automatischer Analyse
<br>von 3D Volumendaten gibt, hat es sich gezeigt, dass sich die dort entwickelten Methoden oftmals leider nicht direkt auf die jetzt
<br>aufkommenden Daten und Probleme (insbesondere aus dem Bereich der 3D Mikroskopie) anwenden lassen. Die Hauptursache hierfür sind die
<br>schlechteren
<br>Bildgebungseigenschaften, kleinere Strukturen und die erhöhte Intraklassenvarianz der biologischen Daten. Aber auch andere neue
<br>Anwendungsgebiete der 3D Bildanalyse konnten bisher nur beschränkt von den bereits existierenden Methoden aus der medizinischen Bildverarbeitung
<br>profitieren. Dies hat uns motiviert das Problem der 3D Bildanalyse von einem sehr allgemeinen Standpunkt aus anzugehen und zu versuchen, einen
<br>generischen Ansatz zu finden, der sich leicht auf eine Vielzahl verschiedener Probleme anpassen lässt, anstatt wie meist üblich, sehr spezielle
<br>Lösungen nach dem Motto ''ein Problem - eine Doktorarbeit'' zu entwerfen. Es liegt auf der Hand, dass dies ein sehr ambitioniertes Vorhaben
<br>ist, welches sicherlich nicht im Rahmen dieser Arbeit vollständig gelöst werden kann. Dennoch sind wir mit den in dieser Arbeit vorgestellten
<br>Methoden bereits in der Lage, ein breites Spektrum an unterschiedlichsten Problemen (wie der Detektion, Segmentierung, Klassifikation usw.) auf
<br>unterschiedlichen Typen von 3D Volumendaten zu lösen.
<br>
<br>In dieser Arbeit präsentieren wir ein neuartiges, generisches Verfahren zur automatischen Analyse von 3D Volumendaten. Wir nutzen eine
<br>Kombination aus lokalen invarianten Merkmalen und Lernalgorithmen, um mathematische Modelle von 3D Objekten (Strukturen) in dichten
<br>und verrauschten Daten zu erstellen. Das vorgestellte Verfahren ist in der Lage sich bei gegebenen annotierten Traingsdaten, an eine Vielzahl
<br>von unterschiedlichen Problemstellungen anzupassen. Dies geschieht im Wesentlichen durch das Erlernen der problemspezifischen lokalen
<br>Konstellation von Textur- und Formmerkmalen.
<br>
<br>Lokale Merkmalsdeskriptoren spielen eine Schlüsselrolle im vorgestellten Ansatz: auf Grund der meist starken Intraklassenvariationen und
<br>anisotropen Strukturen verwenden wir Merkmale, welche gegen die dominanten Transformationen invariant sind. Dies beinhaltet in Wesentlichen
<br>Invarianz gegen Rotation und Grauwertänderung und in manchen Fällen auch Skalierung und Translation. Im Lauf der Arbeit präsentieren
<br>wir 14 verschiedene Ansätze für lokale invariante 3D Merkmale: von Textur- über Formmerkmale bis hin zu hochspezialisierten
<br>Objektdetektoren.
<br>Einige der Merkmale operieren auf Grauwert Daten, andere auf skalaren Multi-Kanal Daten und wiederum andere auf 3D Vektorfeldern,
<br>welche gewöhnlich aus der Gradienteninformation skalarer Daten gewonnen werden.
<br>Neben der theoretischen mathematischen Herleitung und optimierten Implementationen der Merkmale stellen wir auch eine Reihe von Verfahren zur
<br>Selektion der geeignetsten Merkmale und deren problemspezifischen Konstruktion vor.
<br>
<br>Die zweite Schlüsselrolle im vorgestellten Ansatz spielen Methoden für das überwachte und teilweise iterative Lernen, welches basierend
<br>auf den lokalen Merkmalen die Detektions-, Segmentierungs- und Klassifikationsaufgaben umsetzen. Dabei stützen wir uns auf
<br>''Standardalgorithmen'' wie Support Vektor Maschinen (SVM) und Markov Netzwerke (MRF), welche allerdings für die gegebenen Anwendungen
<br>erheblich beschleunigt werden mussten:
<br>Wir stellen daher in der Arbeit einen Algorithmus zur schnellen, linearen Approximation nicht-linearer SVMs vor und entwickeln zwei sehr
<br>schnelle Verfahren zur Inferenz von MRFs mittels ''Generalized Belief Propagation''.
<br>
2009
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6794
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-67946
https://freidok.uni-freiburg.de/dnb/download/6794
https://freidok.uni-freiburg.de/data/6794
oai:freidok.uni-freiburg.de:6834
2015-06-11T14:05:44Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Particle-based animation
Partikelbasierte Animation
Becker, Markus
Computeranimation
Online-Ressource
Im Bereich the physikalisch-basierten Computeranimation gibt es ein immer stärkeres Interesse an effizienten Methoden für die Simulation verschiedenster Materialien und deren Interaktion. Partikelbasierte Methoden werden dabei zunehmend als attraktive Alternative zu gitter- und netzbasierten Methoden für die Simulation von Flüssigkeiten und Festkörpern erkannt. Im Rahmen dieser Arbeit wurden Methoden zur Simulation von Flüssigkeiten und Festkörpern mittels der Smoothed Particle Hydrodynamics Methode untersucht. Im Bereich der Flüssigkeiten werden eine schwach kompressible Formulierung und ein neues Oberflächenspannungsmodell diskutiert. Im Bereich der elastischen Festkörper wird ein neues partikelbasiertes Modell für die rotationsinvariante Simulation von volumetrischen und nichtvolumetrischen Objekten vorgestellt.
<br>Da für eine effiziente Simulation geeignete Datenstrukturen essentiell sind, werden einige relevante Konzepte vorgestellt und diskutiert. Für die Suche nach benachbarten Partikeln wird dabei ein existierendes Raumunterteilungsverfahren optimiert, welches auf einer Hashtabelle basiert. Neben geeigneten Datenstrukturen werden zusätzlich noch verschiedene Aspekte der Parallelisierung von partikelbasierten Methoden betrachtet.
<br>Bei einer dynamischen Simulation ist neben der eigentlichen Dynamik der simulierten Objekte in der Regel auch deren Interaktion von Interesse, z.B. im Bereich der Kontakt- und Kollisionsbehandlung. In der vorliegenden Arbeit wird eine neuartige Klasse von Methoden zur Berechnung von Zwangskräften in dynamischen Simulationen vorgestellt. Das Verfahren beruht auf der expliziten Verwendung von vorausberechneten Informationen der Simulation zur Erfüllung von Zwangsbedingungen. Dabei werden die diskretisierten Gleichungen um Zwangskräfte oder -impulse erweitert und die Gleichungen anschließend nach diesen Kräften und Impulsen aufgelöst. Die Verwendung der tatsächlich am Objekt wirkenden Kräfte zur Korrektur der Dynamik löst viele der bisher, z.B. bei Penalty- of Lagrangemultiplikatorenverfahren, vorhandenen Probleme. Zwangsbedigungen können innerhalb eines einzigen Zeitschritts erfüllt werden und Oszillationen um einen Ruhepunkt werden vermieden. Daneben können Poststabilisierungsmethoden vermieden werden, da sich Berechnungsfehler in der Regel nicht aufaddieren.
<br>Für das vorgestelle Verfahren werden drei Anwendungsbereiche diskutiert: Die Ein- und Zweiwegekopplung von partikelbasierte Flüssigkeiten mit beweglichen und statischen Starrkörpern, die Kollisionsbehandlung zwischen elastisch verformbaren Festkörpern mit triangulierten Oberflächen und das Anwenden von geometrischen Zwangsbedingungen auf elastische Festkörper.
There is an ongoing interest in the field of physically-based computer animation for fast simulations of different materials and the interaction of the simulated objects. For the simulation of fluids and solids, particle-based methods are becoming a more and more attractive alternative to traditional mesh-based and grid-based concepts. In this thesis, many relevant topics for fluid simulations and elastic deformations based on the particle-based Smoothed Particle Hydrodynamics method are discussed. A weakly compressible fluid simulation is presented with a novel surface tension model. For the simulation of elastic solids, a corotated formulation is presented that can handle rigid body transformations of elastic solids correctly while being able to simulate even collinear and coplanar particle configurations.
<br>As efficient data structures are crucial for particle-based simulations, some concepts are presented and discussed in detail. For the search of neighboring particles an improved spatial hashing procedure is presented. In addition to optimized data structures, different aspects for the parallelization of particle-based methods are considered.
<br>As it is usually desired that simulated objects interact with each other, constraint methods are an important topic e. g. for contact and collision handling. A class of constraint methods based on a predictor-corrector scheme is presented in this thesis. Predictor-corrector schemes take into account the discrete nature of the underlying equations. They augment the discretized equations with constraint forces or impulses and directly solve the equations for the unknown forces. The proposed concept alleviates many of the disadvantages which arise for penalty-based and Lagrange multiplier methods. For all these methods, a local formulation is presented that allows to process the constraints in an efficient way by decoupling them from each other. In contrast to previous methods, which rely on the information from the current timestep, predictor-corrector schemes explicitly take into account the information of the subsequent timestep under unconstrained motion. As the constraint forces are directly derived from the discretized equations, constraints can be met in a single timestep and oscillations are avoided. Errors that might occur do generally not build up over time. Therefore, post-stabilization methods can be avoided.
<br>Three different applications of the predictor-corrector concept are provided. The proposed scheme is used to derive a stable coupling of moving rigid bodies and particle-based fluids. Second, the concept is applied to collision handling of elastic solids that are represented by triangular surface meshes. Third, constraint forces for geometric constraints on deformable solids are derived.
2009
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6834
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-68344
https://freidok.uni-freiburg.de/dnb/download/6834
https://freidok.uni-freiburg.de/data/6834
oai:freidok.uni-freiburg.de:6838
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Anfragetransformationen zum adaptiven Filtern von XML-Datenströmen
Query transformations for the adaptive filtering of XML data streams
Weber, Martin Anton
Datenbank
XML
Abfrageverarbeitung
Online-Ressource
Das Filtern von Datenströmen anhand großer Mengen von Anfragen ist eine Herausforderung, die seit der Verbreitung des World-Wide-Web und der damit einhergehenden Vernetzung zunehmend präsenter wird. Mit der Auszeichnungssprache XML, die eine Beschreibung und Darstellung der Daten in sowohl menschen- als auch maschinenlesbarer Form erlaubt, hat sich eine breit akzeptierte Plattform für den Austausch von Daten etabliert. Damit bedeutet Filtern von Daten in vielen Fällen Filtern von Daten im Format XML.
<br>
<br>Die große Stärke von XML ist seine Flexibilität. Durch die Definition geeigneter Schemata lassen sich nahezu beliebige Szenarien beschreiben, wobei die konkreten Erfordernisse der Anwendung berücksichtigt werden können. Diese Flexibilität, auf der einen Seite ein großer Vorteil von XML, kann sich jedoch auch als gravierender Nachteil erweisen. So existiert für eine konkrete Anwendungsdomäne gegebenenfalls eine Vielzahl verschiedener Schemata, was im Falle einer Integration von Daten aus verschiedenen Quellen dieser Domäne mit einem erheblichen Aufwand verbunden sein kann. Ein weiteres Problem liegt vor, wenn die Daten vom zugrundeliegenden Schema abweichen, da die Systeme in der Regel auf schemakonforme Daten angewiesen sind.
<br>
<br>Mit aXst wird ein System zum Filtern von XML-Datenströmen präsentiert, das Anfragen an die tatsächlich vorliegenden Strukturen der Datenströme anpasst. Damit liefert das System auch dann Treffer, wenn die Daten entweder fehlerhaft sind oder von der vom Benutzer erwarteten Struktur abweichen. Der Mechanismus zur Anpassung der Anfragen basiert auf Transformationen, welche Anfragen entweder auf Grundlage von Schemata oder aber den tatsächlich vorliegenden Daten umwandelt.
<br>
The challenge of efficient data-filtering is present since the great proliferation of the world-wide-web. The generalized markup language XML allows the description of presentation of data in human as well as machine readable form and is a widely accepted platform for the exchange of data. So filtering of data often means filtering of XML-data.
<br>
<br>The great advantage of XML is its flexibility. XML allows the description of an arbitrary amount of scenarios whereas the concrete requirements of the given task can be considered. The disadvantage of this flexibility is the fact that there are several schemata for a given scenario, so the integration of multiple resources of that scenario can be difficult. Deficient data is another problem because most systems are not able to handle such data in a satisfiable manner.
<br>In this work the system aXst is presented which adapts queries to the currently given data. So aXst is able to present query results even if the data is deficient or the data is not valid considering a given schema. The central part of aXst is the transformation of queries based on schemas or based on the currently given data. A function is defined which evaluates the transformed queries.
<br>
2009
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6838
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-68389
https://freidok.uni-freiburg.de/dnb/download/6838
https://freidok.uni-freiburg.de/data/6838
oai:freidok.uni-freiburg.de:6943
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Approximative Nash-Gleichgewichte in Netzwerk-Spielen
Approximative nash-equilibria in network games
Eilts, Stefan
Spieltheorie
Netzwerk
Online-Ressource
In dieser Dissertation werden Nash-Gleichgewichte in Netzwerkspielen betrachtet. Im Netzwerk-Erstellungs-Spiel wird die Baumvermutung widerlegt. Im Steiner-Wald-Spiel wird ein 2-Approximationsalgorithmus angegeben, welcher ein 3-approximatives Nash-Gleichgewicht ist. Der Algorithmus ist auf andere Netzwerkspiele übertragbar.
In this thesis Nash equilibrium in network games are consier. In the network creation game the tree conjecture is disproved. In the Steiner forest game a 2-approximatvivealgorithm is indicated, which is a 3-approximative Nash equilibrium. The algorithm is transferable to other network games.
2008
ger
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6943
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-69432
https://freidok.uni-freiburg.de/dnb/download/6943
https://freidok.uni-freiburg.de/data/6943
oai:freidok.uni-freiburg.de:6972
2015-04-29T10:21:49Z
pub-type:doctoral_thesis
ddc:004
has-source-swb:true
hasFile:true
Symbolic shape analysis
Symbolische Shape-Analyse
Wies, Thomas
Programmanalyse
Verifikation
Online-Ressource
Programmverifikation stellt die Zuverlässigkeit von Software sicher, indem sie einen mathematischen Beweis erbringt, der die Korrektheit der Software garantiert. Werkzeuge zur Programmverifikation unterstützen den Entwickler bei diesem Verifikationsprozess. Idealerweise sollte solch ein Werkzeug auf eine
<br>Vielzahl von Verifikationsproblemen anwendbar sein, ohne dass es eine hohe Bürde für dessen Benutzer darstellt, d.h. ohne tiefgreifende mathematische Kenntnisse und Erfahrung in der Programmverifikation vorauszusetzen.
<br>
<br>Ein großer Schritt diesem Ideal nahezukommen wurde durch die Kombination der Methode der "abstrakten Interpretation" und Techniken des "automatischen Theorembeweisens" erzielt. In der abstrakten Interpretation transformiert man das "konkrete" Programm in ein "abstraktes" Programm. Das abstrakte Programm
<br>ermöglicht eine Programmanalyse, die statische Informationen über alle Ausführungen des konkreten Programms sammelt. Die gesammelten Informationen werden dann dazu verwendet die Korrektheit des konkreten Programms automatisch zu beweisen. Die abstrakte Interpretation erhöht den Automatisierungsgrad in der Verifikation, indem sie die Bürde der formalen Beweisführung über Programme vom Softwareentwickler an den Designer der Programmanalyse delegiert. Durch Techniken des automatischen Theorembeweisens lässt sich der Automatisierungsgrad noch weiter erhöhen. Diese Techniken ermöglichen die automatische Konstruktion der Abstraktion für ein spezifisches Programm und eine spezifische Korrektheitseigenschaft und (falls nötig) auch die automatische Verfeinerung dieser Abstraktion. Wir bezeichnen Programmanalysen, die abstrakte Interpretation mit automatischem Theorembeweisen verbinden, als "symbolische" Programmanalysen.
<br>
<br>Ein Problem, dem in jüngster Zeit viel Beachtung geschenkt wird, ist die Fragestellung, wie man in der Verifikation und Programmanalyse effektiv mit dynamisch allozierten Zeigerstrukturen umgehen kann. Programmanalysen, deren Hauptaufgabe in der Verifikation von Eigenschaften solcher Zeigerstrukturen besteht, werden im allgemeinen als "Shape-Analysen" bezeichnet. Eine symbolische Shape-Analyse verspricht ein Spektrum verschiedener dynamisch allozierter Zeigerstrukturen und ein Spektrum an Eigenschaften verifizieren zu
<br>können, ohne dass der Benutzer die Analyse manuell an eine spezifische Probleminstanz anpassen muss. Die Frage, wie solch eine symbolische Shape-Analyse aussehen könnte und ob sie den an sie gestellten Erwartungen gerecht würde, war offen. In der vorliegenden Dissertation beschäftigen wir uns mit dieser Frage.
<br>
<br>Wir stellen die "universelle Prädikatenabstraktion" vor, die die Methode der Prädikatenabstraktion bis zu dem Punkt verallgemeinert, an dem sie sich effektiv als Shape-Analyse einsetzen lässt. Die universellen Prädikatenabstraktion resultiert aus der Übertragung der Schlüsselidee der dreiwertigen Shape-Analyse nach Sagiv, Reps, und Wilhelm in die Prädikatenabstraktion, indem wir Prädikate über Programmzuständen durch Prädikate über Objekte im Heap von Programmzuständen ersetzten. Wir zeigen wie man die Transformation eines Zeigerprogramms in ein abstraktes Programm durch die Verwendung automatischer Theorembeweiser automatisieren lässt. Des weiteren
<br>entwickeln wir eine Methode zur automatischen Abstraktionsverfeinerung, die die universelle Prädikatenabstraktion zu einer vollautomatischen symbolischen Shape-Analyse ergänzt. Schließlich stellen wir die Methode der "Feldbedingungsanalyse" vor, einer neuen automatischen Beweisführungsmethode für Zeigerprogramme. Die Feldbedingungsanalyse ermöglicht die Anwendung von Entscheidungsprozeduren zur Beweisführung über spezifische Datenstrukturen (wie z.B. Bäume) auf beliebige Datenstrukturen. Diese Technik macht unsere symbolische Shape-Analyse auf die vielfältigen Datenstrukturen anwendbar, die in der Praxis auftreten.
<br>
<br>Alle Techniken, die in dieser Dissertation vorgestellt werden, haben wir im Verifikationswerkzeug Bohne implementiert und evaluiert. Wir haben Bohne dazu verwendet komplexe benutzerspezifizierte Eigenschaften von Datenstrukturimplementierungen zu verifizieren. Insbesondere waren wir in der Lage die Erhaltung von Konsistenzeigenschaften für Operationen auf geketteten Binärbäumen zu verifizieren (darunter Sortiertheit und die Inorder-Traversierungseigenschaft). Dies gelang ohne unsere Analyse speziell für dieses Problem anzupassen und ohne jegliche Hilfe des Benutzers, die über die bloße Formulierung der zu beweisenden Eigenschaften hinausginge. Uns ist keine andere Shape-Analyse bekannt, die diese Eigenschaften mit einem vergleichbaren Automatisierungsgrad verifizieren könnte.
The goal of program verification is to ensure software reliability by establishing a mathematical proof which guarantees that the software behaves correctly. Program analysis tools assist the developer in the verification process. Ideally a program analysis should be applicable to a wide range of verification problems without imposing a high burden on its users, i.e., without requiring deep mathematical knowledge and experience in program verification.
<br>
<br>A big step forward towards this ideal has been achieved by combining "abstract interpretation" with techniques for "automated reasoning". In abstract interpretation one transforms the "concrete program" into an "abstract program". The abstract program enables the analysis to statically collect information over all possible executions of the concrete program. This information is used to automatically verify the correctness of the concrete program. Abstract interpretation increases the degree of automation in verification by shifting the burden of formally reasoning about programs from the developer to the designer of the program analysis. Automated reasoning pushes the degree of automation even further. It enables the automatic construction of the abstraction for a specific program and a specific correctness property and (if necessary) the automatic refinement of this abstraction. We refer to program analyses that combine abstract interpretation with automated reasoning as "symbolic program analysis".
<br>
<br>A problem that has recently seen much attention in program verification is the question of how to effectively deal with linked heap-allocated data structures. Program analyses that target properties of these data structures are commonly referred to as "shape analyses". A symbolic shape analysis promises to handle a spectrum of different linked heap-allocated data structures, and a spectrum of properties to verify, without requiring the user to manually adjust the analysis to the specific problem instance. It was open what a symbolic shape analysis would look like. In this thesis we are concerned with this question.
<br>
<br>We present "domain predicate abstraction", which generalizes predicate abstraction to the point where it becomes effectively applicable for shape analysis. Domain predicate abstraction incorporates the key idea of three-valued shape analysis into predicate abstraction by replacing predicates on program states by predicates on objects in the heap of program states. We show how to automate the transformation of a heap-manipulating program into an abstract program using automated reasoning procedures. We further develop an abstraction refinement technique that complements domain predicate abstraction to a fully automated symbolic shape analysis. Finally, we present "field constraint analysis", a new technique for reasoning about heap programs. Field constraint analysis enables the application of decision procedures for reasoning about specific data structures (such as trees) to arbitrary data structures. This technique makes our symbolic shape analysis applicable to the diverse data structures that occur in practice.
<br>
<br>All the techniques presented in this thesis have been implemented and evaluated in the Bohne Verifier. We used Bohne to verify complex user-specified properties of data structure implementations. For instance, we were able to verify preservation of data structure invariants for operations on threaded binary trees (including sortedness and the in-order traversal invariant) without manually adjusting the analysis to this specific problem or providing user assistance beyond stating the properties to verify. We are not aware of any other shape analysis that can verify such properties with a comparable degree of automation.
2009
eng
doctoral_thesis
pdf
free
https://freidok.uni-freiburg.de/data/6972
https://nbn-resolving.org/urn:nbn:de:bsz:25-opus-69727
https://freidok.uni-freiburg.de/dnb/download/6972
https://freidok.uni-freiburg.de/data/6972
1711692317315