Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

Emissionen klimarelevanter Gase aus der Landwirtschaft

Regionale Darstellung und Abschätzung unter Nutzung von GISam Beispiel des württembergischen Allgäus
Zusammenfassung
Klimarelevante Gase und umwelttoxische Stoffe aus der Landwirtschaft und Landschaftsnutzung sind in bedeutendem Umfang an den anthropogenen Emissionen von Treibhausgasen beteiligt (Enquete-Kommission 1994). Die Enquete-Kommission ‘Schutz der Erdatmosphäre’ des Deutschen Bundestages gibt in ihrem 1994 erschienenen Bericht ‘Schutz der Grünen Erde — Klimaschutz durch umweltgerechte Landwirtschaft und Erhalt der Wälder’ die globale Beteiligung der Landwirtschaft an den anthropogenen Emissionen klimarelevanter Gase mit 15 % an. Für die Bundesrepublik Deutschland wird von Größenordnungen zwischen 7 und 9 % ausgegangen (Trunk 1995). Vor allem der hohe Anteil der Landwirtschaft von jeweils 30 % an der Emission von Methan (CH4) und Lachgas (N2O) ist nicht zu vernachlässigen (Enquete-Kommission 1994). Beide Treibhausgase besitzen aufgrund ihrer längeren Verweilzeit in der Atmosphäre sowie Ihrer optischen Eigenschaften ein vielfaches Treibhauspotential im Vergleich zu Kohlendioxid (CO2) (IPCC 1996a). N2O ist zusätzlich am Abbau des stratosphärischen Ozons beteiligt, wodurch es eine besondere Bedeutung für den Strahlungshaushalt erlangt (Warnecke 1997). Unter Berücksichtigung der Tropenwaldvernichtung und Biomasseverbrennung hat CO2 mit ca. 52 % den größten Anteil an den globalen Emissionen aus der Landwirtschaft (Ahlgrimm 1995). Für Deutschland werden 46 % angegeben, wobei die Emissionen durch die Verbrennung fossiler Energieträger miteinbezogen sind. Dies entspricht aber nur einem Anteil von ca. 34% an den gesamten anthropogenen CO2-Emissionen in der Bundesrepublik Deutschland (Enquete-Kommission 1994).
Georg Bareth

Dynamische Zellstrukturen Theorie und Anwendung eines KNN-Modells

Zusammenfassung
In dieser Arbeit [Bru98] wird ein neuartiges Künstliches Neuronales Netz (KNN), die Dynamische Zellstruktur (DCS), vorgestellt, die das Approximationsverhalten von Netzwerken radialer Basisfunktionen (RBF-Netzen) mit der Repräsentationskraft topologieerhaltender Karten vereint. Die topologieerhaltenden Karten werden dabei zu einer im Vergleich zu herkömmlichen RBF-Netzwerken effizienteren Ausgabeberechnung und Adaption genutzt. Daneben tragen sie zu einer Regularisierung des Lernproblems bei und bewirken durch effektive Projektion auf die Eingabemannigfaltigkeit eine verminderte Rauschsensitivität. Durch inkrementelle Adaption sowohl der Parameter als auch der Modellordnung und der topologieerhaltenden Repräsentation der Eingabemannigfaltigkeit weist die DCS ein Höchstmaß an Flexibilität auf. Hierfür werden eine Vielzahl von Lernregeln angegeben, die im Kontext der stochastischen Approximation und der statistischen Mustererkennung diskutiert werden. Die DCS ist eine Weiterentwicklung von Fritzkes Wachsender Zellstruktur, [Fri95], an die sich ihre Namensgebung anlehnt.
Jörg Bruske

Specification and Verification of Polling Real-Time Systems

Abstract
Formal methods for real-time systems are an important topic of contemporary research. The aim is to cope with the additional complexity of “time” in specification and verification. In [Die99a] we present an approach to the correct design of real-time programs implemented on “Programmable Logic Controllers” (PLCs). This hardware executes repeatedly an application program whereas each cycle has an upper time bound. The central device in our approach is the notion of “PLC-Automaton” which provides an abstract view on PLC programs. For PLC-Automata the following results are presented in [Die99a]:
1.
It is possible to generate PLC source code from a PLC-Automaton. Also constraints on both the speed of the PLC and on the accuracy of time measurement are derived.
 
2.
A logical semantics in terms of Duration Calculus is developed. Since this semantics considers the cyclic behaviour, computation speed, and timer tolerances a realistic model of the real-world behaviour is given.
 
3.
Several ways to compose PLC-Automata are defined and described semantically.
 
4.
An alternative operational semantics in terms of Timed Automata is given. It is provably consistent with the Duration Calculus semantics. Hence, model-checking PLC-Automata is possible due to this semantics. Moreover, we examine techniques for building abstractions of these Timed Automata models.
 
5.
A formal synthesis procedure for “Implementables”, a sublanguage of Duration Calculus, is derived that produces a PLC-Automaton implementing the Implementables-specification if and only if there exists an implementing PLC-Automaton.
 
Henning Dierks

Sicherheit in Medienströmen: Digitale Wasserzeichen

Zusammenfassung
Digitale Medien haben in den letzten Jahren ein gewaltiges Wachstum erfahren und sind dabei, die analogen Medien abzulösen. Für digitale Medien Medien weitgehend ungelöst sind: die Gewährleistung von Authentizität der Daten, um die Identität des Besitzers oder Senders zu garantieren, um beispielsweise Urheberrechte durchzusetzen und der Nachweis der Unverfälschtheit (Unversehrtheit und Integrität), um Manipulationen zu erkennen.
Jana Dittmann

Objektlokalisation durch Adaption parametrischer Grauwertmodelle und ihre Anwendung in der Luftbildauswertung

Zusammenfassung
Die hier beschriebene Arbeit [Dre99] ist angesiedelt im Überlappungsbereich zwischen Bildverarbeitung und Digitaler Photogrammetrie. Untersucht wird die Methode der Adaption parametrischer Grauwertmodelle im Hinblick auf ihre Eignung zur hochpräzisen Lokalisation planarer Objekte in Luftbildern. Basierend auf dieser Methode und einem bereitgestellten Repertoire geeigneter Basismodelle wird ein Ansatz zur automatischen Detektion, Lokalisation und Identifikation von Passobjekten in hochaufgelösten Luftbildern entwickelt. Dieser Ansatz erlaubt die automatische Orientierung von Luftbildern städtischer Szenen und stellt somit eine Lösung bereit für ein wichtiges aktuelles Problem in der Digitalen Photogrammetrie.
Christian Drewniok

Gefahrenabwehr und Strafverfolgung im Internet

Zusammenfassung
Das Internet kann wie alle Kommunikationsmittel auch als Medium für rechtswidrige Kommunikation mißbraucht werden. Während die Geltung der rechtlichen Schranken auch für das Internet nicht grundsätzlich in Frage steht, stößt die Durchsetzung dieser Schranken auf technische und rechtliche Probleme. Die hier vorzustellende rechtswissenschaftliche Dissertation1 lotet die Leistungsfähigkeit des deutschen Rechts für ihre Bewältigung aus. Zum einen stellt sie das Arsenal behördlicher Ermittlungen im Internet vor, darunter das heimliche Auslesen von Daten über das Netz nach Art eines staatlichen „Hacker-Angriffs“ und die Überwachung der Telekommunikation im Internet. Zum anderen prüft sie behördliche Unterbindungsmaßnahmen, insbesondere die Anordnung, ein Angebot vor Bereitstellung zu überprüfen, es zu beseitigen oder seine Übermittlung zu sperren. Für diese und weitere Maßnahmen werden sowohl die technischen als auch die rechtlichen Bedingungen erörtert. Das Gefahrenabwehr- und Strafprozeßrecht, das Zensurverbot, das Fernmeldegeheimnis, das Recht auf informationelle Selbstbestimmung sowie die „Multimedia-Gesetze“ werden spezifisch auf die Gefahrenabwehr und Strafverfolgung im Internet bezogen. Da angesichts des grenzenlosen Internets zunehmend das grenzüberschreitende Tätigwerden nationaler Behörden gefordert ist, werden auch seine völkerrechtlichen Schranken und die Möglichkeiten internationaler Amts- und Rechtshilfe geklärt.
Michael Germann

Comprehending Queries

Abstract
There are no compelling reasons why database-internal query representations have to be designated by operators. This thesis describes a world in which datatypes determine the comprehension of queries. In this world, a datatype is characterized by its algebra of value constructors. These algebras are principal. Query operators are secondary in the sense that they simply box (recursive) programs that describe how to form a query result by application of datatype constructors. Often, operators will be unboxed to inspect and possibly rewrite these programs. Query optimization then means to deal with the transformation of programs.
Torsten Grust

Online-Fehlerdiagnose in intelligenten mathematischen Lehr-Lern-Systemen

Zusammenfassung
Die Fähigkeit eines Lehrers, die individuellen Fehlvorstellungen seiner Schüler zu erkennen und seine Lehrmethoden daran anzupassen, ist notwendige Voraussetzung für gezielte Förder- oder Individualisierungsmaßnahmen. Aufgrund des hohen Zeitaufwandes ist dies in der Praxis jedoch kaum möglich. In computergestützten mathematischen Lernsystemen konnten diagnostische Methoden bis heute nur bedingt eingesetzt werden, da bisherige Diagnosesysteme nicht schnell oder flexibel genug sind.
Martin Hennecke

Definitions- und Beweisprinzipien für Daten und Prozesse

Zusammenfassung
Die Dissertation entwickelt einen mathematischen Formalismus, der es ermöglicht, sowohl mit Daten- als auch mit Verhaltensstrukturen zu programmieren, Eigenschaften der entstandenen Systeme zu formulieren und mit adäquaten Beweismitteln zu verifizieren. Induktion ist das zentrale Prinzip für Datenstrukturen, während Coinduktion, als Abstraktion vom Bisimulationsprinzip, eine entsprechende Rolle für Verhaltensstrukturen spielt. Mit der Formalisierung dieser Prinzipien sowie ihrer (iterativen) Vermischung auf abstrakter, logikunabhängiger Ebene liefert diese Arbeit eine theoretische Grundlage für die Spezifikation und Verifikation von Systemen mit komplexen Daten- und Verhaltenstypen.
Ulrich Hensel

Eine Methodik für die Entwicklung und Anwendung von objektorientierten Frameworks

Zusammenfassung
Die Wiederverwendung ist eines der wichtigsten Ziele in der Softwareentwicklung. Frameworks gelten als die höchste Stufe der Wiederverwendung, weil nicht nur Programmcode sondern auch Entwurfsergebnisse wiederverwendet werden können.
Evgeni Ivanov

Neue Konzepte für die Parallele Objekt-Relationale Anfrageverarbeitung

Zusammenfassung
In dieser Arbeit werden neue Konzepte vorgestellt, die dazu beitragen sollen, die Erweiterungsinfrastruktur paralleler objekt-relationaler Datenbankverwaltungssysteme (PORDBVS) zu verbessern.
Michael Jaedicke

Ein automatisches Indexierungssystem für Fernsehnachrichtensendungen

Zusammenfassung
Video-Archivierung und das Suchen in großen Beständen von Videodaten sind in den letzten Jahren immer mehr in das Zentrum des Interesses gerückt. Die Erstellung eines suchbaren Index für Videodaten erfordert jedoch sehr viel Handarbeit und ist für große Bestände prohibitiv zeitaufwendig.
Thomas Kemp

Vermeidung von Generationseffekten in der Audiocodierung

Zusammenfassung
Wir stellen ein Verfahren vor, das für psychoakustische Audiokompressionsalgorithmen eine beliebige Kaskadierung von Kompression und Dekompression zuläßt (Generationenbildung) und dabei die perzeptuelle Qualität der ersten Generation erhält. Das Verfahren kommt ohne zusätzliche Datenformate aus. Daher können die vom Decoder erzeugten (PCM-) Audiodaten sowohl auf jedem herkömmlichen digitalen Medium gespeichert und davon sowohl mit Standardmedien wiedergegeben werden, als auch mit einem dem vorgeschlagenen Verfahren konformen Encoder ohne neuerliche Verluste komprimiert werden. Das Verfahren wurde exemplarisch unter dem MPEG-1 Standard in einem Layer-II Codec implementiert.
Frank Kurth

Internet — Technologien in der gesetzlichen Rentenversicherung Effizienzsteigerung und Kostensenkung durch Internet — Technologien am Beispiel gesetzlicher Rentenversicherungsträger

Zusammenfassung
Die gesetzliche Rentenversicherung (GRV) in Deutschland steht mit ihren 27 Rentenversicherungsträgern (RVT) vor einer Vielzahl von Herausforderungen und grundlegenden Veränderungen. Diese betreffen sowohl die Rentenversicherung für Arbeiter (23 regionale Landesversicherungsanstalten, die Bahnversicherungsanstalt und die Seekasse), für Angestellte (Bundesversicherungsanstalt für Angestellte — BfA) wie für Bergleute (Bundesknappschaft). Vor dem Hintergrund des gesellschaftlichen Wertewandels hat sich die Erwartungshaltung der Bevölkerung in den vergangenen Jahren stark verändert. Das frühere Obrigkeitsdenken der Bürger in ihrem Verhältnis zur Verwaltung ist durch ein Anspruchsdenken ersetzt worden, das sich an den Qualitätsstandards von Wirtschaft und Industrie orientiert. Die Verschiebung der demographischen Altersstruktur der Bevölkerung, die Struktur- und Finanzierungskrise, die Verwaltungsmodernisierung, Auswirkungen der Globalisierung sowie der mit dem Erfolg des Internet verbundene Übergang zur Informationsgesellschaft erfordern flexible und zukunftsorientierte Antworten. So müssen Finanzierungsprobleme gelöst, Unterstützung für die GRV bei Bürgern und in der Politik gewonnen, soziale Härtefälle gemildert und verwaltungsökonomische Probleme bewältigt werden. In Deutschland ist ein allgemeiner Reorganisationsbedarf in den Verwaltungsstrukturen der RVT spätestens seit dem sogenannten ‘Berger-Gutachten’ [BERG95] zur Organisation der GRV offensichtlich.
Jörn von Lucke

MISTRAL: Processing Relational Queries using a Multidimensional Access Technique

Abstract
Our thesis investigates the UB-Tree, a multidimensional access method, and its applicability for relational database management systems (RDBMS). In the thesis, we introduce a formal model for multidimensional partitioned relations and discuss several typical query patterns. The model identifies the significance of multidimensional range queries and sort operations. After describing the UB-Tree and its standard algorithms for insertion, deletion, point queries, and range queries, we introduce the spiral algorithm for nearest neighbour queries with UB-Trees and the Tetris algorithm for efficient access to a table in arbitrary sort order. We then describe the complexity of the involved algorithms and give solutions to selected algorithmic problems for a prototype implementation of UB-Trees on top of several RDBMSs. A cost model for sort operations with and without range restrictions is used both for analyzing our algorithms and for comparing UB-Trees with state-of-the-art query processing. Performance comparisons with traditional access methods practically confirm the theoretically expected superiority of UB-Trees and our algorithms over traditional access methods: Query processing in RDBMS is accelerated by several orders of magnitude, while the resource requirements in main memory space and disk space are substantially reduced. Benchmarks on some queries of the TPC-D benchmark as well as the data warehousing scenario of a fruit juice company illustrate the potential impact of our work on relational algebra, SQL, and commercial applications.
Volker Markl

Dot-Depth and Monadic Quantifier Alternation over Pictures — Extended Abstract

Abstract
In formulas of monadic second-order logic (MSO), quantifiers range over sets of elements or over elements of the universe of some finite structure.
Oliver Matz

Flexible und effiziente Systemunterstützung für offene Kommunikationsplattformen

Zusammenfassung
Die zunehmende Applikationsvielfalt führt zu neuen, heterogenen Anforderungen an Kommunikationsdienste, denen heutige Kommunikationssysteme nur bedingt entsprechen können. Thema der Arbeit ist die Überwindung dieser Diskrepanz zwischen Applikationsanforderungen und tatsächlich erbrachtem Kommunikationsdienst durch die Bereitstellung anforderungsspezifischer Dienste. Wesentlichstes Ergebnis der Arbeit ist eine effiziente und flexible Systemunterstützung für die Etablierung einer offenen Kommunikationsdienste-Plattform. Unter Nutzung der gefundenen UNIX-basierten Architektur wird exemplarisch ein Dienst für die Unterstützung heterogener Fehlerkontrolle im Gruppenkommunikationsdienst entworfen und simulativ evaluiert. Dabei kann eine signifikante Verbesserung der Qualität des Kommunikationsdienstes gegenüber einer unflexiblen Diensterbringung nachgewiesen werden.
Bernard Metzler

Neue Verfahren zur maschinellen Analyse des Verhaltens von Protokollmaschinen anhand passiver Beobachtung

Zusammenfassung
Die Analyse protokollbasierter Datenkommunikation durch passive Analysatoren beschränkt sich heute meist auf die Prüfung der Nachrichtenkodierung, eine Validierung der Protokollprozeduren ist aktiven Testgeräten vorbehalten. In dieser Arbeit werden zwei neue Verfahren entwickelt, um korrektes Protokollverhalten allein durch passive Beobachtung, auch in Echtzeit, überprüfen zu können. Das erste Verfahren basiert auf einer exakten Spezifikation des beobachtbaren Sollverhaltens und verwendet unsicherheitsbehaftete Zustandsbeschreibungen, um sich auf einen laufenden Kommunikationsvorgang aufsynchronisieren zu können. Vollständigkeit und Korrektheit des Analyseverfahrens als wesentliche Qualitätkriterien werden nachgewiesen. Es kann die manuelle Sucharbeit nach Fehlerquellen um Größenordnungen reduzieren. Das zweite Verfahren umgeht den Bedarf nach einer Beschreibung des Sollverhaltens, indem es die Regeln eines Protokolls aus einer fehlerfreien Beispielkommunikation erlernt und auf zu analysierende Beobachtungen anwendet. Dieses Verfahren basiert auf zwei neuen Lernalgorithmen, einem zum effizienten Lernen optimaler endlicher Automaten und einem zur Ableitung arithmetischer Klassifikationsregeln, jeweils aus einer Stichprobe rein positiver Beispiele. Es kann zu minimalen Kosten auf neue Protokolle angewandt werden.
Marek Musial

Komplexitätstheoretische Ergebnisse für Randomisierte Branchingprogramme

Zusammenfassung
Branchingprogramme sind eine graphische Beschreibungsform für Boolesche Funktionen, die zum einen in Anwendungen wie Hardware-Verifikation und Model Checking einsetzt wird, sich zum anderen aber auch als Standard-Berechnungsmodell in der theoretischen Informatik etabliert hat.
Martin Sauerhoff

Topological Vector Field Visualization with Clifford Algebra

Abstract
Visualization is the discipline in Computer Science dealing with the representation of data by computer generated images. “It transforms the symbolic into the geometric, enabling researchers to observe their simulations and computations,” [MD87, p. 2]. One major area visualizes vector fields. In applied mathematics, the study of gas dynamics, combustion and fluid flow leads to vector fields describing velocity, vorticity, and gradients of pressure, density and temperature. In engineering, computational fluid dynamics (CFD) and finite element analysis (FEA) produce large data sets. They are central for aeronautics, automotive design, construction, meteorology and geology. Methods based on topology have been used successfully because of their ability to concentrate information related to important properties. In fluid flows, important features like vortices and separation lines can be detected automatically by extracting topology [HH91]. Conventional approaches are based on piecewise linear or bilinear interpolation. Drawbacks of these methods are attacked in this thesis.
Gerik Scheuermann

Signalinterpretation mit Neuronalen Netzen unter Nutzung von modellbasiertem Nebenwissen am Beispiel der Verschleißüberwachung von Werkzeugen in CNC-Drehmaschinen

Zusammenfassung
Die zunehmende Komplexität industrieller Fertigungsprozesse erfordert den Einsatz geeigneter Prozeßüberwachungssysteme zur Gewährleistung der Prozeßsicherheit. Eine bereits seit langem, aber mit bisher unbefriedigenden Ergebnissen untersuchte Aufgabenstellung ist die Werkzeugverschleißüberwachung für Zerspanprozesse mit geometrisch bestimmten Schneiden, wie z.B. Drehen, Bohren oder Fräsen. Insbesondere das Problem der Verwendung von vorhandenem Nebenwissen über den Prozeßzustand wurde bis jetzt nicht gelöst. Die diesem Beitrag zugrunde liegende Dissertation stellt verschiedene neuartige Methoden zur Nutzung von prozeßspezifischem und zeitlichem Nebenwissen bei der Vorverarbeitung gemessener Signale (z.B. Kräfte), bei der Analyse der vorverarbeiteten Signale (d.h. der Extraktion verschleißsensitiver Signaleigenschaften) und der Interpretation dieser Signaleigenschaften mit Hilfe Neuronaler Netze vor. Anhand des Zerspanprozesses „Drehen“ wird nachgewiesen, daß die Anwendung dieser Methoden zu signifikanten Verbesserungen bei der kontinuierlichen Verschleißbestimmung (Schätzung oder Klassifikation) führt. Die Verfahren können leicht hinsichtlich ihrer Relevanz bezüglich anderer Aufgabenstellungen bewertet und gegebenenfalls entsprechend parametrisiert bzw. modifiziert eingesetzt werden.
Der an einer detaillierteren Beschreibung der Verfahren oder an weiterführenden Literaturhinweisen interessierte Leser sei auf den Gesamttext der Dissertation (siehe [Sic00]) bzw. andere Publikationen (siehe http://lrs.uni-passau.de/∼sick/) verwiesen.
Bernhard Sick

Backup und Recovery in Datenbanksystemen: Verfahren, Klassifikation, Implementierung und Bewertung

Zusammenfassung
Verfügbarkeit von Daten und Schutz vor Datenverlust sind Hauptanforderungen von Datenbankanwendern. Durch die rapide wachsende Menge der in Datenbanksystemen verwalteten Daten und die gleichzeitig steigenden Verfügbarkeitsanforderungen treten bei den heute verwendeten Sicherungs- und Wiederherstellungsverfahren oftmals erhebliche Performance-Probleme auf. Daraus ergibt sich die Notwendigkeit effizienter Techniken für die Datensicherung und -wiederherstellung, deren Darstellung, Klassifikation, Vergleich und Weiterentwicklung Inhalt der vorliegenden Arbeit ist. Neben der Diskussion der Funktionalität von Sicherungs- und Wiederherstellungstechniken bilden quantitative Leistungsbetrachtungen einen Schwerpunkt der Arbeit. Um quantitative Vergleiche, Bewertungen und Performance-Abschätzungen vornehmen zu können, werden analytische Kostenmodelle für verschiedene Backup- und Recovery-Techniken vorgestellt. Zur Validierung der Modelle wurden verschiedene Verfahren in einem DBMS-Prototyp implementiert und entsprechende Leistungsuntersuchungen durchgeführt. Ausgehend von den bei der Modellierung und den Messungen erzielten Ergebnissen und dabei aufgedeckten Schwachstellen existierender Ansätze, werden Verbesserungsmöglichkeiten und neue Ansätze für die Behandlung von Externspeicherfehlern vorgeschlagen. Schwerpunkt bilden dabei Verfahren zur Steigerung der Performance des Anwendens von Log-Information während der Recovery, Verfahren zur inkrementellen Sicherung von Datenbanken und Techniken zur Parallelisierung von Backup und Restore.
Uta Störl

Semantic Integrity Constraints in Federated Database Schemata (Extended Abstract)

Abstract
Federated database systems [SL90] provide a uniform and transparent interface to distributed and heterogeneous databases. Such an interface consists of a federated database schema which is an integrated view onto different database schemata. This federated database schema should correctly reflect the semantics of the component database schemata of which it is composed. Since the semantics of a database schema is also determined by a set of semantic integrity constraints, a correct schema integration has to deal with integrity constraints existing in the different component database schemata.
Can Türker
Weitere Informationen