Skip to main content

1999 | Buch

Datenbanksysteme in Büro, Technik und Wissenschaft

8. GI—Fachtagung Freiburg im Breisgau, 1.–3. März 1999

herausgegeben von: Alejandro P. Buchmann

Verlag: Springer Berlin Heidelberg

Buchreihe : Informatik aktuell

insite
SUCHEN

Über dieses Buch

Die Autoren des Bandes diskutieren den aktuellen Stand der Datenbanktechnologie. Darstellung finden sowohl die geschlossenen Datenbank-Management-Systeme, die aus den Anwendungen und der heute etablierten Standardsoftware nicht mehr wegzudenken sind, als auch die Konzepte, die in verteilten Objektsystemen, Internet-Anwendungen, Agenten-Systemen, Workflow-Management und Middleware integriert werden.

Inhaltsverzeichnis

Frontmatter
Coping with Limited Capabilities of Sources
Abstract
In various contexts (e.g., the Internet), the query-processing capabilities of data sources may be limited. Middleware systems based on a mediation architecture are employed to provide powerful query processing interfaces to data sources with limited query capabilities. Such systems also provide integrated views to the data across multiple sources. In this paper, we discuss how the query capabilities of data sources can be described and how mediators support extended query sets over the data sources. We also describe how the set of queries supported by a mediator can be computed from the corresponding sets of queries supported by the data sources integrated by the mediator. We present ways in which content description of data sources can help in extending the set of supported queries Finally, we describe the challenges posed by diverse source capabilities when supporting robust query processing through replicated sources in the presence of source failures.
Hector Garcia-Molina, Ramana Yerneni
iWebDB - Eine integrierte Web-Datenbank auf Basis objekt-relationaler DB-Technologie
Zusammenfassung
Das World Wide Web (WWW oder Web) ist auf dem Weg zum Standardkommunikationsmedium mit dem Web-Browser als Benutzerschnittstelle. Datenbanksysteme (DBS) dienen heute schon im großen Maße zur Datenbereitstellung für Anwendungen, die Daten in dynamisch erstellte HTML-Seiten einbinden. DBS werden bislang jedoch nur selten für die Verwaltung der gesamten Dokumente auf einem Web-Server verwendet, was insbesondere an der mangelnden Unterstützung der für die Verwaltung von Web-Inhalten (Web Content Management, WCM) relevanten Anforderungen liegt. Da aber das WCM und die Lösung der damit verbundenen Probleme ein Kernpunkt zukünftiger DBS-Aufgaben sein werden, sind entsprechende Lösungen gefordert. In diesem Beitrag stellen wir die Grundkonzepte von iWebDB vor, einem auf objekt-relationaler DB-Technologie basierenden WCM-System (WCMS). Aufgrund der Erweiterungsfähigkeit objekt-relationaler Datenbankverwaltungssysteme (ORDBVS) ist es nun möglich, die für das WCM benötigte Funktionalität in Form von DB-Erweite-rungsmodulen in das DBS zu integrieren. iWebDB nutzt dies und versucht im Gegensatz zu vielen auf Einzelaspekte des WCM abzielenden Lösungen mit Hilfe eines integrativen Ansatzes einen einheitlichen Framework anzubieten.
Henrik Loeser
Sicherheit in einem Java-basierten verteilten System autonomer Objekte
Zusammenfassung
Diese Arbeit beschreibt die Integration verschiedener Sicherheitsmechanismen in ein persistentes, verteiltes System autonomer Objekte. Dieses System wurde für den Einsatz in einer heterogenen WAN-Umgebung konzipiert und deshalb vollständig in Java implementiert, um Plattformunabhängigkeit zu erreichen. Um den Zugriff der Benutzer auf die Objekte im System kontrollieren zu können, wird ein rollenbasiertes Autorisierungsverfahren integriert, das sowohl skalierbar als auch leicht administrierbar ist. Da das System Migration von Objekten unterstützt, müssen sowohl Objekte vor unsicheren Rechnern, als auch Rechner vor feindlichen Objekten geschützt werden. Ersteres erreicht man durch eine geeignete Kategorisierung der Rechner und Objekte, letzteres durch Anwendung des in Java integrierten Sandkasten-Sicherheitsmodells.
Markus Keidl, Stefan Seltzsam, Alfons Kemper, Natalia Krivokapić
Die Deutsche Fußball-Börse: Erfahrungen mit einer „klassischen“ Internet-Datenbankanwendung (Kurzbeitrag)
Zusammenfassung
Die Deutsche Fußball-Börse wurde 1996 gegründet. Sie veranstaltet Spiele, die den Handel mit Aktien von Fußballmannschaften im Internet simulieren. Die Aktien sind fiktiv und stellen keine Kapitalbeteiligungen an den einzelnen Mannschaften dar; ihr Kurs richtet sich nach dem sportlichen Erfolg der Mannschaften. Zunächst wurde die Fußballbörse rein zu Lehrzwecken an der Universität Passau verwendet; inzwischen wird sie täglich von Spielern in Deutschland, Osterreich, der Schweiz und den USA genutzt. In diesem Artikel stellen wir die Konzeption, Architektur und die bisherigen Erfahrungen bei der Entwicklung und dem Betrieb der Fußballbörse vor. Insbesondere stellen wir hierbei die Fußballbörse aus Datenbanksicht vor.
Jens Claußen, Daniel Kossmann, Donald Kossmann
Intelligente Suche nach Ätzrezepturen für Werkstoffe (Kurzbeitrag)
Zusammenfassung
Die Arbeit behandelt ein Problem der Ähnlichkeitssuche im Bereich der Werkstoffwissenschaften. In der Materialographie, einem wichtigen Teilgebiet der Werkstoffwissenschaften, benötigt man zur Untersuchung des sog. Gefüges einer Werkstoffprobe Rezepturen zur gezielten Präparation, um bestimmte Gefügeeigenschaften unter dem Mikroskop zu kontrastieren. Diese sog. Ätzrezepturen hängen von der chemischen Zusammensetzung des Werkstoffs, seiner Behandlung und auch dem spezifischen Ziel der Kontrastierung selbst ab. In Zusammenarbeit zweier Lehrstühle der Informatik und der Werkstoffwissenschaften wurde ein Internet-fähiges Informationssystem für Ätzrezepturen entwickelt, das in der Arbeit vorgestellt wird. Das System unterstützt insbesondere die Ähnlichkeitssuche nach annähernd passenden Ätzrezepturen, da man in der Praxis selten eine genau passende Rezeptur finden wird und somit häufig auf ähnliche Rezepturen als Ausgangsbasis angewiesen ist. Die Arbeit stellt speziell die Überlegungen zur Ähnlichkeitssuche bezüglich der chemischen Zusammensetzung von Werkstoffen vor. Aufgrund werkstoffwissenschaftlicher Überlegungen wird dabei eine Art gewichteter Editierdistanz verwendet, die eine herkömmliche Editierdistanz mit einer einfachen Variante einer quadratischen Form zur Berücksichtigung der Ähnlichkeit zwischen chemischen Elementen kombiniert.
Christian Mähler, Frank Mücklich, Gerhard Weikum
The SIRIUS Approach for Refreshing Data Warehouses Incrementally
Abstract
Data warehouse refresh incorporates issues on how to capture and propagate updates occurring in operational systems into the warehouse in order to keep the data warehouse up-to-date. In this paper, we propose an object-oriented approach for the incremental refresh of data warehouses which considers the special nature of warehouse data, e.g., its temporal and heterogeneous dimension. Our approach can be used for the integration of data from a wide variety of heterogeneous operational sources and independently of a particular database system used for storing the warehouse data.
Athanasios Vavouras, Stella Gatziu, Klaus R. Dittrich
Adaptive Präaggregation in multidimensionalen Datenbanksystemen
Zusammenfassung
Das Konzept des ‘Online Analytical Processing’ umfaßt die interaktive Analyse multidimensionaler Daten. Die dabei zu verarbeitenden Datenmengen sind in der Regel sehr groß. Deshalb müssen geeignete Optimierungsverfahren für die Gewährleistung der Interaktivität eingesetzt werden. Das durch die multidimensionalen Datenstrukturen geführte Benutzerverhalten im Anwendungsfeld OLAP bildet die Grundlage für das in diesem Beitrag vorgestellte redundanzbasierte Optimierungsverfahren. Die Grundidee dieses adaptiven Verfahrens besteht darin, bereits berechnete Ergebnisse und Teilergebnisse in einem reservierten Speicherbereich fester Größe zu puffem, um neue Anfrageergebnisse daraus abzuleiten. Notwendig für einen solchen multidimensionalen Aggregatpuffer ist zum einen ein Algorithmus, um konstruktiv die Ableitbarkeit eines Aggregates aus einer Menge anderer Aggregate zu bestimmen. Zum anderen wird eine geeignete Verdrängungsstrategie benötigt, welche die Informationen über das multidimensionale Schema und über das Zugriffsverhalten möglichst gut ausnutzt. Der Beitrag erläutert die verwendeten Techniken und zeigt das Potential des Ansatzes anhand von Simulationsstudien auf.
J. Albrecht, W. Hümmer, W. Lehner, L. Schlesinger
Inkrementelle Sicherungsverfahren für Datenbanken: Vorgehensweisen, Klassifikation, Implementierung und Bewertung
Zusammenfassung
Ein Ansatzpunkt zur Reduzierung der Sicherungszeiten für Datenbanken sind inkrementelle Sicherungsstrategien. In dieser Arbeit werden verschiedene Formen des inkrementellen Backup vorgestellt und eine Klassifikation der dazu korrespondierenden Sicherungsverfahren angegeben. Für das sog. inkrementelle Multilevel-Backup werden Implementierungsvarianten vorgeschlagen, die in ihren Möglichkeiten teils über bekannte Vorschläge hinausgehen. Die effiziente Implementierung inkrementeller Sicherungsverfahren wird diskutiert, und die dabei getroffenen Aussagen werden durch analytische Kostenmodelle und Meßergebnisse aus prototypischen Implementierungen belegt. Für das vorgestellte Verfahren SelectiveReadGap können signifikante Performance-Verbesserungen gegenüber anderen Verfahren nachgewiesen werden.
Uta Störl
Database Primitives for Spatial Data Mining
Abstract
Spatial data mining algorithms heavily depend on the efficient processing of neighborhood relations since the neighbors of many objects have to be investigated in a single run of a typical algorithm. Therefore, providing general concepts for neighborhood relations as well as an efficient implementation of these concepts will allow a tight integration of spatial data mining algorithms with a spatial database management system. This will speed up both, the development and the execution of spatial data mining algorithms. In this paper, we define neighborhood graphs and paths and a small set of database primitives for their manipulation. Furthermore, we introduce neighborhood indices to speed up the processing of our database primitives. We implemented the database primitives on top of a commercial spatial database management system. The effectiveness and efficiency of the proposed approach was evaluated by using an analytical cost model and an extensive experimental study on a geographic database.
Martin Ester, Stefan Gundlach, Hans-Peter Kriegel, Jörg Sander
A Multi-Tier Architecture for High-Performance Data Mining
Abstract
Data mining has been recognised as an essential element of decision support, which has increasingly become a focus of the database industry. Like all computationally expensive data analysis applications, for example Online Analytical Processing (OLAP), performance is a key factor for usefulness and acceptance in business. In the course of the CRITIKAL1 project (Client-Server Rule Induction Technology for Industrial Knowledge Acquisition from Large Databases), which is funded by the European Commission, several kinds of architectures for data mining were evaluated with a strong focus on high performance. Specifically, the data mining techniques association rule discovery and decision tree induction were implemented into a prototype. We present the architecture developed by the CRITIKAL consortium and compare it to alternative architectures.
Ralf Rantzau, Holger Schwarz
Eine GeoServer-Architektur zur Nutzung von GIS-Funktionalität über Internet-Technologie
Zusammenfassung
Dieser Beitrag beschreibt die Architektur eines Informationssystems zur Verwaltung, Manipulation und Visualisierung geographischer Daten. Dabei kommen im Gegensatz zu konventionellen geographischen Informationssystemen (GIS) moderne Techniken wie Java, ActiveX und CORBA zum Einsatz, die einen modularen komponentenbasierten Aufbau ermöglichen und die Integration der GIS-Funktionalität in unterschiedlichste, bereits bestehende oder neu zu schaffende Anwendungen erlaubt. Die Architektur basiert auf dem Client-Server-Prinzip, wobei die Kommunikation über Internet-Technologie realisiert ist. Ferner dient ein Treiberkonzept zur Integration bestehender GIS und der von ihnen verwalteten Geodaten.
Jörg Friebe
From Object-Relational to Federated Databases
Abstract
Object-relational databases allow users to manipulate rich data types that are not supported by traditional relational database systems. However, the majority of such data are in systems that are outside of that database—either in file systems, specialized systems, hierarchical databases, or other varieties of relational database that do not provide as rich a level of abstraction. Users want to take advantage of object-relational technology to exploit the rich semantics and abstraction but cannot afford to change existing applications or to move that data into the database to do so. The solution for enterprises is a federated database system, which allows users to leverage their existing applications and existing data, while allowing new applications to exploit the functional richness of object-relational technology.
Nelson M. Mattos, Jim Kleewein, Mary Tork Roth, Kathryn Zeidenstein
Medienspezifische Datentypen für objekt-relationale DBMS: Abstraktionen und Konzepte
Zusammenfassung
Medienspezifische Daten bestehen aus zwei Arten von Daten: den (unformatierten) Rohdaten und den Metadaten, welche benötigt werden, um die Rohdaten zu interpretieren und um nach Medienobjekten suchen zu können. Die aktuelle Multimedia-Datenbank-Forschung beschäftigt sich sehr intensiv mit Modellen und Anfragesprachen für die Metadaten. Teilweise haben diese Entwicklungen auch schon den Weg in die Praxis gefunden, wie ein Blick auf eine Auswahl von Multimedia-Erweiterungen für heutige objektrelationale DBMS (ORDBMS) zeigt. Schwerpunkte dieses Aufsatzes sind hingegen Abstraktionen und Konzepte für die Verwaltung und das Arbeiten mit Medienobjektrohdaten. Neben bekannten Abstraktionen wird eine neue, die sog. Transformationsunabhängigkeit,eingeführt und erläutert. Diese Abstraktionen werden durch ein neues Konzept für medienspezifische Datentypen realisiert, das es mittels eines speziellen Verarbeitungsmodells und einer darauf abgestimmten Anfragesprache den Anwendungen erlaubt, mit sog. virtuellen Medienobjekten zu arbeiten. Die Präsentation wird durch einen Vorschlag, wie dieses Konzept in ein heutiges ORDBMS zu integrieren ist, abgerundet.
Ulrich Marder
Exploiting ORDBMS Technology to Implement the ZYX Data Model for Multimedia Documents and Presentations
Abstract
Advanced multimedia applications require adequate support for the modeling of multimedia information but also an adequate database technology supporting the integrated management, retrieval, delivery, and even the presentation of such multimedia information. In our Cardio-OP project within the application domain of cardiac surgery, we are developing concepts and prototypical implementations of a database system-driven multimedia repository that gives this comprehensive support. In the project context, we have been developing the ZYX data model that meets the specific requirements of reusability, interaction, adaptation, and presentation-neutral description of the structure and content of multimedia documents. For the multimedia repository, hence, we need to select database system technology for the implementation of the ZYX model for multimedia documents and — with regard to our future work — for the retrieval, browsing, delivery, and presentation of the multimedia documents. In this paper, we present our approach to implement the ZYX data model for multimedia documents and presentations using object-relational database technology. Hereby, we exploit the features and experience the limitations of object-relational database system technology in comprehensively supporting multimedia applications.
Susanne Boll, Wolfgang Klas, Utz Westermann
Towards Generating Object-Relational Software Engineering Repositories
Abstract
Nowadays the complexity of design processes, no matter which design domain (CAD, software engineering, etc.) they belong to, requires system support by means of so-called repositories. Repositories help managing design artifacts by offering adequate storage and manipulation services. One among several important features of a repository is version management. Current repository technology lacks in adequately exploiting database technology and in being adaptable to special application needs, e. g. support of application-specific notions of versioning. For that reason, we propose new repository technology, which is not completely generic (as current repositories are), but exploits generic methods for generating tailored repository managers. Furthermore, we show that new, object-relational database technology is extremely beneficial for that purpose.
W. Mahnke, N. Ritter, H.-P. Steiert
Abhängigkeiten zwischen Transaktionen in föderierten Datenbanksystemen
Zusammenfassung
In föderierten Datenbanksystemen werden globale Transaktionen zur Ausführung auf lokalen Datenbanksystemen in globale Subtransaktionen aufgeteilt. Die Ergebnisse dieser Subtransaktionen werden anschließend global zusammengeführt und an den Nutzer weitergeleitet. Zwischen den globalen Subtransaktionen und der globalen Transaktion bestehen je nach Anfrageart und Ausprägung des betroffenen Schemas unterschiedliche Abhängigkeiten. In einigen Fällen wird eine globale Transaktion als erfolgreich ausgeführt angesehen, wenn mindestens eine globale Subtransaktion erfolgreich war. In anderen Fällen darf beispielsweise nur genau eine globale Subtransaktion erfolgreich beendet werden oder alle globalen Subtransaktionen müssen erfolgreich zum Ende geführt werden. In diesem Papier untersuchen wir, welche Terminierungsabhängigkeiten zwischen den jeweiligen globalen Subtransaktionen und der globalen Transaktion sinnvoll sind. Das Wissen über diese Abhängigkeiten schafft die Grundlage für die Entwicklung neuer Commit-Protokolle zur Unterstützung unterschiedlicher globaler Einfüge-, Lösch- und Änderungssemantiken.
Can Türker, Kerstin Schwarz
Intelligente Datenbereinigung in epidemiologischen Registern
Zusammenfassung
In epidemiologischen Registern — in dieser Arbeit werden Krebsregister als durchgängiges Beispiel gewählt — sind umfassende Maßnahmen zur Datenbereinigung aufgrund der Heterogenität von Meldequellen unabdingbar. Sie stellen die für epidemiologische Auswertungen erforderliche Datenqualität sicher. Im einzelnen sind folgende, sequentiell auszuführende Arbeitsschritte zur Datenbereinigung erforderlich: eine Datenkorrektur, die Inkonsistenzen in Meldungsangaben beseitigt, eine Datenstandardisierung, die die Vergleichbarkeit und eine registerübergreifende Auswertbarkeit der Daten gewährleistet, ein Record Linkage, das redundante Meldungen identifiziert, sowie eine Datenverdichtung, die die Datenqualität für Auswertungen verbessert. Das in dieser Arbeit vorgestellte Werkzeug CARELIS zeigt, daß sich der Vorgang der Datenbereinigung weitgehend automatisieren läßt. CARELIS integriert ein probabilistisches Record Linkage—Verfahren mit Techniken der Wissensverarbeitung, um den Aufwand der manuellen Nachbearbeitung von Meldungen zu minimieren.
Holger Hinrichs
Informationsfusion — Herausforderungen an die Datenbanktechnologie — Kurzbeitrag —
Zusammenfassung
In vielen Anwendungsbereichen besteht die Aufgabe, Daten oder Informationen aus verschiedenen, zum Teil heterogenen Quellen zu kombinieren, zu verdichten und daraus Informationen einer neuen Qualität abzuleiten. Wesentliche Kernfunktionen dieses als Informationsfusion bezeichneten Prozesses sind dabei durch Methoden der Datenintegration und der Datenanalyse / Data Mining bereitzustellen. Die gewachsenen Strukturen der heute genutzten Informationsquellen und die damit im Zusammenhang stehenden Probleme wie Heterogenität, Inkonsistenz oder Ungenauigkeit der Daten sind mit den aktuell verfügbaren Techniken nur bedingt beherrschbar. Ausgehend vom aktuellen Stund der Forschung diskutiert der vorliegende Beitrag Anforderungen an Datenbanktechnologien aus Sicht der Informationsfusion, zeigt mögliche Forschungsrichtungen auf und skizziert aktuelle und zukünftige Anwendungsfelder.
Stefan Conrad, Gunter Saake, Kai-Uwe Sattler
Integrationskonzepte für heterogene Anwendungssysteme bei DaimlerChrysler auf Basis internationaler Standards (Kurzbeitrag)
Zusammenfassung
Aufbauend auf den Anforderungen von DaimlerChrysler und unter Verwendung der Standards STEP und CORBA wird eine Architektur und Vorgehensweise für die Integration von Daten und Funktionen heterogener Anwendungssysteme entwickelt. Die eingebrachten Systemkonzepte sowie die dadurch zu erwartende Optimierung des Entwicklungsprozesses werden am Beispiel des Bereiches PKW-Entwicklung diskutiert.
Stefan Sarstedt, Günter Sauter, Jürgen Sellentin, Bernhard Mitschang
Dual Retrieval in Conceptual Information Systems
Abstract
Conceptual Information Systems provide a multi-dimensional conceptually structured view on data stored in relational databases. On restricting the expressiveness of the retrieval language, they allow the visualization of sets of related queries in conceptual hierarchies, hence supporting the search of something one does not have a precise description, but only a vague idea of.
Information Retrieval is considered as the process of finding specific objects (documents etc.) out of a large set of objects which fit to some description. In some data analysis and knowledge discovery applications, the dual task is of interest: The analyst needs to determine, for a subset of objects, a description for this subset. In this paper we discuss how Conceptual Information Systems can be extended to support also the second task.
Gerd Stumme
Compaction of Large Class Hierarchies in Databases for Chemical Engineering
Abstract
Engineering knowledge is characterized by variant and alternative designs for each problem. To alleviate reuse these variants should be captured as classes in the schema of the engineering database. The resulting class hierarchy may be bloated by intersection classes. This paper proposes a mechanism, called ”aspects”, which uses a restricted form of multiple instantiation to avoid intersection classes. Unlike similar approaches, such as ”roles”, our work allows various interdependencies between the different aspects of a class to be modelled. We demonstrate these abilities on an example taken from chemical process engineering.
M. Baumeister, M. Jarke
Designing a Global Information Resource for Molecular Biology (Short Paper)
Abstract
Research in molecular biology is continuously producing an immense amount of data, but this information is spread over numerous heterogeneous data repositories. Their integration into a federated information system would drastically reduce the time a biologist has to spend browsing different WWW sites or databases in search for a particular piece of information.
In this study we point out the specific problems that molecular biology is posing to data integration. We present our approach to cope with these problems. It is based on a mediator architecture and uses query correspondence assertions (QCA) to describe sources in a flexible yet expressive manner. QCAs both capture content and query capabilities of arbitrary data sources with respect to a federated schema. Based on such QCAs a mediator can answer queries against the federated schema by constructing semantically equivalent combinations of source queries.
Ulf Leser
Integritätsbedingungen und Spezialisierung in Objektdatenbanken (Kurzbeitrag)
Zusammenfassung
In diesem Papier untersuchen wir das Zusammenspiel zwischen Integritätsbedingungen und dem Spezialisierungskonzept im Rahmen von Objektdatenbanken. Wir gehen insbesondere auf die Vererbung und Spezialisierung objektübergreifender Bedingungen ein und zeigen, daß das Wissen über die Vererbbarkeit und Spezialisierung von Integritätsbedingungen die Grundlage für einen guten und korrekten Objektdatenbankentwurf bildet.
Can Türker
Towards Guaranteed Quality and Dependability of Information Services
Abstract
The impressive advances in global networking and information technology provide great opportunities for all kinds of ubiquitous information services, ranging from digital libraries and information discovery to virtual-enterprise workflows and electronic commerce. However, many of these services too often exhibit rather poor quality and are thus unsuitable for mission-critical applications. In this paper I would like to encourage more intensive research efforts towards service quality guarantees, the ultimate goal being the ability to construct and deploy truly dependable systems with provable correctness, continuous availability, and predictable performance. The paper aims to sort out some of the issues towards these elusive goals, mainly by discussing a case study on workflow management. I will point out various assets that can be leveraged, most notably, from database and TP technology and also mathematical modeling and reasoning, and I will outline some research directions that I would encourage to pursue.
Gerhard Weikum
Waterloo—M: Ein datenbankbasiertes Workflow—Managementsystem für mobile Benutzer
Zusammenfassung
Ortsunabhängigkeit ist zu einem durchgängigen Muster unserer Gesellschaft geworden. Viele Menschen erwarten die Möglichkeit, an jedem Ort und zu jeder Zeit dieselben Dienste wie an ihrem Arbeitsplatz oder ihrer Wohnung nutzen zu können. Dieser Aufsatz beschreibt mit Waterloo-M einen neuen Ansatz, der Ortsunabhängigkeit für generische Softwaresysteme zur Vorgangsbearbeitung realisiert. Als wichtigstes Basissystem nutzt dieser Ansatz ein mobiles und aktiven DBMS. Mit dem dort verfügbaren ereignisorientierten Regelsystem ist auf Steuerung von Vorgängen direkt durch aktive Regeln realisierbar. Weiterhin wird die Anpassung von Waterloo-M an verschiedene Zustände des mobilen Systems auf Basis eines formalen Modells beschrieben.
Olaf Zukunft
Rule-Based Dynamic Modification of Workflows in a Medical Domain
Abstract
A major limitation of current workflow systems is their lack of supporting dynamic workflow modifications. However, this functionality is a major requirement for next-generation systems in order to provide sufficient flexibility to cope with unexpected situations and failures. For example, our experience with data intensive medical domains such as cancer therapy shows that the large number of medical exceptions is hard to manage for domain experts. We therefore have developed a rule-based approach for partially automated management of semantic exceptions during workflow instance execution. When an exception occurs, we automatically determine which running workflow instances w.r.t. which workflow regions are affected, and adjust the control flow. Rules are being used to detect semantic exceptions and to decide which activities have to be dropped or added. For dynamic modification of an affected workflow instance, we provide two algorithms (drcd-and p-algorithm) which locate appropriate deletion or insertion points and carry out the dynamic change of control flow.
R. Müller, E. Rahm
„Top-Down“- versus „Bottom-up“-Adaption von betriebswirtschaftlicher Standardsoftware (Kurzbeitrag)
Zusammenfassung
Es werden zwei grundsätzlich verschiedene Vorgehensweisen bei der Adaption von betriebswirtschaftlicher Standardsoftware beschrieben. Als Beispiel für den analytischen Weg wird das SAP-System, für den synthetischen Ansatz Oracle’s Application herangezogen. Die Argumentation bewegt sich nicht auf technischer, sondern auf methodischer Ebene, um die Unterschiede herauszustellen. Gemeinsamkeiten finden sich in der Unerläßlichkeit der freien relationalen Schemarekonstruktion, um Tausende von betriebswirtschaftlichen Begriffen ausreichend exakt fassen zu können. Dabei gilt es nicht die Begriffstiefe, sondern eine Begriffsmannigfaltigkeit zu meistern. Außerdem werden Fragen der Lehre kurz skizziert.
H. Wedekind, Holger Günzel
Benchmarking von Workflow-Management-Systemen (Kurzbeitrag)
Zusammenfassung
Heute verfügbare Workflow-Management-Systeme (WfMS) weisen in ihrer Leistungsfähigkeit und Skalierbarkeit deutliche Defizite auf. Während an Verbesserungen intensiv gearbeitet wird, sollten Leistungsvergleiche zwischen verschiedenen WfMS generell auf eine systematische, objektive Basis gestellt werden. Zu diesem Zweck entwickelt dieser Kurzbeitrag einen Benchmark für WfMS, der — ausgehend von den Basisaktivitäten des TPC-C-Benchmarks — in verschiedenen Ausbaustufen Stärken und Schwächen von WfMS ausloten und systematisch vergleichen kann. Die Benchmark-Definition wägt sorgfältig ab zwischen Einfachheit, Realitätsnähe und Aussagekraft von Benchmark-Messungen und ist in dem im Industriestandard UML verwendeten State- und Activity-Chart-Formalismus spezifiziert.
Michael Gillmann, Peter Muth, Gerhard Weikum, Jeanine Weissenfels
Backmatter
Metadaten
Titel
Datenbanksysteme in Büro, Technik und Wissenschaft
herausgegeben von
Alejandro P. Buchmann
Copyright-Jahr
1999
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-642-60119-4
Print ISBN
978-3-540-65606-7
DOI
https://doi.org/10.1007/978-3-642-60119-4