Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

Hoch- und Höchstleistungs-Rechensysteme / High and Very High Performance Computing

Strukturen zukünftiger kommerzieller Hochleistungsrechensysteme

Ausgehend von einer Diskussion der elementaren Wechselwirkung von Anwendungen, Architekturen und Technologie wird die Zukunft von großen Systemen zur kommerziellen Transaktionsverarbeitung untersucht. Grundlegende Aspekte von Kosten und Leistung der Technologie von Großsystemen werden betrachtet, und Trends werden verglichen mit denen von Preis/Leistungsoptimierten Mikrosystemtechnologien. Die Implikationen dieses Vergleichs führen zu parallelen Systemarchitekturen und -Strukturen.Die grundlegenden Aspekte der Parallelverarbeitung und die Pro’s und Con’s verfügbarer Kopplungsmechanismen werden verglichen, was zu der gewählten Synthese zwischen den Schemata führt.

Ulrich Lang

MMK/X — Using a Network of Workstations as a Supercomputer

Today expensive supercomputer and multiprocessor systems are available which offer computational power that can be used to solve Grand Challenge Problems. But these systems are often very expensive and difficult to maintain. Typical environments in companies and universities offer the programmer a local area network of dozens of workstations. Together they offer a computational power which is comparable to currently available supercomputer and multiprocessor systems. To exploit this computational resource a programming environment is needed which enables the user to distribute his application among the workstations. Using MMK/X and TOPSYS/X is one way to achieve this goal. MMK/X offers a programming model that allows the programmer to use a net of workstations similar to a conventional multiprocessor system. Apart from the user interface the paper also describes the implementation of the programming environment and the adaptation of the tool environment for workstation based message-passing systems.

Georg Stellner

Technology for TeraFLOPS Architectures

The solutions of today’s foremost scientific challenges require order-of- magnitude increases in computing power (3). The route to TeraFLOPS computing lies in parallel multi-computers that exploit advances in microprocessor technology. The Touchstone program, a joint effort by Intel and the U.S. Advanced Research Projects Agency (ARPA), has led already to the development of one of the world’s fastest supercomputers — a mesh-interconnected distributed memory machine in the performance range of 100 GFLOPS. The fourth and final Touchstone prototype Sigma has been the base for Intel’s latest supercomputer product — the Paragon XP/S capable of performing up to 300 GFLOPS. Based on the Touchstone experiences, a new research and development program at Intel is on the way for approx. one year now to develop parallel supercomputer technologies required for TeraFLOPS computers. This paper gives an overview of the goals and the research activities of the TeraFLOPS program.

Thomas Bemmerl

Der Einfluß der Kommunikationszeiten auf die Effizienz von Parallelrechnern

Das Problem der Effizienzminderung aufgrund von notwendigen Kommunikationsprozessen bei Parallelrechnern wird auf der Basis von Messungen am Prototyp des PIPELINEBUS als Verbindungssystem des SUPRENUM-Rechners dargestellt. Die effektiven „Startzeiten“ der einzelnen Übertragungsoperationen erwiesen sich als sehr hoch. Verbesserungen an verschiedenen Ebenen des Übertragungsprotokolls wurden vorgeschlagen und durch Simulationen sowie Analysen bewertet. Eine Modellanalyse für ein vereinfachtes Mehrgitterverfahren zeigt, daß die Startzeit um etwa zwei Größenordnungen reduziert werden muß, um in einem weiten Parameterbereich die Prozessorleistung gut ausnutzen zu können. Dazu wird ein PIPELINEBUS-System mit einer an die Rechenprozesse gekoppelten Transportsteuerung vorgeschlagen.

Jochen Gries, Axel Kern, Hans-Otto Leilich

Analysis and application of local/global multistage interconnection architectures

Multistage interconnection networks (MINs) with nearest-neighbour interconnects are the simplest interconnection scheme within the class of local interconnects. (Local means the distance of communication is bounded by a constant.) The global interconnection scheme is generated by shuffling the switches and is thus isomorphic to the local interconnects. The generation of local/global interconnects by holographic elements allows to utilize the large space-bandwidth product of optics. In the frequency domain, tuning a laser to regularly spaced frequency channels and interchanging data of nearest-neighbour channels represents the simplest organization of laser tuning. The local/global interconnection schemes are extended to any dimension of the interconnected data set and the multistage architectures (=interconnects+switches) are analysed and compared with shuffle nets.

Josef Giglmayr

Eine neue HW-Architektur für BS2000-Systeme

Die Bürocomputer C70 sind leistungsfähige Rechner für kommerzielle und technisch-wissenschaftliche Anwendungen. Sie werden vom Betriebssystem BS2000 unterstützt. Die Modellreihe C70 ist lieferbar als Uni-, Dyadic- und Tripleprozessorsystem. Die Ein/Ausgabebusse nehmen bis zu 15 Ein/Ausgabe-Module auf. Die integrierten 3,5″ Festplatten haben im Vollausbau eine Kapazität von 95 GByte. Durch modernste CMOS-Technologie kann die BS2000-CPU in 3 ASIC’s realisiert werden (Hauptprozessor + 2 Co-prozessoren). Im Detail werden erlautert: Die CPU-Architektur: Hauptprozessor und Coprozessoren.Die 4-stufige Zweistrom-Befehlspipeline.Die Arbeitsweise des 3-stufigen Cache im Multiprozessorsystem.

M. Köhler

XCS Cross Coupled System Die Basis für verteilte Anwendungssysteme im BS2000

XCS (Cross Coupled System) bietet Basismechanismen und Systemdienste für verteilte Anwendungssysteme unter Steuerung des Betriebssystems BS2000. Zwei Ziele werden durch den Rechnerverbund XCS erreicht: erstens wird eine erhöhte Verfügbarkeit des Gesamtsystems erzielt und zweitens eine Plattform geboten, die insbesondere durch Realisierung eines DB-Sharing-Konzepts Leistungssteigerungen im Datenbankbetrieb erlaubt.Zur Koordination konkurrierender Funktionen steht der Anwendung ein Distributed Lock Manager zur Verfügung. Mögliche Varianten bei der Realisierung eines Distributed Lock Managers werden auf Designebene diskutiert.Die Verbesserung der Verfügbarkeit eines verteilten Systems setzt Basismechanismen für die Ausfallerkennung voraus. Dabei sind zu unterscheiden: der Ausfall eines Servers in der Anwendungsebene, der Prozessorausfall und der Verbindungsausfall. Die im XCS realisierten Prinzipien und Algorithmen der Ausfallerkennung werden diskutiert.

H. Boellner

Neuronale Netze / Neural Networks

MANTRA I: An SIMD Processor Array for Neural Computation

This paper presents an SIMD processor array dedicated to the implementation of neural networks. The heart of this machine is a systolic array of simple processing elements (PEs). A VLSI custom chip containing 2 × 2 PEs was built. The machine is designed to sustain sufficient instruction and data flows to keep a utilization rate close to 100%. Finally, this computer is intended to be inserted in a network of heterogeneous nodes.

Marc A. Viredaz

Simulation Neuronaler Netze auf SIMD- und MIMD-Parallelrechnern

Wir beschreiben hier Erfahrungen mit verschiedenen Implementierungen neuronaler Netze auf einem massiv parallelen SIMD-Rechner und einem MIMD-Supercomputer. Bei dem SIMD- Rechner handelt es sich um eine MasPar MP-1216 mit 16384 Prozessoren, der MIMD-Rechner ist eine Intel Paragon mit 72 Prozessoren. Zwei der Implementierungen wurden als knoten- und trainingsmusterparallele Simulatorkerne des Stuttgarter Neuronale Netze Simulators (SNNS) entwickelt, die MIMD-Implementierung auf der Intel Paragon verwendet nur Trainingsmusterparallelität. Die parallelen Implementierungen liefern bei optimaler Netztopologie sehr hohe Leistungsdaten: unsere Höchstwerte liegen bei 348 MCPS und 129 MCUPS für Backpropagation auf der MasPar MP-1. Auf einer MasPar MP-2 mit ebenfalls 16384 Prozessoren konnten 972 MCPS und 360 MCUPS gemessen werden.

Andreas Zell, Günter Mamier, Niels Mache, Michael Vogt

Simulation und Visualisierung künstlicher neuronaler Netze unter Verwendung paralleler Hardware mit NeuroGraph

NeuroGraph ist ein Programm zur Simulation künstlicher neuronaler Netze unter Verwendung paralleler Hardware. Über eine grafische Bedienoberfläche wird die Topologie eines Netzes spezifiziert, das dann sequentiell oder parallel ausgeführt werden kann. Bei der Verteilung der Last auf die verfügbare Hardware werden Restriktionen berücksichtigt, die sich aus der Rechnerarchtektur und dem zugrundeliegenden neuronalen Netzwerkmodell ergeben. Es wird beschrieben, wie die in NeuroGraph implementierte Parallelisierung des Netzes vorgenommen wird und welche Leistungssteigerungen bei einer Implementierung auf MIMD-Rechnern und Workstation-Clustern erreicht wurden. Abschließend werden die für die Berechnung von künstlichen neuronalen Netzen in Frage kommenden Methoden zur Parallelisierung bewertet und die Konsequenzen für die Hard- und Software-Architekturen diskutiert. Von den vorgestellten Verfahren sind die Musterverteilung auf einer lose gekoppelten und die Netzverteilung auf einer eng gekoppelten Rechnerstruktur am besten für paralleles Verarbeiten und Lernen auf einem Workstation-Cluster geeignet.

Peter Wilke, Ralf Scholz

Multiprozessor- und Speicher-Architektur des Neurocomputer SYNAPSE-1

Um den Zeitaufwand für die Entwicklung neuronaler Applikationen verringern und die Anwendungsforschung weiter vorantreiben zu können, hat ZFE den Neurocomputer SYNAPSE-1 gebaut. SYNAPSE-1 bezieht seine Leistungsfahigkeit (peak performance 5,1 · 109 Verbindungen bzw. Multiplikationen und Additionen pro Sekunde) aus einer skalierbaren Multi-Prozessor- und -Speicherarchitektur und aus dem selbst entwickelten Neuro-Signalprozessor MA16 (full custom VLSI, 1μm CMOS, 610 000 Transistoren), welcher die rechenintensiven Operationen der neuronalen Algorithmen ausführt. SYNAPSE-1 besteht hardwareseitig aus 4 Boards: einem mit 8 MA16 bestückten Board, einem ’Data Unit’-Board, welches die restlichen, nicht-rechenintensiven neuronalen Operationen ausführt, einer Speicherplatine hoher Bandbreite für die Gewichte und einer Controller-Platine für Steuerung und Koordination der anderen Boards. Die Kommunikation mit Host-Workstation und spezialisierten Ein-/Ausgabeeinheiten (z.B. frame grabber) wird von Controller und Data Unit über den VME-Bus abgewickelt (Data und Control Unit wurden in Kooperation mit Prof. Männer, Universität Mannheim, entwickelt).SYNAPSE1-1 wird vervollständigt durch mehrere Firmware/Software-Schichten. Beginnend bei den Mikroprogrammen des Sequencers auf der Control Unit reichen sie über die Betriebssoftware für die 68040-CPUs auf Control und Data Unit bis hin zu der auf der Host-Workstation zur Verfügung stehenden neural Algorithms Programming Language, die den Anwender bei der Synthese seiner Algorithmen aus rechenintensiven und nicht-rechenintensiven Operationen unterstützt. nAPL ist eingebettet in C++ und im wesentlichen realisiert als Klassenbibliothek. Dieser objekt-orientierte Ansatz gewährleistet eine enge Anbindung an SENN++, der bei ZFE entwickelten Software-Simulationsumgebung für neuronale Netze.Der Neurocomputer SYNAPSE-1 vereint ein hohes Maß an Flexibilität mit bisher unerreichter Rechengeschwindigkeit. Bei Benchmark-Tests wurde im Vergleich mit einer SUN SparcStation 2 ein Beschleunigungsfaktor von 8000 ermittelt. Neben neuronalen Algorithmen (einschließlich Lernphase) konnen auch Operationen der klassischen Bild- und Signalverarbeitung sehr schnell ausgeführt werden.

U. Ramacher, W. Raab, J. Anlauf, U. Hachmann, J. Beichter, N. Brüls, M. Weßeling, E. Sicheneder, R. Männer, J. Gläß, A. Wurz

The MANTRA Center for Neuro-Mimetic Systems of the Swiss Federal Institute of Technology of Lausanne

The MANTRA Center for Neuro-Mimetic Systems is coordinated by 6 professors and consists now of 12 researchers working on theoretical approaches, hardware implementations and applications of neural networks. It is subdivided in three groups (theory, technology and applications), each of them led by a scientific director. Projects are handled in an orthogonal manner: people are supported by specific projects, the planning of the work is optimized according to the overall research and contract objectives.Theory efforts are concentrated on self-organizing feature maps and multilayer perceptrons. The Kohonen model has already found many applications, but many interesting theoretical questions are still open, e.g. convergence criteria and best distance measure.As neural network accelerators, preprocessing analog neural nets, DPS’s arrays (based on the 320C40) and a systolic architecture based on VLSI dedicated chips are developped. The MANTRA systolic machine will peak 200 MCPs (Mega Connections per Second) and will be used for running a Kohonen network for the security analysis of electric power systems.Several applications are under way (bank notes recognition, financial applications, autonomous robotic agents and voice recognition). The group is also sollicited to help neurobiologists to modelize their observations.

J. D. Nicoud

The PAN System and the WINA Project

The PAN system is a parallel computer architecture implementing a large associative memory, which is realized as a large network of simple artificial neurons. PAN IV realizes a 256K×4K binary memory matrix and contains 4K parallel processors. The WINA project, sponsored by the BMFT, investigates the integration of neural networks and knowledge-based systems. The elementary neural components in the hybrid WINA architecture are a neural associative memory (e.g. the PAN system) and a Kohonen map or a similar neural clustering algorithm. Our main research objectives are: (i) studying the interaction of neural and rule-based components in a prototypical hybrid system, (ii) developing new designs for special hardware for parallel processing in all components of the system, (iii) building an application-oriented information retrieval system based on the PAN architecture.

G. Palm

NERVES and ELENA : the Basic Research on Artificial Neural Networks in Europe

Research on artificial neural networks goes beyond classical models and learning algorithms, and their application to adaptive tasks. The need for basic research exists, i.e. for research on learning algorithms, possibilities for specialized hardware, for interfaces between the world of conventional computers and neural networks, and especially for objective comparative studies between neural and classical methods.These are roughly the aims of the Nerves project (July 1989 – June 1991), and of the Elena project (July 1992 – June 1995). The purpose of the Nerves project was to develop theoretical tools and technical means in order to design algorithms, machines and VLSI circuits for neurocomputing. The Elena project aims to investigate the relations between statistical methods of data classification (estimation of Bayes boundaries between classes,…), and the neural methods. It concerns theoretical studies on evolutive algorithms and relations with statistics, development of a graphical software environment and of test databases, and definition of VLSI architecture and analog/digital chips for evolutive neural networks. Conclusions of the NERVES project and preliminary results of the ELENA project are presented here.

M. Verleysen

Multimedia-Systeme und ihre Anwendungen / Multimedia Systems and Applications

Race-Project: Race Bank

RACE BANK — a Multimedia Broadband Cooperation Project in the Banking Business Sector

In the framework of the European programme RACE (“Research and Development in Advanced Communications Technologies in Europe”), a project called BANK has been established. In this project, two major European banks work together with three software houses, a telecom supplier and an IT supplier with the goal to investigate and prototype a multimedia banking terminal. This terminal will allow the banks to offer to their customers both high-quality, eye-catching information on banking services and the opportunity to enter a desktop conference with a remote bank expert. The conference includes audio, face-to-face video and shared text/graphics applications that support the expert in promoting certain banking services to the customer. The paper gives the project scenario background and then discusses some networking and multimedia related questions in the given environment. It closes with some conclusions on system evaluation and system acceptance.

Norbert Luttenberger, Rainer Oechsle, Wolfgang Johannsen, Matthias Kloidt, Andreas Henrich, Thomas Humer-Hager, Diethelm Bauer

Architecture of Distributed Multimedia Systems

In the coming years multimedia will significantly change the way, in which we use computers. Some multimedia applications already exist today (e.g. multimedia kiosks, computer based training), however, most of them are restricted to local use. A full exploitation of the excellent capabilities multimedia offers for communication and cooperation will depend on the availability of efficient and integrated methods for exchanging multimedia information between computers.The evolution to distributed multimedia systems will require substantial extensions and modifications to the architectures of communication systems, operating systems and applications. The strong constraints multimedia puts on bandwidth and transmission delays require new communication mechanisms and protocols. Operating systems will have to process and handle realtime streams. Finally, distributed applications require generic mechanisms for integrating new information elements and for supporting new paradigms, like cooperative work. The presentation will discuss recent developments and trends and sketch ongoing research efforts.

Lothar Mackert

An Object-Oriented Character Recognition Engine

This paper introduces the object-oriented character recognition engine AQUIRE which was originally designed as a general pattern-classifier under the academic aspects of object- orientation and parallelism together with low space and time complexity. When industry expressed interest in using AQUIRE to provide pen-based computers with a powerful character- recognition engine, AQUIRE was revised to meet the commercial requirements. Together with a brief discussion of some special pen-related problems, this paper contains the theoretical background for the recognition mechanism and a description of the methods used to perform a high quality and high speed recognition-process with a minimum of executable code. The proposed method has been implemented on an INFOS NotePad 386-SX pen-computer and on the associative processor AM3 developed within the PROMETHEUS project at the Department for Technical Computer Sciences at J.W.Goethe-University. The acceleration of the recognition mechanism by using the associative type of parallelism will be shown.

B. Klauer, K. Waldschmidt, R. Heinrich

Spool & Print: Service and Management in Distributed Environment

This paper presents an attempt to approach in a new way the problem of spool & print service and management in distributed environments. Thanks to an object-oriented model, high consistency is brought between the user and administrator functions. New concepts are introduced, such as the Printer Capability List object, describing in a flexible and affordable fashion the characteristics of a printer type. Filters customising the functionality can be inserted at different places in the data flow. Features such as the location transparency and the single point administration capability make the administrator’s life easier. The resulted SPOOL V4/Xprint system is running successfully on multiple UNIX platforms, supporting all usual types of printers, emulations and attachments. Further advanced extensions are under the way.

Jean-Marc Bodart

Sichere, zuverlässige und persistente Systeme / Secure, Reliable and Persistent Systems

BMFT Verbundprojekt REMO — Referenzmodell für sichere IT-Systeme: Zusammenfassung

REMO Referenzmodell für sichere IT-Systeme - Überblick -

Sicherheit in informationstechnischen (IT) Systemen muß schon bei deren Konzeption berucksichtigt werden. Um eine Basis für praktikable Losungen zur Integration von Sicherheit und Zuverlässigkeit in IT-Systemen zu schaffen, fördert der Bundesminister für Forschung und Entwicklung (BMFT) das Projekt „Referenzmodell für sichere IT-Systeme (REMO)“als Verbundprojekt zwischen Forschungsinstituten und Industriefirmen.Das Projekt REMO soll einen Leitfaden für die Entwicklung sicherer IT-Systeme entwickeln. Es umfaßt zwei Ansätze, mit unterschiedlicher Zielsetzung: Der konstruktive Ansatz (REMO-K) verfolgt das Ziel bei der Realisierung neuer IT-Systeme zu helfen, bei denen die Sicherheit Entwurfskriterium ist.Der ergänzende Ansatz (REMO-E) will den Umgang mit und die externe Kommunikation zwischen bestehenden IT-Systemen sichern.

H. Atzmüller

Sicherheitsmodelle in Theorie und Praxis

Die Untersuchung des Begriffs „Sicherheitsmodell“ führt zu dem Ergebnis, daß ein Sicherheitsmodell ein Modell im traditionellen Sinne der Wissenschaft ist, nämlich eine Beschreibung mit Abstraktion auf das Wesentliche. Eine (formale) Modellierung der Sicherheitsanforderungen ist eine wichtige Voraussetzung, um einerseits hohe Sicherheit zu erreichen und andererseits diese Sicherheit nachzuweisen. Die aus der Literatur bekannten Sicherheitsmodelle greifen jeweils einzelne Sicherheitsaspekte heraus, die sie eingehend analysieren. Der Sicherheitsbedarf eines realen Systems umfaßt jedoch typischerweise eine individuelle Kombination verschiedener Sicherheitsaspekte. Deshalb existiert zu einem vorgegebenen System nur in Ausnahmefällen bereits ein für seine Bedürfnisse genau passendes Sicherheitsmodell. Dies wird an einem Beispiel erläutert.

Esther Amann, Volker Kessler

Das TELES.VISION System Sicherheitsanforderungen und Sicherheitsmoduln

Sicherheitsanforderungen existieren in alien IT-Systemen. Sie werden speziell in modernen, auf Multi- Media- Technik und Mehrpunkt - Kooperationstechnik basierenden Systemen, als nahezu ebenso relevant angesehen wie die eigentliche Funktionalität dieser Systeme. In modernen Videokonferenzen werden die ansonsten getrennten Kommunikationskanäle für Audio-, Video-, Text-, Grafik-, Tabellen-,… - Informationen analog einem physischem Treffen integriert. Die drängenden, speziell in Videokonferenz-systemen auftretenden Sicherheitsanforderungen und die zu ihrer Erfüllung einzusetzenden Sicherheitsmoduln werden vorgestellt. Ein kurzes Szenario veranschaulicht den Einsatz von Sicherheitsmoduln gegen die zu erwartenden Sicherheitsangriffe aus Sicht eines Videokonferenzteilnehmers. Angriffe auf die Sicherheit werden sich auf den lokalen Arbeitsplatz und alien damit verbundenen Betriebsmitteln, auf die Videokonferenz - Zentralen und auf die Kommunikationsmedien konzentrieren. Mit Hilfe von Sicherheits - Guards werden die Benutzerforderungen nach Vertraulichkeit, Integrität und Authentizität der schutzbedürftigen Informationen, die Nichtabstreitbarkeit ausgeführter Operationen und die eindeutige Identifikation der kooperierenden Benutzer erfüllt.

J. Schulze

The FIDE ESPRIT Project on Fully Integrated Data Environments: Summary

Building Persistent Application Systems in Fully Integrated Data Environments: Modularization, Abstraction and Interoperability

Research and development in the FIDE project on Fully Integrated Data Environments has led to the concept of Persistent Object Systems (POS) which generalize database systems by re-interpreting schemas as type definitions and databases as typed variables in addition to treating lifetime as a type-independent property. Furthermore, FIDE develops uniform linguistic interfaces for data modelling, computation and communication, and extends database, programming and communication technology to enable integrated application development based on interoperating POSs.As a consequence of such an integrated view, formerly disjoint concepts such as databases, program and module libraries, files or repositories can now be treated uniformly as POSs differentiated essentially by the types of objects they contain and by the operational abstractions they provide.Based on state-of-the-art database technology, this paper outlines FIDE results in extending databases and providing the integrated technology considered necessary for the construction and maintenance of Persistent Application Systems. Since our main goal is to improve substantially a system’s capability of persisting successfully over time in changing environments, particular emphasis will be placed on systems scalability and its consequences for POS interoperability.

Joachim W. Schmidt, Florian Matthes, Patrick Valduriez

Programming in Persistent Higher-Order Languages

Persistent programming languages differ from traditional languages in that data of arbitrary lifetimes is fully governed by the type system. Such languages lead to radically different programming paradigms and methodologies for two important reasons: the high-level type system may be relied upon as a protection mechanism even for long-term datadata of any type, including first-class procedures and abstract data types, may be kept for arbitrary lifetimes. The combination of these means that the kind of sophisticated typing commonly used in programs which operate over short-term data may be extended to all data manipulated by a long-lived system. This paper exposes some of the ways in which well-known type system features may be powerfully used in contexts normally associated with operating systems and database management systems.

R. C. H. Connor, R. Morrison, M. P. Atkinson, F. Matthes, J. W. Schmidt

System Construction in the Tycoon Environment: Architectures, Interfaces and Gateways

This paper outlines the basic concepts and the system architecture of the Tycoon1 environment. Tycoon is designed for the construction of persistent object systems intended to be available on multiple software and hardware platforms.Tycoon’s contribution to system portability and scalability is achieved by strictly separating concerns of data modelling, data manipulation, and data storage into three distinct system layers each of which is based on state-of-the-art system technology (polymorphic programmming languages, portable code representations, persistent object stores). Much emphasis is being placed on supporting interoperability between Tycoon applications and off-the-shelf tools and systems, such as database systems, user interface managers, and optimizing code generators.We illustrate how higher-order functions, polymorphic typing and transparent persistence management reduce the amount of repetitive and type-unsafe programming in typical persistent object systems.

Florian Matthes, Joachim W. Schmidt

Replication Algorithms for Highly-Available Systems

Some replication algorithms guarantee that all updates are performed in the same order at all replicas. Others only guarantee that updates are executed in causal order; updates that are not causally related may be performed in different orders at different replicas. This paper discusses the conditions under which the two schemes are applicable and describes an algorithm from each class. It also compares the performance of the algorithms and identifies the situations in which one is superior to the other.

Barbara Liskov

Fehlertolerantes Koordinieren verteilter autonomer Dienste

Die Vernetzung von Rechnern führt zu neuen Einsatzbereichen und daher zu neuen Anforderungen an Programmiersprachen. Programmierung war bisher meist mit Erstellung von Softwarepaketen für einen Rechner gleichzusetzen. Sequentielle Programmiersprachen werden verwendet, die weder die Kommunikation zwischen parallelen Prozessen noch deren Synchronisation unterstützen. Neue, verteilte Programmiersprachen sind mit der Koordinierung von in einem im Netz angebotenen autonomen Diensten konfrontiert. Ähnliche Aufgaben entstehen bei der Verwaltung von Teilaufgaben in einem Projekt. Fehler und Ausfälle einzelner Komponenten sollten die Erfolgschance der Gesamtaufgabe nicht verhindern.Wir beschreiben Techniken zur Koordination solcher Aufgaben. Die vorgeschlagenen Konzepte konnen in herkömmliche Programmiersprachen eingebaut werden. Wir zeigen, warum das logische Programmierparadigma besonders gut geeignet ist.

eva Kühn

An Intrusion Detection Architecture for System Security

Intrusion detection aims to detect security violations from abnormal pattern of system usage. It is required that user activities be monitored by the system and that monitoring information be analysed to recognize behavior pattern of users. While basic monitoring capability is supported by most computer systems, analysis of monitoring data remains a problem of active research in system security. This paper presents a new software architecture for intrusion detection which makes use of a combination of data analysis and classification technologies including: artificial neural network, unconstrainted optimization, noise reduction, clusters recognition and high-dimensional data visualization. By carefully combining different data processing techniques, our scheme makes full use of their respective merits to solve the intrusion detection problem.

Lucas Hui, Siu-Leung Chung, Kwok-Yan Lam

Entwurf sicherer verteilter Systeme: Formalisierte Sicherheitspolitiken und abstrakte Implementierung

Das Papier stellt einen Ansatz zum Entwurf und zur Konstruktion sicherer verteilter Systeme gemafi einer Top-down Vorgehensweise vor. Dabei werden die Stufen der formale Spezifikation von Sicherheitsanforderungen und der abstrakten Implementierung erläutert. Zur Erfassung der gewünschten Sicherheitseigenschaften werden Systemmodelle sowie flexible Konzepte zur Formalisierung von Sicherheitspolitiken benötigt. Entsprechende Modelle und Konzepte werden vorgestellt. Der Einsatz der Konzepte zur Spezifikation von Politiken wird anhand von Beispiel- szenarien aufgezeigt. Der Übergang zu einer abstrakten Implementierung erfordert wiederum geeignete Konzepte und Methoden, um die spezifizierten Sicherheitseigenschaften durchzusetzen. Einige Konzepte werden exemplarisch beschrieben und deren Einsatz wird erläutert.

Claudia Eckert

Kommunikationssysteme und -Protokolle / Communication Systems and Protocols

The OLCHFA Project: Summary

Industrial Needs For Time-Critical Wireless Communication & Wireless Data Transmission And Application Layer Support For Time-Critical Communication

The OLCHFA project synthesises leading-edge technologies in the areas of fieldbus, wireless communication and time-critical systems to address the data communications requirements at the low level of the manufacturing integration hierarchy. It aims at extending an existing fieldbus solution to provide these facilities. The OLCHFA project consortium, which is partly funded by the CEC, includes two industrial demonstration sites to ensure that the system specification meets the real user requirements as well as providing test scenarios for evaluation of the OLCHFA time-critical communication system. For reasons of technical suitability and compatibility with proposed international standards, the French FIP fieldbus is being used as the base platform for the hardware and software development. The software development includes extending the application layer services and creating tools to facilitate easy configuration and management of an OLCHFA communication network. The hardware development includes the production of prototype hardware modules incorporating a custom clock chip and FIP communications processor.

Ivan Izikowitz, Michael Solvie

The Race II Project EuroBridge: An Overview

Adaptive QOS driven Communication Architecture

The RACE II project EuroBridge has introduced a concept for a flexible and adaptive Quality of Service (QOS) driven communication architecture. This paper will give an overview on the protocol structures within EuroBridge and will highlight the protocol selection mechanism which identifies suitable combinations of protocols in accordance to the requested QOS from the application. The main area will be the mapping from the demands onto the protocols that are available in the EuroBridge project. Furthermore we describe the integration of XTP into the platform and recommend a new distributed jitter control mechanism. The EuroBridge XTP implementation provides a modular design of the various protocol features. In accordance to the demands specified by the selector, only those parts are activated that are needed to fulfil the desired functionality.

Bernd Heinrichs, Wilko Reinhardt

The EuroBridge Platform - Support Of An EnhancedMultimedia Mail Service

This paper discusses the design of the multimedia mail user agent, currently being developed within the framework of the RACE II project EuroBridge. This user agent will be able to interwork with both, MIME and X.420. A brief summary of the overall application layer structure is followed by a top-down description of the internal architecture of the user agent, including the graphical user interface, the information system, and the message management. Finally, some open questions concerning mail transfer are touched on.

Kai Jakobs, Klaus Lenßen

Efficient and Order-Preserving Shifting of Data Streams

In order to exploit the capacity of parallel links we propose a traffic distribution scheme where each data stream is routed over one of the parallel links at a time. In cases of link overload or breakdown the network management entity should be able to shift selected data streams dynamically from one link to another according to some policy. Given that the source and sink of a data stream are able to deal with lost packets, but not with packets arriving out of order, the shifting has to be done in such a way that in-sequence delivery is guaranteed. In this paper we present two approaches that solve this task. The first method uses numbered shift commands that first have to be exchanged between the nodes before the actual shifting can take place. In the second method the shifting is only prepared by exchanging special commands. The actual shifting is done simply by using a prepared link. The methods are useful for remote bridges connecting remote LAN sites over several wide area networks, or for ATM switching nodes being connected by multiple links.

Rainer Oechsle, Hong Linh Truong

Ein Konzept zum rechnergestützten Entwurf von Steuerungssoftware

Es wird eine Methodik vorgestellt, welche speziell die Entwurfs- und Implementierungsphase bei der Erstellung von Software für technische Steuerungen unterstützt. Hierzu wurde eine grafische Beschreibungssprache zur Darstellung nebenläufiger, miteinander agierender Aktivitäten entwickelt. Alle Interaktionsbeziehungen sind in der grafischen Beschreibung enthalten und werden von einem Transformationswerkzeug in den Quellcode der Aktivitätsrümpfe eingefügt. Zusammen mit einer für das Zielsystem angepaßten Bibliothek zur Realisierung von Prozeßverwaltung und -interaktion wird in einem weiteren Transformationsschritt ein ausführbares Steuerprogramm generiert. Eine klare Kapselung der vom Zielsystem abhäng gen Teile gewährleistet leichte Portierbarkeit. Zur Unterstützung der Testphase besteht die Möglichkeit, den Steuerungsablauf während des Betriebs grafisch zu visualisieren oder ein Steuerungsprotokoll in Form eines „Filmes“noch einmal ablaufen zu lassen. Das Konzept ist offen für Erweiterungen, von denen als wichtigste die automatische Analyse von Steuerungsentwürfen zu nennen ist.

H. Wolf

Architectural Aspects of Future Private Communication Systems

The latest achievements in optical fibre, VLSI technology and micro-electronics as well as a growing demand for telecommunications promote the development of high-speed communication networks, preparing the broadband ISDN and the integrated broadband communication network. New services are requested including distribution of TV programmes, full-motion video phones and multimedia services handling simultaneously voice, video and data information. Todays separate worlds of data and telephony communication will close up and merge. Value-Added Network Services and Intelligent Networks will lead to new network applications, which are not fully described yet or even unknown. Facing this background, industry is challenged to develop highly flexible systems, which can accommodate future needs allowing a cost-effective integration of existing equipment by evolution strategies. In this paper, requirements for future private communication systems are stated, aspects of their hardware and software architecture are discussed and prospects of further developments are given.

Dieter Wybranietz

Design and Assessment of a Parallel High Performance Transport System

Applications are not able to make full use of bandwiths offered by high speed networks due to a lack of performance in current communication systems. This paper presents a parallel architecture for a front end processor (FEP) between host and high speed LAN or MAN to overcome the transport system bottleneck. The focus of the project was to demonstrate that implementation issues are of highest importance and that high performance can be achieved based on standard protocols. The FEP is designed for an OSI TP4/CLNP/LLC1 protocol stack, with an architecture general enough to be adapted to other protocols. The architecture is based on three RISC processors which are supported by special-purpose hardware for process synchronisation and for time-critical functions like checksum evaluation, buffer management and timer administration. The paper summarises design steps and features of the system. It also describes modelling and simulation and discusses main results.

Georg Carle, Martin Siegel

Design Optimisation in Multichannel Lightwave Networks With Grouping Property

A multichannel lightwave network with grouping property is proposed and studied as a possible architecture for realizing the vast capacity of multiuser lightwave networks subject to electro-optic speed constraints imposed at each access station. It consists of m station groups, in each group stations are connected by dual unidirectional WDM channels. Two specific unidirectional WDM channels are assigned to each station in a manner that allows any pair of stations in different groups to communicate directly, which forms an intergroup. A traffic flow control model is developed, and an optimal station grouping algorithm is presented based on this mathematical model which is used to formulate a traffic flow control optimization problem. The performance of this network is studied by discrete event computer simulation. The results clearly indicate that the proposed multichannel lightwave network exhibits a significant throughput performance improvement over the original (single channel) lightwave network.

S. Z. Guo, B. Quatember

Verteilte und parallele Systeme / Distributed and Parallel Systems

SFB Erlangen-Nürnberg: Multiprozessor- und Netzwekkonfigurationen

Ziele und Aufbau des Sonderforschungsbereichs „Multiprozessor- und Netzwerkkonfigurationen“der Universität Erlangen-Nürnberg

In Publikationen der Deutschen Forschungsgemeinschaft (DFG) heißt es kurz und knapp: „Sonderforschungsbereiche sind langfristig, in der Regel auf die Dauer von 12 bis 15 Jahren angelegte Forschungseinrichtungen, in denen Wissenschaftler im Rahmen fächerübergreifender Forschungsprogramme zusammenarbeiten. Die Hochschulen stellen für Sonderforschungsbereiche eine angemessene personelle und materielle Grundausstattung zur Verfügung; sie sind Antragsteller und Empfänger der Förderung durch die DFG“. [DFG 92, S.22], [St 89, S.V]. Im Zentrum der Bedingungen, welche die DFG als „Auftraggeber“den Hochschulen als „Auftrag- nehmer“stellt, steht die Forderung, ein fachübergreifendes Forschungsprogramm aufzustellen und auszufüllen. Abkürzend spricht man von Interdisziplinarität. Wenn das Forschungsziel festgelegt ist und die personellen und sächlichen Voraussetzungen geklärt sind, ist das Erreichen einer interdisziplinären Forschung die Hauptsorge eines jeden Sonderforschungsbereichs, die im Jahre 1992 auf die stattliche Anzahl von 180 mit einem durchschnitdichen Fördervolumen von zwei Millionen DM angewachsen sind [DFG 92, S.24]. Wer sich langfristig diese Sorge nicht aufbürden will, mag sich im Rahmen der DFG anderen Fördermaßnahmen, wie etwa den Normalverfahren oder den Schwerpunktprogrammen, zuwenden. Die forschungspolitische Zielsetzung der DFG mit ihrem Institut der Sonderforschungsbereiche ist klar: Sie will der fort- schreitenden Zersplitterung der Hochschulfacher und der zunehmenden Unfähigkeit, fachübergreifend zu denken, entgegenwirken. In der Tat: Der Fächerkatalog des Hochschulverbandes umfaßt heute über 4000 Fächer; eine disziplinäre Ordnung dieser Fächer herzustellen, scheint unmöglich zu sein.

H. Wedekind

Das Querschnittsprojekt „MEMSY“ Ein Modulares Erweiterbares Multiprozessor SYstem

Die Erfahrung der Erlanger Informatiker mit Multiprozessoren und Verteilten Systemen umfaßt ein breites Spektrum von Gesichtspunkten, wie Verarbeitungs- und Speichereinheiten, Verbindungsstrukturen, Zerlegung von Anwenderaufgaben in parallel ausführbare Teile, Programmierung praktischer Lösungen der Kommunikations- und Synchronisationsabwicklung, Betriebssysteme für verschiedene Topologien, Messung und Analyse des Ablaufgeschehens, Zusammenhang von Aufgaben bzw. Algorithmenstruktur und erforderlicher Multiprozessorstruktur und Fehlertoleranzaspekte. In diesen umfassenden Rahmen ist die Architektur einer Familie von modular erweiterbaren und konfigurierbaren Multiprozessorsystemen mit breitem Leistungsspektrum realisiert worden. Es sind grundlegende Untersuchungen der „Parallelitat“ in der Systemstruktur, der Kommunikation, der Berechnungsalgorithmen der Anwenderaufgaben, sowie der Leistungsmessung und -bewertung durchgeführt worden.

F. Hofmann

Das Querschnittsprojekt “HEDAS”Heterogene, durchgängige Anwendungssysteme

Im Querschnittsthema „Heterogene, durchgängige Anwendungssysteme (HEDAS)“werden die Forschungsrichtungen von Teilprojekten zusammengefaßt, die vornehmlich Netzwerkarchi- tekturen als Grundlage haben. Es werden zum einen grundlegende Methoden und Forschungsergebnisse über lose gekoppelte Systeme bereitgestellt, zum anderen komplexe Anwendungen exemplarisch realisiert. Derzeit hat sich der CIM-Bereich als Anwendungsschwerpunkt herauskristallisiert. Die dort laufenden Kooperationen erweisen sich in Hinsicht auf die gemischt technisch/planerischen Aufgabenstellungen und ihre praktische Verknüpfung mit den Problemen verschiedener Rechnersysteme auf den einzelnen CIM-Ebenen als besonders reizvoll.

Thomas Ruf

Design and Implementation of Distributed C++

This paper describes the design and the implementation of a distributed C++ prototype. The system enables distributed placement of objects on a set of cooperating, loosely-coupled workstations, location-transparent object invocations, and dynamic object migration. Applications benefit from this approach due to the high level of abstraction concerning inter object communication. Nevertheless, object placement can be explicitly controlled, e.g. to co-locate communicating objects. The prototype has been implemented as a system service on top of Unix and TCP/IP, and in a follow-up version also on top of the OSF Distributed Computing Environment. As opposed to other approaches, it is offered purely as a class library without a need for C++ language extensions or compiler modifications.Recent performance numbers, various experiences gathered with our prototype, and relationships with ongoing projects in the distributed systems department of our institute are discussed, too.

Markus U. Mock, Alexander B. Schill

Managing Failures in Distributed Systems

This paper discusses the problems we experienced with the use of a general purpose distributed operating system. It describes the problems with our approach to system availability, and identifies the major problem that makes the task of improving the availability of a distributed operating system hard to achieve. It then describes a new system service that was developed as a solution to satisfy our needs.

Kwok-Yan Lam, Siu Leung Chung

Konzeptionell strukturierte Verteilte Systeme

Verteilte Systeme sind komplexe, technische Systeme, die mit geeigneten Konzepten und Methoden auf Leistungsfähigkeit und Beherrschbarkeit ausgerichtet konstruiert werden miissen. Wesentliche Voraussetzungen zum Erreichen dieses Ziels sind die Möglichkeiten zur Beschreibung von Systemen auf unterschiedlichen Abstraktionsstufen und zur Strukturierung der Systeme. Zunächst wird die Konstruktion verteilter Systeme mittels Sprach-basierter Ansätze motiviert; die Vor- und Nachteile der wichtigsten Klassen solcher Ansätze werden skizziert. Dann wird eine Programmiersprache vorgestellt, mit der konzeptionell strukturierte Systeme konstruiert werden konnen. Die Bedeutung des Ansätzes als Bindeglied in der Abstraktionshierarchie für Systemkonstruktionen von den Anwendungsanforderungen bis zur Realisierung auf Hardware- Konfigurationen wird erklärt. Die Nutzung der Strukturierungskonzepte der Sprache zur effizienten Ressourcenverwaltung wird am Beispiel der Speicherverwaltung erläutert.

P. P. Spies, C. Eckert, D. Marek, H.-M. Windisch

Schwerpunktprogramm Informatikforschung des Schweizer Nationalfonds: Massive parallele Systeme

Im November 1992 begannen die Forschungsarbeiten im Schwerpunktprogramm Informatikforschung (SPP IF) des Schweizerischen Nationalfonds zur Förderung der wissenschaftlichen Forschung. Gemäss Ausführungsplan erfolgt die Forschung in diei Modulen (prioritäre Teilbereiche): sichere komplexe Systeme, wissensbasierte Systeme, massiv parallele Systeme. Die Forschung wird an mehreren schweizerischen Hochschulen und teilweise in der Privatwirt- schaft ausgeführt In diesem Kurzbeitrag wird iiber das letzt genannte Modul 3 berichtet.

Helmar Burkhart

Tupelorientiertes Programmieren am Beispiel von YAPPE

In diesem Beitrag stellen wir eine tupelorientierte Programmierumgebung für Parallelrechner vor. YAPPE ist eine Umgebung, welche auf dem virtuellen Maschinenmodell Linda basiert. Wir präsentieren neben der Motivation für unseren Ansatz auch die Architektur von YAPPE, sowie den theoretischen Hintergrund dieser Arbeit, welcher sich auf BAKS, das Basler Algorithmen Klassifikations Schema stützt. Den Schluß bilden zwei Beispielprogramme, welche einen Einblick in die Programmierung mit YAPPE vermitteln sollen.

Jean-Daniel Pouget, Helmar Burkhart

High Performance Computing Applications for Industrial Embedded Systems

The prime objective of the ESPRIT Project 6290 HAMLET is to provide the technology required to enable European industry to develop innovative products required by their markets using High Performance Computing in the fields of pattern recognition, image generation, and in other real-time/time-critical applications. These products will significantly increase the competitiveness in the global market. The HAMLET project brings together major industrial product suppliers with major technology suppliers to work together on technology and application development.The project is driven by the industrial applications. They formulate the detailed application development system and hardware architecture requirements. By building on existing developments the technology providers initially deliver an appropriate application development system. It is then upgraded by a series of incremental developments. This report describes the progress midway through the project.

Joachim K. Irion

Automatic Parallelization for Distributed-Memory Systems: Experiences and Current Research

Distributed-memory systems (DMMPs) are powerful tools for solving large-scale scientific and engineering problems. However, these machines are difficult to program since the data must be distributed across the processors and message-passing operations must be inserted for communicating non-local data. In this paper, we discuss the automatic parallelization of Fortran programs for DMMPs, based on the programming paradigms associated with Vienna Fortran and High Performance Fortran. After introducing the state of the art, as represented by currently implemented systems, we will identify a number of limitations of this technology. In addition to insufficient functionality for handling many real applications, a major deficiency of current systems is the lack of intelligence in selecting good transformation strategies. We argue that a knowledge-based approach to compiling will contribute to more powerful and intelligent automatic parallelization systems in the future.

Hans P. Zima, Peter Brezany, Barbara M. Chapman, Jan Hulman

Werkzeuge und Methoden / Tools and Methods

SFB München: Werkzeuge und Methoden für die Nutzung paralleler Rechnerarchitekturen

Methods and Tools for the Use of Parallel Computer Architectures

Main goal of the research group “Methods and Tools for the Use of Parallel Computer Architectures” is the development of techniques for the efficient use of existing parallel architectures for a number of applications. The research activities are described in the following four papers. This first paper gives an overview on the research goals and the working plan, whereas the three following papers cover particular areas of interest such as a very high level programming language, heuristical methods for parallel computation and low and high level tools for program development. This work is sponsored by the German Science Foundation under contract number SFB342.

A. Bode

HOPSA — a High-level Programming Language for Parallel Computations

The use of massive parallel computer architectures for the solution of computation intensive tasks requires specific programming concepts and thus makes programming more difficult. This is because the parallel execution and the particular properties of the chosen machine architecture must be taken into consideration. An abstract programming language more closely reflecting the specification notation is therefore desirable. Programs written in this language should allow a translation into efficient code for massive parallel computers. In that connection, one may ask: which aspects of parallel programming should be treated explicitly in the source code, and which aspects (like load balancing, parallelization and process administration) should be generated by a translator with certain analyzing capabilities. Our long term goal is the implementation of such a language based, for example, on the operating system MMK, Multitasking Multiprocessing Kernel, which has been developed at the Technische Universität München.

Manfred Broy, Claus Dendorfer, Ketil Stølen

HEUROPA Heuristic Optimization of Parallel Computations

The performance of almost all parallel algorithms and systems can be improved by the use of heuristics that affect the parallel execution. However, since optimal guidance usually depends on many different influences, establishing such heuristics is often difficult. Due to the importance of heuristics for optimizing parallel execution, and the similarity of the problems that arise for establishing such heuristics, the HEUROPA activity was founded to attack these problems in a uniform way. To overcome the difficulties of specifying heuristics by hand, machine learning techniques have been employed to obtain heuristics automatically. This paper presents the general approach used for learning heuristics, describes the applications arising in the various subprojects, and provides a detailed case study using the approach for a particular application.

Christian B. Suttner, Christoph Goller

UPAS — Universally Programmable Architecture and Basic Software

The aim of UPAS is to provide a common programming model and programming environment for the project partners within the SFB. Based on the MMK message passing library several tools have been developed to support programming parallel computers. Interactive tools for debugging, performance analysis and visualization and an automatic tool for load balancing were implemented and tested. Experiences from users revealed issues of improvement that have to be considered in future research. Additional flexibility and performance is provided by an adaptation of the programming environment to workstation nets.

Thomas Ludwig

A Formalization of a Hierarchical Model for RISC Processors

Since microprocessors are used in many areas of real-time control, the use of formal methods provides an alternative approach for achieving high reliability. In this paper, a methodology based on a hierarchical model of interpreters is presented for formalizing RISCs in general. The abstraction levels used by a designer in the implementation of RISCs, namely the instruction set level, the pipeline stage level, the phase level and the hardware implementation, are mirrored by this hierarchical model. Hence the informal specifications given by the user, at each level of abstraction, can be easily converted into a formal specification, in higher order logic. Such a model is of great use in formal verification and also synthesis using transformational reasoning.

Sofiène Tahar, Ramayya Kumar

Ein neuer Ansatz für den integrierten Entwurf komplexer heterogener Systeme

Heute verbreitete Hardwarebeschreibungs- oder Programmiersprachen wie VHDL oder C sind als alleinige Beschreibungsmittel für den Entwurfsprozeß, ausgehend von einer Spezifikation auf der Systemebene, der höchsten Abstraktionsebene im Y-Diagramm, ungeeignet. Die Komplexität und Heterogenität moderner rechnerbasierter Systeme, die aus Hardware in unterschiedlichen Technologien sowie Software bzw. Firmware bestehen, erfordern neue Vorgehensweisen bei der Spezifikation, dem Entwurf und der Analyse solcher Systeme als Ganzes bzw. ihrer Teilsysteme. Dafür wird eine Methodik vorgestellt. Auf der Basis eines Modells für die Systembeschreibung in den verschiedenen Entwurfsphasen erfolgt die Nutzung bzw. Integration geeigneter CASE- und EDA-Werkzeuge. Dabei werden vorrangig grafische Beschreibungsmittel sowie die Sprachen SDL, VHDL und C verwendet. Die Methodik wird an einem Beispiel illustriert.

Stefan Kahlert, Dieter Monjau

Software-Roboter Aufzeichnen und Wiedergeben von Benutzereingaben bei interaktiven Programmen

Die Realität zeigt: Software unterliegt Änderungen. Jede Veränderung kann Fehler in bisher korrekten Teilen verursachen. Mit den Ansprüchen an die Software-Qualität steigt der Aufwand für den Test von Software-Produkten. Tests nach Veranderungen dürfen sich nicht nur eng auf die modifizierten Stellen beschränken, sie müssen auch die “Umgebung” berücksichtigen und frühere Testfälle miteinbeziehen.Einfach zu erreichende — mechanisierte/automatisierte — Reproduzierbarkeit bei Testläufen bewirkt Produktivitätssteigerungen in der Debug- und Testphase. Neben einer Kostenreduktion bei Regressionstests können Software-Hersteller Oder Prüfinstitutionen mit reproduzierbaren Testläufen Nachweis führen über Art und Umfang ihrer Testprozeduren.Der Software-Roboter führt “mechanisch” fixierte Testläufe durch. Diese entstehen durch Aufzeichnen der Eingabesequenz und der Programm-Reaktionen bei einer Beispielsitzung mit dem zu testenden Programm. Dabei darf die Aufzeichung den Dialog nicht beeinflussen. Bei der Testwiederholung erhält das Kandidaten-Programm die mitgeschnittene Eingabesequenz identisch (inklusive aller Tippfehler) zugespielt. Der Software-Roboter ermöglicht es Software-Testern, die Reihenfolge der gedrückten Tasten beliebig oft in verschiedenen Testläufen identisch zu wiederholen.Besonderes Design-Ziel beim Entwurf des Software-Roboters für reproduzierbare Testläufe in einer UNIX-Umgebung war es, alle Aktionen auf einem einzelnen Host, ohne zusätzliche Hardware und möglichst an einer Terminal-Schnittstelle durchführen zu können. Speziell Programme, die interaktiv und bildschirmorientiert arbeiten, stellen hierbei erhöhte Anforderungen an den Kommunikations-Mechanismus.Neben technischen Details beim Implementieren des Software-Roboters, soil eine Kommandosprache, die über den schlichten Eingabedaten definiert ist, zur Diskussion stehen.

Bernd Waldbauer

Backmatter

Weitere Informationen