Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

Hauptvortrag

Über die Grenzen der Einsicht im Computerwesen

Hauptvortrag
Zusammenfassung
Grenzen sind heute nur noch bedingt scharfe Linien; immer mehr sind sie Übergänge mit Grauzonen oder mit allmählicher Transformation. Mitunter muß man Grenzen als Gebiete verstehen, in denen man einen Aspekt nur im Tausch gegen einen anderen verbessern kann. Das kommt von der Verfeinerung unserer Beobachtung und Einsicht, von der Klein-heit unserer Vorrichtungen in Raum und Zeit. Von den harten Grenzen hatte man sich noch jene abschließende perfekte Erkenntnis und Ordnung versprochen, welche der Physik und der Technik eine gewisse Überheb-lichkeit suggerierten. Die weichen Grenzen geben uns das Bewußtsein von Unzulänglichkeit und Unterinformiertheit zurück, welches im vortechnischen Zeitalter für normal angesehen wurde und nun, am Ende des 20. Jahrhunderts, zu Bescheidenheit und Besinnung mahnt. Das hat nichts mit Kulturpessimismus zu tun oder mit einer Verteufelung der Technik, welche vorwiegend von Leuten betrieben wird, die wenig Einsicht haben und unreflektierten Gebrauch von der Technik machen. Noch vor zwanzig Jahren war es ein wirksamer Scherz, den technischen Direktor einer großen Glühlampenfirma nach den Plänen für eine allge-meine Alpenbeleuchtung zu fragen — heute klänge es nach den üblichen Übertreibungen eines grünen Parteiblatts. Die Alpen lassen sich so wenig ausleuchten wie ein technisch-wissenschaftliches Gelände. Selbst die Informatik, ein Fachgebiet auf solidester logischer Basis, hat ihre Dunkelbezirke, und es ist eine ebenso legale wie nützliche Aufgabe, sich mit den Grenzen der Einsicht in ihren Bereichen aus-einanderzusetzen.
Heinz Zemanek

Neue Rechnerstrukturen

Tree Computers

A Survey and Implications for Practise
Abstract
The tree computer is a particular model of a highly parallel general — purpose computer, designed for very fast computations. We emphasise that a realistic model is needed both for reliable predictions about the behaviour of real machines and for investigations into efficient algorithms. With this background we shall interpret theoretical results with respect to the practical use of tree computers.
Wolfgang Wöst

Lastverteilung in Eng Gekoppelten Mehrrechnersystemen mit Beschränkter Nachbarschaft

Kurzfassung
Es werden Möglichkeiten zur Abbildung von parallelisierbaren Aufgaben auf spezielle eng gekoppelte Mehrrechnersysteme mit beschränkter Nachbarschaft untersucht. Dabei geht es vor allem urn bequeme Nutzung großer Systeme. Die Aufgaben werden dazu in Tasks zer-legbar angenommen, die wie die Knoten eines vollständigen binären Baumes verknüpft sind. Die Gesamtlast der Tasks einer Höne des Baumes soil von Höne zu Höne urn einen Faktor c > 1 wachsen. Als reale Systeme werden 2-dimensionale Gitter von Prozessoren mit ge-eigneten Randverbindungen benutzt. Zunächst werden die beiden Tasks, die von einer Task gestartet werden, den Prozessoren zugeordnet, die längs der beiden Gitterrichtungen als nächste erreichbar sind. Dabei zerfällt das reale System in eine Anzahl h gleich-großer Bereiche, welchen die Lasten der einzelnen Höhen des Baumes zyklisch zugeordnet werden. Der optimale Speedup p/r bei p Prozessoren und konstanter Redundanz r kann nur für h = 1 durch hinreichend große Aufgaben näherungsweise erreicht werden. Die kritische Mindesthöhe n des Baumes, die hierfür nötig ist, wächst bei steigendem p mit p2. Für ein verbessertes Verfahren wächst sie wesentlich langsamer.
Hermann Mierendorff

Schnelligkeit

The Cyberplus Multiparallel Processor System

Abstract
The CYBERPLUS multiparallel processor is the first in a series of multiparallel processors from Control Data Corporation. The CYBERPLUS processor provides a high-speed scalar capability for scientific and business applications. Expanded system performance may be achieved by adding up to 63 additional CYBERPLUS processors.
W. A. Ray

Ein Signalprozessor mit Wirt-Gast-Kopplung Über Gemeinsame Speicherbereiche

Zusammenfassung
Eine Rechenanlage zur Echtzeitsignalverarbeitung besteht aus einem Vektorrechenwerk mit Speicher (Signalprozessor), einem universellen Steuerrechner und einer Kopplungsschnittstelle. Bei kleinen Signal-verarbeitungsanlagen auf Mikroprozessorbasis, die hier betrachtet werden, ist die Kopplung zwischen Steuerrechner und Signalprozessor meist als DMA-Interface realisiert. In Zeiten der DMA-Datenübertragung befinden sich Steuerrechner und Signalprozessor im Wartezustand. Mit dem hier vorgestellten 16 Bit Festkomma Signalprozessor soil verdeut-licht werden, daß eine Kopplung über gemeinsame Speicherbereiche an Stelle des DMA-Interface die Wartezeiten des Signalprozessors vermei-det und damit zur Erhöhung des Durchsatzes beiträgt. Bei der Kopplung uber gemeinsame Speicherbereiche (shared memory) werden Teile des Sig-nalprozessorspeichers abwechselnd für den Zugriff vom Steuerrechner Oder vom Signalprozessor freigegeben. Die komplexe 1024 Punkte FFT wird in 2 msec berechnet. Die Zykluszeit beträgt 100 nsec. Als Steuerrechner dient ein Motorola 68000 System. Auf dem Signalprozessor sollen neue Algorithmen der digitalen Signalverarbeitung realisiert werden.
Peter Strobach, Ulrich Appel

Leistungsfähigkeit von Mehrprozessorsystemen mit iAPX 432-Prozessoren, Kreuzschienenverteiler und Pufferspeichern

Zusammenfassung
In dem vorliegenden Beitrag wird die Leistungsfähigkeit von Mehrprozessorsystemen mit Prozessoren des Typs INTEL iAPX 432 quantitativ bewertet. Die Leistungsbewertungen basieren auf Simulationen der Programm- und Organisationsabläufe, die bei objektori-entierter und nebenläufiger Verarbeitung zwischen Verarbeitungseinheiten und Arbeits-speicher auf der Maschinenbefehlsebene zu beobachten sind.
Im Mittelpunkt der nachfolgend erläuterten Untersuchungen stehen zunächst Analysen, die sich mit der Effizienz von Kreuzschienenkoppelwerken (“crossbars”) zur Verbindung der Prozessoren mit einem gemeinsamen Hauptspeicher befassen. Anschließend wird analysiert, in welchem Maße durch Einführung lokaler Daten- und Befehlspuffer (“cache memories”) je Prozessor die Zahl der Zugriffskonflikte im Kreuzschienenkoppelwerk verringert und der Befehlsdurchsatz als Folge davon gesteigert werden kann. Die Analysen erstrecken sich dabei hauptsächlich auf Abhängigkeiten der Systemleistung von der Zahl der Prozessoren, der Dimensionierung und Verwaltung der Pufferspeicher sowie der Hauptspeichermodularisierung unter Berücksichtigung des Adressierungsverhaltens der ablaufenden Prozesse.
Werner Hoffmann, Axel Lehmann

Eine Architektur für Höchstleistungsrechner mit Cache-Speicher

Zusammenfassung
Der Beitrag beschätigt sich mit einer neuartigen Klasse von IBM/370 kompatiblen Rech-nern. Die Architektur kombiniert bekannte Ansätze zur Leistungssteigerung von Rechen-systemen: Pufferspeicher als oberste Ebene der Speicherhierarchie, Pipelining der Aus-führung der Befehle eines Prozesses und gleichzeitige Bearbeitung mehrerer Prozesse. Die Komponenten dieses Pipeline Mehrprozessor Rechners mit Cache und ihre Kooperation werden detailliert beschrieben. Zur Bewertung der Leistung des Systems wird ein parame-trisiertes Simulationsmodell benutzt.
U. Hollberg, P. P. Spies

DB-Cache für UDS

Zusammenfassung
Es wird über die Implementierung eines neuen Recoveryverfahrens für das Datenbanksystem UDS (= Universelles Datenbanksystem) berichtet. Als Ausgangspunkt wurde das DB-Cache-Verfahren (1) gewählt. Die Implementierung erfolgt(e) in 3 Stufen (Simulationsprogramm, Prototyp, Produktversion). Die Ergebnisse der beiden ersten Stufen und die Erfahrungen mit der Vorgehensweise werden vorgestellt.
K. Unterauer

Systemkonzepte I

Instrumentenrechner für Interplanetare Missionen

Zusammenfassung
Raumsonden ermöglichen „in-situ“-Messungen im interplanetaren Raum sowie in der Magnetosphäre, Atmosphäre und auf der Oberfläche der Planeten, Monde, Asteroiden und Kometen. Eine Sonde ist typisch mit etwa 10 Meß- und Beobachtungsinstrumenten bestückt, die über das Telemetriesystem mit einer Erdstation kommunizieren. Die Datenrate ist abhängig von der Sendeleistung, dem Gewinn der beiden Antennen, dem Quadrat der Entfernung und der Rauschtemperatur des Empfängers, außerdem bei Sonden, die in eine Atmosphäre eindringen, noch von deren Dämpfung. Typische Datenraten für Sonden im inneren Sonnensystem bis zur Jupiterbahn liegen zwischen 10 und 100 Kbps /1-2/. Bei Atmosphärensonden sind die Verhältnisse wegen der Rundstrahlcharakteristik der Antenne und der starken Dämpfung in dichter Atmosphäre viel ungünstiger. Typische Datenraten liegen bei 100 bps (PIONEER VENUS PROBE zur Erde, GALILEO PROBE zum GALILEO ORBITER /3, 4/).
F. Gliem

Anforderungen an Zukünftige Strukturen von Betriebssystemen am Beispiel der Weiterentwicklung des BS2000

Abstract
General purpose operating systems have to be open with respect to evolution and varying configurations of software, hardware and data. Therefrom requirements arise for system structures which turn out to be not completely covered by the traditionally widely accepted concepts for system structuring e.g. as “Information Hiding” and “Uses Hierarchy”. Enhanced structuring concepts are discussed as well as the way of applying them to the operating system BS2000.
H. Meißner, H. Stiegler

Funktionsorientierte Hardware für Datenbanksysteme

Zusammenfassung
Datenbanksysteme bilden eine immer stärker an Bedeutung zunehmende Komponente im Bereich der nichtnumerischen Datenverarbeitung. Im kommerziellen Bereich werden sie heute hauptsächlich zusammen mit anderen Aufgaben auf Universalrechnern betrieben, woraus sich eine Reihe von Nachteilen ergibt. Datenbankmaschinen, d.h. Spezialrechner mit einer aufgabenorientierten Struktur, können vor allem bei sehr großen Datenbank-systemen eine Lösung der Probleme darstellen. Es werden verschiedene im Laufe der Entwicklung von Datenbankmaschinen angewandte Strukturprinzipien aufgezeigt und abschließend die Relationale Datenbankmaschine RDBM vorgestellt, die z.Zt. an der TU Braunschweig implementiert wird.
H. Ch. Zeidler

Höchst-integrierte Rechensysteme für CAE Arbeitsplatz Netzwerke

Zusammenfassung
Unter dem Überbegriff CAE (Computer-Aided Engineering) soll im folgenden das weite Feld rechnerunterstützter, wenigstens teilweise i n — teraktiverTätigkeiten von Ingenieuren und Wissenschaftlern vereint sein.
Helmut Schäfer

MICON — Ein Bausteinsystem für freikonfigurierbare Rechnernetze

Zusammenfassung
MICON ermöglicht den Aufbau von Rechnernetzen, die in Hard- und Software weitgehend frei konfiguriert werden können. Der Entwurf eines Rechnernetzes geschieht einerseits in der Netzebene, wo Rechnerknoten in beliebiger Zahl und Weise miteinander vernetzt werden können, und andererseits im einzelnen Knoten, der bezüglich Prozes-sorzahl und Speicher ausbaubar ist. In diesem Überblick werden die Bausteine und das Betriebssystem beschrieben und besondere Eigenschaften wie die automatische Systemgenerierung und die on-line-Konfigurierbarkeit vorgestellt.
H. von Issendorff

Systemkonzepte II

Multiprozessoren für Breite Anwendungsbereiche: Erlangen General Purpose Array

Zusammenfassung
Es wurde eine Elementarpyramide aus 1 + 4 Prozeßrechnern aufgebaut und betrieben. Sie wurde mit Sonderhardware und geeigneten Mikroprogrammen für die in Erlangen entwickelte Vertikalverarbeitung als Form der Assoziativ-Verarbeitung ausgestattet, sowie mit Kommunikationshardware und Instrumentierung versehen.
Das für den Monoprozessor vorhandene Betriebssystem wurde so modifiziert, daß es — in lokale und globale Dienste zerlegt — für das Multiprozessor-System geeignet war. Die Programmiersprache EGFORT (EGPA- FORTRAN) wurde um das der Assoziativ-Verarbeitung zugrundeliegende Mengenkonzept erweitert. Für die Programmerstellung, Verteilung von Programmen und Daten und zur Ablaufsteuerung wurden elementare und höhere Hilfsmittel entwickelt. Auf der nunmehr mit allen notwendigen Voraussetzungen versehenen Anlage wurde eine Reihe typischer Anwendungen implementiert und bewertet. Die Erfahrungen, die beim Aufbau und Betrieb sowie bei der Anwendung und Bewertung des Pilot-Rechensystems gewonnen wurden, sind eine wesentliche Grundlage für den Entwurf eines größeren Multiprozessorsystems.
Insgesamt lassen die Ergebnisse des Projektes den Schluß zu, daß der in Erlangen beschrittene Weg eine Alternative zum traditionellen Monoprozessor darstellt.
W. Händler, U. Herzog, F. Hofmann, H. J. Schneider

Ein Integriertes System zur Auftrags-, Produktions-und Versandsteuerung von Aggregaten

Zusammenfassung
Im Werk Untertürkheim fertigt die Daimler-Benz AG Motoren, Getriebe und Achsen, insbesondere für PKW’s. Die in den Nachkriegsjahren auf-gebauten Bereiche
  • Motorenmontage
  • Motorenprüffeld
  • Motorenendmontage
  • Motorenversand
wurden bedarfsabhängig den gestiegenen Anforderungen soweit wie möglich durch zusätzliche technische Einrichtungen angepaßt. Die Kapazität der Anlagen näherte sich Mitte der 70er Jahre der Grenze der Erweiterungs-möglichkeiten. Außerdem entsprachen die Fertigungseinrichtungen nicht mehr dem Stand der Technik und nicht mehr den gestiegenen Anforderungen in bezug auf humane Arbeitsplätze.
Günter Jahn, Friedrich Ungnadner

Rechnergestütztes Krankenhauskommunikations- und Steuerungssystem: Verfügbarkeits- und Leistungsanforderungen

Zusammenfassung
Im Zentralklinikum Augsburg, einem neuerbauten Großkrankenhaus der Maximalversorgung, wird neben der EDV-gestützten Abwicklung nahezu aller betrieblichen Grundfunktionen auch die Anforderung diagnostischer und therapeutischer Leistungen, die Planung ihrer Durchführung sowie die Befund- und Leistungserfassung einschließlich der Ergebnisübermittlung über ein Terminalnetz von insgesamt 128 Datensichtgeräten und 65 Matrixdruckern durchgeführt. Dahinter stehenein fehlertolerierendes zentrales Mehrrechnersystem von sieben Prozessoren sowie eine ebenfalls redundant ausgelegte Patientendatenbank. Ferner besteht ein Rechnerverbund mit drei dedizierten Rechnersystemen in diagnostischen Spezialbereichen, von denen zwei ebenfalls als Doppelrechner inclusive doppelter Datenhaltung ausgelegt wurden.
Es wird auf das Systemkonzept, die besonderen Anforderungen hinsichtlich Verfügbarkeit, Antwortzeitverhalten und Systemausbau im laufenden Betrieb eingegangen. Dabei zeigt sich, daß die hier gestellten extremen Anforderungen (“Non Stop”) weniger durch die Abwendung objektiv bedrohlicher Ausfallsituationen von bis zu einigen Minuten Dauer zu rechtfertigen sind als vielmehr durch die notwendige Sicherheit, vor Rückgriffen auf konventionelle Organisationsmittel einschließlich zeitaufwendiger Nacharbeiten geschützt zu sein.
Schließlich ist in einer Zeit zunehmend kritischer Beurteilung technischer — insbesondere computerisierter — Hilfsmittel im Großkrankenhaus ein damit verbundener wachsender Anspruch hinsichtlich Zuverlässigkeit, Reaktionsgeschwindigkeit und Benutzerfreundlichkeit zu beobachten.
E. Wilde

Das System CTM9032 — ein leistungsfähiger Verbund intelligenter Bildschirmarbeitsplätze

Zusammenfassung
Das System CTM9032 steht am oberen Ende des Leistungsspektrums der von CTM angebotenen Systeme für kommerzielle Anwendungen. Sowohl die Hardware als auch die gesamte Systemsoftware sind im eigenen Hause entwickelt worden. Als Entwicklungsvorgabe wurden an die Eigenschaften des Systems folgende Forderungen gestellt:
  • Das System soll realistisch deutlich mehr als 30 Dialogarbeitsplätze bedienen können.
  • Der Anschluß zusätzlicher Arbeitsplätze soll möglichst ohne Verschlechterung der Anwortzeit der bestehenden Arbeitsplätze erfolgen können.
  • Der Anschluß von Peripheriegeräten direkt an den Arbeitsplätzen soll möglich sein.
  • Um ein günstiges Preis/Leistungsverhältnis zu erzielen, soll das System auf der Basis einer nicht zu aufwendigen Hardwaréarchitektur realisiert werden.
  • Die Antwortzeiten des Systems sollen von der Systemauslastung weitgehend unabhängig sein.
Gerade die letzte Forderung ist für den Einsatz im kommerziellen Bereich von wesentlicher Bedeutung. Hier werden die meisten Arbeiten im reinen Dialogbetrieb ausgeführt, d.h. es werden Texte editiert, Belege erfaßt, Lagerbestände verwaltet etc.
D. Krause

Das fehlertolerante DELTA-System

Zusammenfassung
Das fehlertolerante Informationssystem DELTA basiert auf den beiden Industriestandards UNIXTM und MC68000TM.
Das Betriebssystem DELTA-PPX ist eine kompatible Weiterentwicklung von UNIX-System-III. Neben der Multiprocessorfähigkeit, die eine modulare Leistungssteigerung erlaubt, wird von DELTA-PPX der fehlertolerante Betrieb des Systems sichergestellt. Die Hardware basiert auf Mikroprocessoren der Familie MC68000 der Firma Motorola. Mehrere Processoren mit dedizierten Funktionen werden zu einem Cluster zusammengeschaltet. Zwei oder mehrere dieser Cluster bilden ein DELTA in dem jeder Cluster eine autonome Verarbeitungseinheit darstellt. Der Ausfall eines Clusters beeinflußt nicht die Verfügbarkeit des Gesamtsystems und die auf diesem Cluster ablaufenden Programme werden fortgesetzt.
Wolfgang Blau, Karl May, Claus Schirmer

Peripherieanschluß über Vorprozessoren Auswirkungen auf die Struktur und das Verhalten von HW-/SW-Systemen / Connection of peripherals via pre-processors Influence on structure and behaviour of HW-/SW systems

Summary
The present report describes how the connection of peripherals via preprocessors influences the characteristics of HW-/SW systems. It shows the division of tasks between the central processing unit and the peripherals. It analyzes how the communication with a pre-processor can be implemented and which possibilities and difficulties result therefrom.
D. Schölzke

Fehlertoleranz I

Zuverlässigkeit von DV-Systemen — Eine Systemtechnische Aufgabe

Zusammenfassung
Der Einsatz von DV-Systemen in technischen Bereichen, in denen hohe Anforderungen an Zuverlässigkeit und Sicherheit gestellt werden, erfordert eine Reihe gezielter technischer und organisatorischer Maßnahmen in der Entwicklung und im Betrieb. So können spezielle Architekturen der Rechner-Hardware und Verfahren im Aufbau der Software das Auftreten von Fehlern reduzieren, das Auffinden von Fehlern erleichtern und die Funktionstüchtigkeit des Systems bei An-wesenheit von Fehlern aufrechterhalten. Durch analytische Verfahren wie systematisches Testen und durch gesondertes Management zur Qualitätssicherung soil Zuverlässigkeit nachgewiesen und durchgesetzt werden. Es wird ein umfassender Oberblick über den Stand der Technik gegeben.
H. Trauboth

Ein Transaktionskonzept für ein Betriebssystem mit Virtuellem Speicher

Zusammenfassung
Das beschriebene Transaktionskonzept ist gekoppelt mit der Realisierung des virtuellen Speichers und steht im Gegensatz zum Verfahren der “before images” (s./GRA 78/), bei dem die Rlicksetzbarkeit von Transaktionen durch Sichern einer Seite vor dem Ändern erreicht wird.
Im beschriebenen Konzept werden jeder Seite des virtuellen Speichers 2 Abbilder auf dem Seitenspeicher zugeordnet (vgl. /REU 80/, /LOR 77/), die abwechselnd zur Aufnahme des aktuellen Seitenzustands und des Seitenzustands am Beginn einer Transaktion dienen. Neben dem Speicheraufwand ergibt sich der Laufzeitaufwand durch das notwendige Durchschreiben aller geänderten Seiten bei Transaktionsende. Dieser Aufwand kann sich folgendermaßen reduzieren:
(1)
Seiten, die bereits im Zuge des normalen Seitentausches auf den Seitenspeicher zurückgeschrieben wurden, brauchen (falls sie nicht erneut verändert wurden) bei Transaktionsende nicht mehr durchgeschrieben werden.
 
(2)
Bei freier Kapazität des Seitenspeicherkanals können modifizierte Seiten vorsorglich zurückgeschrieben werden.
 
Das Rücksetzen einer einzelnen Transaktion und die Systemrekonstruktion nach einem Systemzusammenbruch erfordern ein Minimum an Seitenspeicherzugriffen.
W. Ballin, E. Vogel

Kurze Ausfälle Tolerierende Rechensysteme

Zusammenfassung
Aus den Zuverlässigkeitskenngrößen von Rechensystemen, die keine kurzzeitigen Ausfälle tolerieren, werden die entsprechenden Größen solcher Systeme hergeleitet, deren Betrieb etwa nach einem Teilausfall eine Zeitlang aufrechterhalten wird. In gleicher Weise werden Systeme untersucht, deren kurze Betriebsdauern nicht zur Nutzungszeit gerechnet werden können. Beide Betrachtungsweisen werden abschließend zu einem Modell vereinigt. Der Vergleich der verschiedenen Kenngrößen zeigt die Auswirkung der Fehlertoleranz auf die Betriebsdauer, die Verfügbarkeit und die Nutzbarkeit von Rechnern und gibt Aufschluß über die Effektivität vorsorglicher Redundanz für die Architektur von Rechensystemen.
K. Heidtmann

Fehlermaskierende Verteilte Systeme zur Erfüllung Hoher Zuverlässigkeits-Anforderugen in Prozessrechner-Netzen

Kurzfassung
Bestehen in Prozeβrechensystemen gleichzeitig hohe Zuverlässigkeits-und Reaktionszeit-Anforderungen, so kommen häufig statische Redundanz-Verfahren (bzw. Hybridredundanz) zum Einsatz. Ihre Vorteile hinsichtlich Diagnostizierbarkeit von transienten Fehlern und Wegfall von Rücksetz- und Wiederanlaufzeiten werden durch die Vervielfachung (i.a. Verdreifachung) der Verarbeitungseinheiten erkauft. Unglücklicherweise belasten in Rechnernetzen die statischen Redundanz-Verfahren die teuren Kommunikationssysteme sogar mit der neunfachen Anzahl redundanter Nachrichten. Dies führt i.a. zur Entwicklung spezieller leistungsfähiger Kommunikationssysteme.
Das hier beschriebene Verfahren geht den umgekehrten Weg: Durch die Entwicklung eines speziellen Fehlertoleranz-Verfahrens, das auf Hybridredundanz beruht, wird die Belastung der Kommunikationssysteme auf etwa 1/3 gesenkt. Statt erhöhter Transferraten wird vom Kommunikationssystem eine bestimmte Strategie bei der Festlegung der Transferprioritäten gefordert.
Die Besonderheit des Fehlertoleranz-Verfahrens liegt darin, daß die fehlermaskierenden Instanzen nicht verdreifacht, sondern als verteilte Systeme implementiert sind, welche ein effizientes fehlertolerantes Protokoll ausführen. Neben der Maskierung können noch Optimierungsentscheidungen zum Transfer redundanter Nachrichten getroffen werden. Die Re-/Konfigurierung der drei Knoten eines Maskierungs-Systems entsprechend einer 2:1-Aufteilung in Rechnergruppen ermöglicht außerdem die Tolerierung von Mehrfachfehlern, die sich auf Rechnergruppen beschränken.
Diese Arbeit schließt mit der Nennung einiger Ergebnisse einer umfangreichen quantitativen Bewertung, die sich auf die SIRAM-Fehlermodellierung und die Anwendung des SIRAM-Simulators stützt.
Klaus Echtle

Synchron-Duplex-Rechner

Zusammenfassung
Schon lange wird versucht, durch Einsatz von doppelter oder mehrfacher Hardware mit spezieller Software Rechnersysteme hoher Verfügbarkeit zu schaffen. Im Bereich der Prozeßrechner-Anwendungen mit Echtzeitbedingungen und parallelen Aufgaben konnten diese Einzellösungen nicht befriedigen. Hier wird nun ein neues Konzept vorgestellt, bei dem zwei gleiche Rechner mittels Hardware und Firmware streng synchronisiert werden. Das gesamte Duplex-Verhalten mit Synchronisierung, Fehlerbehandlung und Wiederanlauf kann als fertige Standardlösung angeboten werden, die die Anwendersoftware unberührtläßt.
Christoph Schmees-van Zadelhoff

Fehlertoleranz II

The Problem of Confidence in Fault-Tolerant Computer Design

Abstract
The use of fault-tolerant design to increase the reliability of computer systems is widely accepted. For highly critical applications, the level of confidence that may be assigned to predictions of the reliability of such systems is limited by many factors, including uncertainty in assumed fault types, limitations in the verifiability of hardware and software designs, inadequate models for the causes and effects of design errors, imperfect testability of physical implementations, and inadequate consideration of the effects of human error. New techniques for specification, design and analysis are being developed, but research and development must be accelerated to keep up with the rapid pace of increasing device and system complexity. Better integration of life-cycle considerations is needed to adapt systems to actual fault conditions, and to achieve reliable and efficient interaction with operators and maintenance persons.
Jack Goldberg

Festlegung des Ortes und Umfangs von Rücksetzpunkten in Prozeβ-Systemen bei der Übersetzung und Berücksichtigung der Programm-Redundanz zur Ausnahmebehandlung

Zusammenfassung
Orte und Umfang von Rücksetzpunkten in kooperierende Prozesse umfassenden Programmen bei der Übersetzung automatisch festzulegen, wird motiviert. Die Verfahren zur Rücksetzpunkterstellung werden klassifiziert. Die den Domino-Effekt ohne zentrale Instanz vermeidende und nur höchstens einen Rücksetzpunkt pro Prozeβ erzeugende Klasse erscheint besonders geeignet. Als Beispiel wird ein Algorithmus zur Festlegung von Rücksetzpunkten in über Rendezvous kooperierenden Prozeβ-Systemen entwickelt.
Die zur Software-Fehlertoleranz in einem Anwendungs-Programm enthaltene Redundanz in der Form von Ausnahmebehandlern zur Vorwärts-Fehlerbehebung kann genutzt werden, urn die Zuverlässigkeit der Ausführung des Anwendungs-Programms zu erhöhen. Dazu werden am Beispiel der Programmiersprache ADATM Möglichkeiten diskutiert, durch Rücksetzen des Anwendungs-Programms nicht behandelbare Grundsystem-Fehler an das Anwendungs-Programm weiterzugeben. Die Heitergabe an den Ausnahmebehandler für OTHERS eines in ADA geschriebenen Anwendungs-Programms erscheint angebracht. Aufwand und Nutzen der entwickelten Verfahren werden bewertet. Die Weitergabe von durch Rücksetzen des Anwendungs-Programms nicht behandelbaren Grundsystem-Fehlern an die zur Software-Fehlertoleranz vorhandene Vorwärts-Fehlerbehebung des Anwendungs-Programms verbessert die Zuverlässigkeit der Ausführung des Anwendungs-Programms deutlich, ohne den Ausführungs-Aufwand nennenswert zu erhöhen. Die Weitergabe ist besonders bei Anwendungs-Systemen ohne sicheren Ausfallzustand sinnvoll.
Andreas Pfitzmann

Möglichkeiten und Verfahren zur Schnellen Datenbank-Recovery bei Einzelnen Zerstörten Datenbankblöcken

Zusammenfassung
In den letzten Jahren hat sich die Forschung im Bereich der Datenbanksysteme (DBS) intensiv mit der Problematik von Logging- und Recovery-Maßnahmen auseinandergesetzt /Ve78, LS79, Re81/. Das Ziel der Bemühungen war die Entwicklung effizienter Verfahren zur Integritätssicherung der gespeicherten Daten im Sinne des Transaktionskonzepts. Eine Transaktion wird dabei als eine Folge zusammengehöriger Operationen auf der Datenbank verstanden. Das Programmsystem zur Verwaltung der Datenbank, im folgenden auch als Datenbank-Verwaltungssystem (DBVS) bezeichnet, muß diese Unteilbarkeit (“atomicity”) einer Sequenz von Änderungen in der Datenbank (DB) insbesondere auch im Fehlerfall garantieren. Im Fall der erfolgreichen Beendigung einer Transaktion müssen die vorgenommenen Modifikationen in der DB auch ein späteres Auftreten von Fehlern unbedingt “überleben”, und wird eine Transaktion vorzeitig abgebrochen, so darf sie keine “Spuren” in der DB hinterlassen. Dies zu gewährleisten, ist die Aufgabe des “Recovery Managers” im DBVS.
Klaus Küspert

Backmatter

Weitere Informationen