Skip to main content
Top

2009 | Book

Leistungsbewertung bei Computersystemen

Praktische Performance-Analyse von Rechnern und ihrer Kommunikation

Author: Hans Günther  Kruse

Publisher: Springer Berlin Heidelberg

Book Series : X.systems.press

insite
SEARCH

About this book

Die Leistung von Computersystemen ist die ausschlaggebende Größe für ihren Einsatz. Zur Messung der Leistung wird sehr oft das Benchmark-Verfahren als Standard-Tool eingesetzt, obwohl allgemein bekannt ist, dass die entsprechenden Ergebnisse nur eine sehr beschränkte Aussagekraft haben – dafür spricht natürlich ihre starke Orientierung an der Praxis. Modellbildende Techniken werden häufig zu Recht als „Mathematik-lastig" empfunden und suggerieren zudem eine Genauigkeit jenseits der Realität. Dabei liegt es auf der Hand, dass beide Standpunkte sich ergänzen und zusammen eine wesentlich bessere Messung, Analyse und Bewertung gestatten. Anhand dieser Konzeption erläutert der Autor bessere Methoden zur Leistungsbewertung von Computersystemen.

Table of Contents

Frontmatter
1. Vorbemerkungen zur Last mit der Leistung
Zusammenfassung
Die Leistungsanalyse von Rechnern und Rechnernetzen ist im Prinzip aus der Notwendigkeit entstanden, vorhandene Systeme auf Schwachstellen hin zu untersuchen, um anschließend Verbesserungen konzipieren zu können. Voraussetzung ist natürlich, dass man eine genaue Vorstellung von Leistung hat, und dies ist leider nicht immer gewährleistet. Im Rahmen eines nahe liegenden Ansatzes wäre es natürlich möglich, sich auf die Physik zu besinnen und Leistung als Arbeit pro Zeit zu definieren. Für viele Situationen und Systeme trifft diese einfache Vorgehensweise auch zu und wir werden sie auch später ausgiebig nutzen, jedoch immer die Grenzen aufzeigen.
2. Einfache Leistungsmaße
Zusammenfassung
In diesem Kapitel geht es um einfache, direkt messbare Leistungsgrößen oder -maße, welche eine erhebliche Bedeutung über alle Systemklassen und Größenordnungen hinweg haben.
3. Die Gesetze von Amdahl und Gustafson
Zusammenfassung
Die Diskussion um das Leistungsmaß MIPS bzw. MFLOPS/TFLOPS sollte aufgezeigt haben, wie schwer es ist, aus der Leistung einer Komponente auf die Leistung des Gesamtsystems zu schließen.
4. Die Gesetze von Little
Zusammenfassung
In den Vorbemerkungen haben wir schon die Problematik angeschnitten, dass bei vielen Systemen die Messung einer einzigen Last keine vernünftige Leistungsanalyse zulässt. Es handelt sich dabei z. B. um Client-Server-Systeme, um den IP-Verkehr über Router und Switches sowie um die Dialog- und Batch-Verarbeitung.
5. Benchmarks oder die Last mit der Last
Zusammenfassung
Im Prinzip müsste das Ausmessen der Leistung durch Ablaufen der Maschineninstruktionen, welche die Last exakt repräsentieren, geschehen – ohne Beeinflussung durch die Ablaufumgebung, etwa einem Betriebssystem. Einem derartigen Unterfangen werden sich jedoch nur Idealisten und Puristen unterziehen. In der Praxis wird man versuchen, durch simple Vergleichsmessungen entsprechende Einflüsse zu eliminieren oder zu minimieren.
6. Messbare Leistungsgesetze
Zusammenfassung
Wir wollen jetzt die Ansätze von früheren Abschnitten „Einfache Leistungsmaße“ und „Gesetze von Little“ wieder aufnehmen. Es wurde dort davon ausgegangen, das zu analysierende System als Black-Box zu betrachten und aus den zu messenden Variablen einfache Leistungsgrößen abzuleiten. Im Folgenden sollen daraus konsequent Leistungsgesetze, ähnlich denen von Little, abgeleitet werden. Diese sollten auch direkten Messungen zugänglich sein (Operational Laws) – und zwar einmal für das System als Ganzes sowie in einem zweiten Schritt für Teilsysteme, welche das vollständige System bilden [2].
7. Einfache stochastische Modellvorstellungen
Zusammenfassung
Die Zerlegung eines komplexen DV-Systems in n Subeinheiten (Si, i = 1…n) wie im vorangegangenen Kapitel ist natürlich schon eine Modellierung, und zwar eine, welche der Realität ziemlich nahe kommt. Daran ändert auch die Einführung von Übergangswahrscheinlichkeiten pij zwischen den Teilsystemen Si und Sj nichts, weil von einem virtuellen „externen“ Standpunkt die vielen Aufträge im System sich stochastisch verhalten. Trotzdem gelingt es mit dieser Methode recht gute quantitative Aussagen zu gewinnen. Häufig ist man aber daran gar nicht interessiert, sondern möchte mit einem sehr einfachen und durchschaubaren Vorgehen qualitative Verhaltensweisen des untersuchten Systems bestimmen. Unter diesem Gesichtspunkt bieten die Gesetze von Little und das bereits diskutierte Black-Box-Modell einen wesentlich günstigeren Ansatzpunkt.
8. Die Chapman-Kolmogoroff-Gleichungen
Zusammenfassung
Die Modellierung von Computersystemen mit wahrscheinlichkeitstheoretischen Methoden basiert auf ganz einfachen Prinzipien, welche letztlich in den Chapman- Kolmogoroff-Gleichungen münden, die die zeitliche Dynamik des entsprechenden Modells beschreiben. Um die Basis zu vermitteln, verzichten wir auf die übliche mathematische Strenge und beschränken uns auf ein sehr simples Modell mit zwei Zuständen 0 und 1. In Zustand 0 ist das Modell (die Maschine) ohne Auftrag (leer), in Zustand 1 wird ein Auftrag bearbeitet. Die Aufträge kommen mit einer festen Auftragsrate λ an und werden mit der Rate μ bearbeitet. Folgende Übergänge sind zwischen den beiden Zuständen möglich:
0→0: es wird kein neuer Auftrag akzeptiert,
0→1: ein Auftrag wird angenommen,
1→1: ein Auftrag wird bearbeitet,
1→0: der bearbeitete Auftrag verlässt das System,
und werden durch eine Übergangswahrscheinlichkeit pij(i, j = 0, 1) charakterisiert.
9. Von der Lust am Modellieren
Zusammenfassung
Die im vorigen Abschnitt entwickelten Modellvorstellungen lassen sich nun beliebig ausbauen und mit einer gewissen Lust an Mathematik ergeben sich interessante Einblicke – wie realitätsnah diese sind, hängt natürlich von den Voraussetzungen ab. Wir unterstellen einmal durchgängig exponentiell verteilte Zwischenankunfts- und Bearbeitungszeiten und geben uns dem Vergnügen hin, durch simple Umformungen einige, hoffentlich transparente und übertragbare Ergebnisse aus Modellanalysen und Beispieldiskussionen hervorzubringen.
10. Leistungsanalyse auf Modellbasis
Zusammenfassung
Die Zerlegung eines DV-Systems S in Komponenten oder Subsysteme, S = {S1, S2,... Sn}, ist, wie bereits erwähnt, schon ein erster Schritt in Richtung Modellierung. Die Gründe für diese Vorgehensweise liegen auf der Hand – man erhofft sich aus der Kenntnis der Lokalitäten, den Subsystemen, ein besseres Verständnis für die Ursachen der Leistung des ganzen Systems. Dementsprechend haben wir erst lokale Leistungsgesetze abgeleitet, gültig nur für Teilsysteme, und anschließend auf dieser Basis, wie etwa beim „general response law“, Gesetze globaler Natur. Dabei ist die Kenntnis von Systemzeiten tS(i) oder Besuchshäufigkeiten vi von fundamentaler Bedeutung. Diese Größen können und müssen gemessen werden, andere, wie die mittlere Anzahl <ki> von Aufträgen im i-ten Teilsystem, sind häufig nur unter großen Schwierigkeiten oder überhaupt nicht zugänglich. Auf der anderen Seite zeigen die Modellbetrachtungen des vorausgegangenen Abschnitts sowie die einfach strukturierten Gesetze von Little eine erstaunliche Effizienz und Transparenz in der Leistungsanalyse. Natürlich liegt es nahe, die beiden Ansätze zu kombinieren und das zu untersuchende DV-System in solche Teilsysteme zu zerlegen, dass diese einzeln unseren Modellvorstellungen genügen, d. h. exponentiell verteilte Zwischenankunfts- und Bearbeitungszeiten sowie die Zeitunabhängigkeit der Zustandswahrscheinlichkeiten im Gleichgewicht. Darüber hinaus nehmen wir insgesamt ein Gleichgewicht der Teilsysteme untereinander an, wie bereits in früheren Beispielen beschrieben.
11. Konzepte zur Analyse von Kommunikationssystemen
Zusammenfassung
Ohne Zweifel bilden Kommunikationssysteme die Basis für das Rückgrat der modernen Datenverarbeitung oder Informationstechnologie. Der technische Fortschritt hinsichtlich Übertragungsgeschwindigkeit und Bandbreite hat Anwendungen ermöglicht, die vor einem Jahrzehnt aufgrund ihrer Datenmenge utopisch erschienen. Es würde jedoch unseren Diskussionsrahmen sprengen, wenn etwas genauer auf die entsprechenden Details eingegangen würde – vielmehr bleiben wir bei der Linie, maximale Basiskonzepte und ihre Auswirkungen zu analysieren. Die hohe Übertragungskapazität bzw. Bandbreite und ihre Nutzung durch mehrere/viele Kommunikationspartner ist solch ein Konzept, der möglichst störungsfreie Betrieb durch ein geeignetes Kommunikationsprotokoll ein anderes.
12. Modell und Wirklichkeit
Zusammenfassung
Das schwierigste Problem der Leistungsanalyse ist die Übereinstimmung von dem modellierten System mit der Wirklichkeit. Klarerweise kann ein Modell nicht alle Aspekte des untersuchten realen Systems wiedergeben, dann bräuchte man ja nicht zu modellieren.
13. Über die Gültigkeit von Gesetzen
Zusammenfassung
Als Fazit der Diskussion von Modellvarianten zeigt sich, dass dem bereits in Kap. 3 eingeführten Speed-Up auch bei dieser Thematik eine nicht zu unterschätzende Bedeutung als Leistungsmaß zukommt. Ganz wesentlich dafür ist seine Unabhängigkeit von speziellen Eigenschaften der zu untersuchenden Systemen – diese drückt sich dahingehend aus, dass nur wenige und leicht messbare Größen sein Verhalten bestimmen. Diesem Vorteil steht eine gewisse Unsicherheit bezüglich der Amdahl’schen oder Gustafson’schen Formulierung des Speed-Ups mit ihren zahllosen Varianten gegenüber – zudem wird häufig mit rein sequentiellen (skalaren) Systemen verglichen, was streng genommen kaum zulässig ist. Von besonderem Interesse ist heute aber eigentlich die Größenskalierung echter Parallelsysteme, welche durch die erwähnten Ansätze nur unvollständig erfasst wird. Zur besseren Analyse der Problematik wollen wir auf der Grundlage des Durchsatzes beide Gesetze noch einmal kurz ableiten, mögliche Zusammenhänge und ein einfaches Modell diskutieren sowie den Einfluss der Kommunikation untersuchen. Zum Speed-Up ist es häufig zweckmäßig, die Effizienz als Quotienten von gemessenem und theoretisch möglichem Durchsatz zu betrachten; diese Größe spielt bei der Messung über den Linpack-Benchmark eine große Rolle.
Backmatter
Metadata
Title
Leistungsbewertung bei Computersystemen
Author
Hans Günther Kruse
Copyright Year
2009
Publisher
Springer Berlin Heidelberg
Electronic ISBN
978-3-540-71054-7
Print ISBN
978-3-540-71053-0
DOI
https://doi.org/10.1007/978-3-540-71054-7

Premium Partner