Skip to main content

1992 | Buch

Technische Informatik 2

Grundlagen der Computertechnik

verfasst von: Dr.-Ing. Wolfram Schiffmann, Dipl.-Phys. Robert Schmitz

Verlag: Springer Berlin Heidelberg

Buchreihe : Springer-Lehrbuch

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter
1. Komplexe Schaltwerke
Zusammenfassung
Ein Schaltwerk besteht aus Speichergliedern und Schaltnetzen, die in einer Rückkopplungsschleife miteinander verbunden sind (Abb. 1.1). Durch die Rückkopplung wird eine rekursive Funktion des Zustandsvektors s erreicht. Aus einem Anfangszustand s 0 wird der Folgezustand s 1 bestimmt, aus s 1 ergibt sich s 2 usw. Der Folgezustand ist einerseits durch das Schaltnetz g in der Rückkopplung und andererseits durch die Belegung des Eingabevektors x t im jeweiligen Zustand s t festgelegt. Aus dem Zustandsvektor s t wird der Ausgabevektor z t abgeleitet. Hängt der Ausgabevektor direkt vom Eingabevektor x t ab, so spricht man von einem MEALY-Automaten. Da z t = f(x t , s t ) ist, reagieren MEALY-Automaten schneller auf Änderungen des Eingabevektors als die d. h. z t = f(s t ). Während MEALY-Automaten übergangsorientiert sind, arbeiten MOORE-Automaten zustandsorientiert. Änderungen des Eingabevektors x t werden erst im Folgezustand s t+1 wirksam. Wir gehen daher im folgenden immer davon aus, daß ein Schaltwerk die Struktur eines MEALY-Automaten hat.
Wolfram Schiffmann, Robert Schmitz
2. von NEUMANN-Rechner
Zusammenfassung
Ein von NEUMANN-Rechner besteht aus einem verallgemeinerten komplexen Schaltwerk, das um einen Speicher und eine Ein-/ Ausgabe erweitert wird. Wir unterscheiden insgesamt vier Funktionseinheiten: Rechenwerk, Leitwerk, Speicher und Ein-/ Ausgabe [Klar, 1983]. Rechenwerk und Leitwerk bilden den Prozessor bzw. Die CPU (Central Processing Unit). Das Blockschaltbild in Abb. 2.1 zeigt, wie die einzelnen Komponenten miteinander verbunden sind. Die Verbindungen werden entsprechend ihrer Funktion gekennzeichnet: Datenleitungen sind mit D, Adreßleitungen mit A und Steuerleitungen mit dem Buchstaben S markiert. Die Zahl der Datenleitungen bestimmt die Maschinenwortbreite eines Prozessors.
Wolfram Schiffmann, Robert Schmitz
3. Hardware-Parallelität
Zusammenfassung
Wie wir in Kapitel 1 und Kapitel 2 gesehen haben kann durch parallelgeschaltete Operations-Schaltnetze oder durch verdrahtete Algorithmen die Zahl der Verarbeitungsschritte zur Lösung einer bestimmten Aufgabe verringert werden. Alle modernen Computer nutzen diese Hardware-Parallelität in irgendeiner Form [Kuhn, 1981]. Wir können vier Operationen angeben, die durch zusätzliche Hardware an verschiedenen Stellen in einem Rechnersystem beschleunigt werden können:
1.
Ein-/ Ausgabe Operationen
 
2.
Operanden verknüpfen
 
3.
Daten lesen oder schreiben
 
4.
Befehle holen
 
Wolfram Schiffmann, Robert Schmitz
4. Complex Instruction Set Computer
Zusammenfassung
Die Architektur eines Computers wird in starkem Maße durch den Befehlssatz des verwendeten Prozessors geprägt (Instruction Set Processor). Auch die anderen Architekturmerkmale wie die Organisation des Speichers, der Ein-/ Ausgabe und die grundlegenden Datenformate können nicht isoliert vom Befehlssatz betrachtet werden. Um einen bestimmten Befehlssatz implementieren zu können, muß zunächst eine entsprechende Rechen- und Leitwerksstruktur ausgewählt werden. Der logische Entwurf von Rechen- und Leitwerk (Organisation) wird dann in Hardware realisiert [Giloi, 1981]. Wie wir aus Kapitel 2 wissen, läßt sich mit einem reagierenden Mikroprogramm-Steuerwerk und einem universellen Rechenwerk jeder beliebige Makrobefehl implementieren (vgl. Abb. 2.13). Diese Flexibilität wird jedoch mit einem relativ hohen Aufwand für den Steuerwort-Speicher bezahlt. Obwohl es keine allgemein gültigen Kriterien für den Entwurf eines Befehlssatzes gibt, können zwei Kategorien von Befehlssätzen unterschieden werden:
1.
Complex Instruction Set Computer (CISC)
 
2.
Reduced Instruction Set Computer (RISC)
 
Wolfram Schiffmann, Robert Schmitz
5. Reduced Instruction Set Computer
Zusammenfassung
Seit der Entwicklung der ersten digitalen Rechner wuchs der Umfang und die Komplexität der Befehlssätze stetig an. So hatte 1948 der MARK I nur sieben Maschinenbefehle geringer Komplexität wie z.B. Additions- und Sprungbefehle. Nachfolgende Prozessorarchitekturen versuchten, die semantische Lücke (semantic Gap) zwischen höheren, problemorientierten Sprachen und der Maschinensprache zu schließen. Man versprach sich davon eine Vereinfachung des Compilerbaus, kompakteren Opcode und eine höhere Rechenleistung. Die Entwicklung von CISC-Prozessoren wurde durch die Mikroprogrammierung und immer höhere Integrationsdichten bei der Chipherstellung unterstützt.
Wolfram Schiffmann, Robert Schmitz
6. Kommunikation
Zusammenfassung
Kommunikation stellt einen wichtigen Aspekt innerhalb der Computertechnik bzw. Rechnerarchitektur dar. Die Tendenz zu verteilten Systemen und Parallelverarbeitung erfordert leistungsfähige Kanäle und Verbindungstopologien. Bevor die Information verarbeitet werden kann, muß sie zu den einzelnen Teilkomponenten (Prozessoren) transportiert werden. Aufgrund der Entfernung der Teilkomponenten kann eine grobe Unterteilung in Intrasystem- und Intersystem-Kommunikation vorgenommen werden. Intrasystem-Kommunikation ist auf Entfernungen bis zu 1m beschränkt. Die miteinander verbundenen Teilkomponenten befinden sich in einem Gehäuse. Beispiele hierfür sind Personalcomputer oder Parallelrechner auf Basis von Transputern. Durch Intersystem-Kommunikation werden zwei oder mehrere räumlich voneinander getrennte Computersysteme miteinander verbunden. Je nach Entfernung unterscheidet man LANs und WANs (Local/Wide Area Networks). LANs erstrecken sich im allgemeinen nur über einige Gebäude (z.B. Universitätscampus); ihre maximale Ausdehnung ist auf einige Kilometer beschränkt. Dagegen können WANs Computersysteme, die auf der ganzen Erde verteilt sind, miteinander verbinden (vgl. z.B. [Stallings, 1988], [Tannenbaum, 1981]).
Wolfram Schiffmann, Robert Schmitz
7. Speicher
Zusammenfassung
Jeder Computer enthält verschiedenartige Speicher, um Befehle und Daten für den Prozessor bereitzuhalten. Diese Speicher unterscheiden sich bezüglich Speicherkapazität, Zugriffszeit und Kosten. Es wäre wünschenswert, daß der Prozessor immer mit seiner maximalen Taktrate arbeitet. Leider sind entsprechend schnelle Speicher teuer und haben eine vergleichsweise geringe Speicherkapazität. Deshalb verwendet man in Computersystemen Speicher, die nach unterschiedlichen physikalischen Prinzipien arbeiten.
Wolfram Schiffmann, Robert Schmitz
8. Ein-/ Ausgabe und Peripheriegeräte
Zusammenfassung
Eine einfache bitweise Ein- oder Ausgabe erfolgt mit Latches, deren Takteingang parallelgeschaltet ist. Abb. 8.1 zeigt eine 8-Bit Latch-Zeile mit nachgeschalteten TriState-Treibern. Die Ausgänge DO 0 bis DO 7 können über ENABLE = 0 in den hochohmigen Zustand gebracht werden. Wenn die Latch-Zeile als Eingabe-Baustein benutzt werden soll, werden die Ausgänge direkt auf den Datenbus geschaltet. Solange das CLOCK-Signal auf 1 liegt, folgen die Ausgänge den Dateneingängen. Die Speicherung der Eingabedaten erfolgt, wenn CLOCK auf 0 geht. Das ENABLE-Signal muß von der Adreßdecodierlogik erzeugt werden. Es aktiviert die Datenausgänge nur dann, wenn die Bausteinadresse anliegt. Das in den Latches zwischengespeicherte Datum wird über den Datenbus1 vom Prozessor gelesen. An die Eingänge DI 0 bis DI 7 können beispielsweise binäre Sensoren, wie Endschalter und Tasten oder Analog-/Digital Umsetzer zur Erfassung analoger Spannungen angeschlossen werden.
Wolfram Schiffmann, Robert Schmitz
Backmatter
Metadaten
Titel
Technische Informatik 2
verfasst von
Dr.-Ing. Wolfram Schiffmann
Dipl.-Phys. Robert Schmitz
Copyright-Jahr
1992
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-22465-6
Print ISBN
978-3-540-54719-8
DOI
https://doi.org/10.1007/978-3-662-22465-6