Skip to main content
main-content

Über dieses Buch

SUPERCOMPUTER '91 - Anwendungen, Architekturen, Trends enthält alle Hauptvorträge des zum sechsten Mal veranstalteten Mannheimer Seminars. Das diesjährige Seminar versammelte wiederum als die führende Veranstaltung im deutschsprachigen Raum Supercomputer-Anwender, -Betreiber und -Hersteller zu einem fruchtbaren Dialog und Erfahrungsaustausch. Es wurden insbesondere die neuesten Entwicklungen dieses stark innovativen Gebiets unter einem sehr anwendungsbezogenen, praktischen Aspekt aufgearbeitet. Die Schwerpunkte des diesjährigen Seminars waren: - Vektorrechner und ihre Zukunft - Erfahrungen mit Parallelrechnern - zukünftige Entwicklung des Markts für Super- computing Neben den traditionellen Vektorrechnern standen Erfahrungsberichte über den Einsatz der stark an Verbreitung gewinnenden Parallelrechner im Vordergrund. Hierbei wurde die ganze Bandbreite der existierenden Architekturen sowohl auf MIMD- als auch auf SIMD-Basis abgedeckt. Zur weiteren Orientierung auf diesem sehr heterogenen, sich schnell entwickelnden Markt trug die Podiumsdiskussion führender Wissenschaftler und Firmenvertreter "Supercomputing 1995 and beyond" bei. Die zugehörigen Positionspapiere sind ebenfalls in diesem Band enthalten.

Inhaltsverzeichnis

Frontmatter

Eröffnungssitzung

Mikroprozessoren als Basistechnologie künftiger Computergenerationen

Zusammenfassung
Die Halbleitertechnologie sorgt mit extrem steigenden Integrationsdichten dafür, daß die einfachste und schnellste Form zur Realisierung neuer, immer aufwendigerer (z.B. superscalarer) Rechnersysteme die Integration auf einen Chip ist: Der 1-Chip-Mikroprozessor ist damit sicher das wichtigste Vehikel zur Realisierung neuer Architekturkonzepte, und die gleichzeitig dramatisch steigenden Taktraten vergrößern noch die Vorteile gegenüber anderen Realisierungsformen.
Der Einsatz dieser neuen Mikroprozessoren verändert die innere Struktur künftiger Computergenerationen. Desktop-Systeme, deren Entwicklung ohne Mikroprozessoren gar nicht denkbar wäre, profitieren direkt von der Leistungsexplosion der neuen Chips. Der Übergang von klassischen Mainframes zu dedizierten Servern hat bereits begonnen: Multimikroprozessor-Systeme zeigen schon heute bessere Transaktions- und Datenbankleistungen als die Mainframes. Auch in die Welt der Supercomputer haben die „Killer-Mikros“ bereits ihren Einzug gehalten: Für ihren nachhaltigen Erfolg auch in dieser Rechnerklasse sind allerdings noch einige Voraussetzungen zu schaffen.
G. Färber

Vektorrechner — Status und Trends

A Review of the Japanese Supercomputer Scene

Abstract
The author spent two months in Tokyo during the summer of 1990 studying the Japanese high-end computing scene with the aim of understanding how CERN (and the West in general) may be affected by the increasing strength of the Japanese computer companies.
Several large Japanese manufacturers already have very interesting products on the hardware side, both general mainframes and supercomputers. Today, they claim to have the fastest systems available, and they are working on future technologies like Ga-As or Josephson junctions to further increase their strength.
Up until now, however, the software and communications facilities have not been the strong point of the Japanese offerings. The issue is therefore to try to establish whether the standardisation of system software (via UNIX^) and communications infrastructures, as well as the globalisation of the market place, will allow them to move in rapidly as a major supplier of high-end computing equipment.
The main part of the report is made up of descriptions of the latest supercomputer systems offered by NEC, Fujitsu and Hitachi, as well as a brief overview of their operating systems and current installed base. A reference is made to the systems installed by IBM and CRAY in Japan. A comparison is made to the European supercomputer installed base. The fact that supercomputers were chosen is merely tactical, but these systems do convey very clearly the technological strength of a manufacturer since supercomputers are always built with state-of-the-art technology.
The first two chapters of the report are aimed at providing background material for understanding Japan as a nation. The conclusion tries to predict what will happen in Europe in the large-scale computing area over the next few years, and offers the opinion of the author on how best to profit from the situation.
Sverre Jarp

Vektorrechner und Parallelrechner: Gemeinsamkeiten und Unterschiede

Zusammenfassung
An Hand einer konkreten Fallstudie, nämlich der Lösung der 2dimensionalen elliptischen partiellen Differentialgleichung vom Poisson-Typ mit einem direkten Verfahren (dem sog. Buneman-Algorithmus), werden Gemeinsamkeiten und Unterschiede von Vektorrechnern (als Monoprozessoren angenommen) und Parallel-rechnern (vom Typ “distributed memory MIMD”) diskutiert. Dabei zeigt sich, daß eine parallelisierte Version des Verfahrens auch auf einem Vektrorrechner Leistungsgewinn bringt, und daß auch bei Vektorrechnern der Datentransport, ein bekanntes Problem bei Parallelrechnern, nicht vernachlässigt werden kann.
Friedrich Hertweck

Sind die Vektorrechner die Saurier von morgen?

Zusammenfassung
Die Universalrechner stehen bei technisch/wissenschaftlichen Anwendungen unter einem zunehmenden Konkurrenzdruck der Mikrocomputersysteme, wie z.B. von Workstations und den unterschiedlichen Server-Systemen. Das hat dazu geführt, daß Mainframes in Universitäten, Forschungseinrichtungen und den Forschungs- und Entwicklungsbereichen der Industrie mehr und mehr durch Workstations und UNIX-Server ersetzt werden. Die Leistung der neuen Mikrocomputersysteme wie z.B. der RS/6000 von IBM ist mit der Leistung einer Cray 1 durchaus vergleichbar. Die Cray XMP und die Cray YMP sind nur für gut vektorisierbare Programme deutlich leistungsfähiger als beispielsweise eine RS/6000-550. Wegen des sehr günstigen Preises dieser neuen Computersysteme, verglichen mit dem der klassischen Vektorrechner, droht diesen ein ähnlicher Konkurrenzkampf wie den Mainframes. Dabei ist für die Vektorrechner die Situation ernster als für die Universalrechner, da sie im Gegensatz zu den Mainframes außerhalb des technisch/wissenschaftlichen Marktsegments so gut wie nicht vertreten sind.
Bei Mikroprozessoren wird ein Leistungswachstum von einem Faktor zwei in jeweils 18 Monaten erwartet, wie es auch in den vergangenen Jahren realisiert worden ist. Das bedeutet, auf die zweite Hälfte dieses Jahrzehnts hochgerechnet, eine Leistung von mindestens 500 MIPS oder 1000 MFLOPS, die von den Mikroprozessorherstellern angeboten werden dürfte. Das Leistungswachstum der Supercomputer war demgegenüber in den letzten Jahren recht bescheiden. Eine Fortsetzung dieser Entwicklung würde bedeuten, daß die Mikroprozessorsysteme in absehbarer Zeit den Supercomputern in der Leistung überlegen wären und sie mit Sicherheit verdrängten.
Das wurde von den Supercomputerherstellern erkannt und bei der Entwicklung der neuen Rechnergeneration berücksichtigt. Schon etwa um 1995 werden Supercomputer mit einer Leistung bis 200 GFLOPS - zumindest für hochvektorisierbare und hochparallelisierbare Probleme - von mehreren Herstellern wie z.B. Fujitsu, NEC und SSI angeboten werden und damit den Mikroprozessoren um zwei Größenordnungen überlegen sein.
Trotz des zu erwartenden hohen Preises dieser Supercomputer wird es eine ganze Reihe von Anwendern geben, für die diese Systeme unverzichtbar sind, wenn sie bei ihrer Arbeit konkurrenzfähig sein wollen. Natürlich wird der Markt auf diesem Gebiet immer stärker umkämpft werden, da ein kleiner werdendes Marktsegment von einer wachsenden Anzahl sehr kompetenter Supercomputerhersteller umworben werden wird.
Hans-Martin Wacker

Erfahrungen mit Parallelrechnern

Erfahrungen der GMD im Experimentallabor für Parallelrechner

Zusammenfassung
Im Rahmen der HLRZ-Kooperation mit dem Forschungszentrum Jülich und der DESY Hamburg betreibt die GMD ein Experimentallabor, in dem verschiedene Parallelrechner installiert sind, die sowohl den Partnern des HLRZ und den Forschungsgruppen der GMD als auch Interessierten aus Universitäten, Forschungseinrichtungen oder der Industrie zur Verfügung stehen.
Bei der Ausstattung wurde darauf geachtet, daß Rechner der verschiedenen Architekturklassen vertreten sind. Derzeit stehen ein Suprenum 16-Cluster System, eine Connection Machine 2 sowie eine Alliant FX/2816 zur Verfügung. Diese sind eingebettet in ein Netz leistungsfähiger Workstations, über das außerdem Zugriff auf ein Megaframe SuperCluster System und einen Intel iPSC/2 besteht.
Im folgenden wird zunächst die Konzeption des Experimentallabors und die Konfiguration der einzelnen Parallelrechner vorgestellt. Anschließend wird über die bei der GMD gesammelten Erfahrungen bei der Installation und dem Betrieb der Experimentalsysteme berichtet. Ferner wird ein Überblick über die Anwendungen auf den vorgestellten Systemen gegeben und ein erster Eindruck über deren Leistungsfähigkeit vermittelt.
T. Brandes, O. Krämer-Fuhrmann, F. Jirka

Integrierter Einsatz von Parallelrechnern mit gemeinsamem und verteiltem Speicher — Alliant FX/2800, iPSC/2, iPSC/860

Zusammenfassung
Parallelrechner mit unterschiedlichster Architektur sind heute auf dem Markt erhältlich. Im Laufe der Zeit haben sich zwei Klassen von Multiprozessoren herauskristallisiert, welche man in naher Zukunft in beinahe allen Rechenzentren vorfinden wird — Multiprozessoren mit gemeinsamem und verteiltem Speicher. Es stellt sich damit die Frage, wie diese Systeme in existierende netzwerkbasierte Rechnerumgebungen integriert und kooperierend mit konventionellen (sequentiellen) Rechensystemen eingesetzt werden können. Der vorliegende Artikel beschreibt am Beispiel der Systeme Alliant FX/2800 und iPSC die Architektur, Betriebssysteme und Programmierung beider Klassen von Multiprozessoren. Am Beispiel einer an der Technischen’ Universität München installierten Konfiguration beider Systemklassen wird eine integrierte und kooperierende Nutzung und Programmierung mit Hilfe der Werkzeugumgebung TOPSYS (TOols for Parallel SYStems) vorgeschlagen.
Thomas Bemmerl, Bernhard Ries

Erfahrung mit Transputersystemen im Bereich des wissenschaftlichen Rechnens

Zusammenfassung
Die rechnerische Lösung komplexer Problemstellungen des wissenschaftlichen Rechnens erfordert typischerweise sehr viel Rechenzeit und großen Speicherplatz. Eine relativ kostengünstige Möglich­keit, diesen Anforderungen gerecht zu werden, bietet der Einsatz von Parallelrechnern mit verteiltem Speicher. Um die potentiell hohe Leistung solcher Rechnerarchitekturen umsetzen zu können ist es notwendig, hochadaptierte Algorithmen zu entwickeln, was jedoch dadurch erschwert wird, daß die effizientesten Algorithmen aus dem Bereich der sequentiellen Datenverarbeitung oft inhärent rekur­siv sind. Das bedingt für eine effiziente Implementierung auf Parallelrechnern die Entwicklung von Algorithmen, welche sowohl bezüglich ihrer arithmetischen Lastverteilung, als auch der notwendigen Kommunikation optimiert sind. Der vorliegende Beitrag bietet einen Überblick über Erfahrungen, welche insbesondere bei der Realisierung von Algorithmen der linearen Algebra auf massiv paralle­len Transputersystemen gewonnen wurden. Dabei sollen vor allem die Erfahrungen und Probleme vom Gesichtspunkt der Entwicklung von Software auf solchen Systemen im Vordergrund stehen.
G. Bader

Erste Erfahrungen mit der MasPar MP-1

Zusammenfassung
Die MasPar MP-1 Rechnerfamilie ist die jüngste im Kreis der SIMD-Rechner. Als „kleinere Ausgabe der Connection Machine“ erreicht sie voll aufgerüstet bei 16.384 Prozessoren (4-Bit PEs) mit lokalem Speicher eine Peak-Performance von 30.000 MIPS und 1.500 MFLOPS, die aber aufgrund der SIMD-Architektur üblicherweise bei einer Anwendung nicht erreicht werden. Das System soll im Prinzip die gleichen Anwendergruppen wie die Connection Machine ansprechen, bewegt sich jedoch leistungsmäßig und vor allem auch finanziell klar unterhalb einer CM-2. Die für die MasPar gewählten Verbindungstopologien sind ein schnelles zwei-dimensionales quadratisches Gitter mit 8-fachen nearest-neighbor Verbindungen, was besonders für Bildverarbeitungs-Operationen geeignet ist, sowie ein langsamerer, dreistufiger globaler Router, der es erlaubt, jede beliebige Verbindungs-Topologie zu realisieren. Die zur Verfügung stehenden Programmiersprachen MPF (MasPar Fortran) und MPL (MasPar Parallel Application Language, ein paralleler C-Dialekt) sind leider in einigen Punkten maschinenabhängig. Vorhandene Fortran-oder C-Programme können wie bei allen SIMD-Systemen nicht eingesetzt werden. Hier setzt unser Forschungsprojekt „Parallaxis“ ein, in dem eine maschinenunabhängige daten-parallele Sprache entwickelt wurde. Parallaxis unterstützt die Programmierung von massiv parallelen Anwendungen durch geeignete Hochsprachen-Konstrukte. Ein Compiler ermöglicht den Abauf von Parallaxis-Programmen auf der MasPar, während für gewöhnliche Workstations eine Simulationsumgebung existiert, mit der daten-parallele Programme ausgetestet werden können.
Thomas Bräunl

Parallel Computers: Toys or Tools?

Abstract
The talk starts with the observation that there often is a huge discrepancy between the claimed peak performance of a system and the actual performance experienced by the average user of that system running his/her program. The two figures can be two orders of magnitude apart for classic vector-oriented multi-processors, and the chances for that happening are even higher for parallel machines of all types. So a user buying a computer that is announced at 10 GFLOPS peak performance may end up having a meek 100 MFLOPS, as observed by his specific applications. This is particularly embarrassing since to get 100 MFLOPS one does not need a supercomputer; two workstations for $ 40K in total will do. Now this holds for the well-understood domain of vector processors; what should anyone expect from a machine with 256K processors, for which the vendor claims, say, 20 GFLOPS?
Andreas Reuter

Neues aus dem Parallelrechnermarkt

Parallel Computing: Experiences, Requirements, and Solutions from BBN

Abstract
Bolt Beranek and Newman Inc. has been involved in parallel computing for nearly 20 years and has developed several parallel processing systems and used them in a variety of applications. During that time, massively parallel systems built from microprocessors have caught up with conventional supercomputers in performance and are expected to far exceed conventional supercomputers in the coming decade. BBN’s experience in building, using, and marketing parallel systems has shown that programmer productivity and delivered, scalable performance are important requirements that must be met before massively parallel systems can achieve broader market acceptance.
W. B. Barker

The Dataparallel Computer MasPar MP — 1

Summary
By using CMOS VLSI and replication of components effectively, massive parallel computers can achieve extraordinary performance at low cost, Key issues are how processors and the memory are partitioned and replicated, and how interprocessor communication and I/O are accomplished. From the user’s point of view, the ease of programming and the programming environment are of major importance. Dataparallelism is the natural extension of vector processing and allows for a transparent programming and debugging. This paper describes the design of a modern SIMD parallel computer that achieves peak rates above one billion floating point operations per second at minicomputer prices.
Werner Butscher

The Parallel Processing System from nCUBE

Abstract
The nCUBE 2’s hardware architecture represents a unique synthesis of features, each designed to increase the computer’s performance and reliability. The architecture centers on a hypercube data network of fully custom VLSI 64-bit processors, each with independent memory. This network is an extremely modular, scalable system, that allows multiple users to perform distributed computing. The hypercube design accomodates a wide variety of applications, from scientific modeling programs to relational databases. The inexpensive but powerful processors give the nCUBE 2 its unmatched speed and price/performance ratio.
M. Schmidt-Voigt, H. Gietl

Ein europäisches Konzept für Höchstleistungs MIMD-Parallelrechner

Zusammenfassung
Bei der Untersuchung von natürlichen und technischen Prozessen und Zusammenhängen setzt sich in der wissenschaftlichen und industriellen Forschung die Computersimulation neben Theorie und Experiment immer mehr durch. Viele Fragestellungen aus Gebieten der Chemie, Physik, Astrophysik, Strömungsmechanik und Meteorologie können mit den heute zur Verfügung stehenden Rechnerleistungen jedoch nur unbefriedigend oder teilweise gar nicht behandelt werden. Aus dieser Situation heraus hat sich in Europa die von Physikern getragene ETI (European TeraFlop Initiative) gegründet mit dem Ziel, einen Rechner mit einer Leistung von einem TeraFlop und mehr zu erhalten.
Die Firma PARSYTEC hat aufgrund ihrer seit 1985 gesammelten Erfahrungen im Bau und Betrieb von massiv-parallelen MIMD-Rechnern Anfang 1991 eine Studie über die Realisierbarkeit eines solchen Rechners durchgeführt. In einem „Letter of Intent“ an die ETI legt sie dar, daß dieser Rechner innerhalb kürzester Zeit bis 1993 allein aus europäischen Mitteln kostengünstig gebaut werden kann. Weiterhin erklärt sie sich bereit, diesen Rechner auf Non-Profit Basis zu realisieren.
Durch Zusammenschluß mehrerer in der Parallelverarbeitung kompetenter europäischer Kräfte hat Europa mit dieser Herausforderung die Chance, die amerikanisch-japanische Vorherrschaft bei Supercomputern zu durchbrechen und sich weltweit an die Spitze moderner Computertechnologien zu setzen.
Mahmoud Chatah

Supercomputing 1995 and Beyond

Supercomputing 1995 and Beyond — the Different Perspectives —

Abstract
The Mannheim Supercomputer Seminar 1991 had one of its highlights in the Panel Discussion covering “Supercomputing 1995 and beyond”. Above named reputed personalities of leading supercomputer manufacturers participated in this discussion as well as Prof. Andreas Reuter from the “Institut für Parallele und Verteilte Höchstleistungsrechner”, University of Stuttgart, as independent expert and user.
This Panel Discussion was chaired by James C. Almond, Austin University, Hans W. Meuer, Universität Mannheim and Hans-Martin Wacker, GMD Birlinghoven.
All panelists were in advance given 7 questions which are, together with all answers (in part slightly shortened) written down in the following. As this 1FB Springer-volume was at the attendees’ disposal at the beginning of the Seminar, these could take part in this session very well prepared.
Steven Wallach, Justin Rattner, Carl W. Diem, Kenichi Miura, Craig J. Mundie, Guy L. Steele, Andreas Reuter

Backmatter

Weitere Informationen