Skip to main content
main-content

Über dieses Buch

Seit 1986 trifft sich in Mannheim jährlich auf Einladung des Vereins zur wissenschaftlichen Weiterbildung der Universität Mannheim e.V. die deutschsprachige Supercomputergemeinde - Anwender, Betreiber, Hersteller - zu einem fruchtbaren Dialog und Erfahrungsaustausch. In dem diesjährigen Seminar "Supercomputer - Anwendungen, Architekturen und Trends" werden die neuesten Entwicklungen dieses stark innovativen Gebiets unter einem sehr anwendungsbezogenen, praktischen Aspekt aufgearbeitet. Experten aus dem Inland sowie den nach wie vor führenden Ländern USA und Japan konnten auch bei dieser zum vierten Mal stattfindenden Veranstaltung zu Präsentationen gewonnen werden. Alle Beiträge zum Seminar sind in diesem Band enthalten. Insbesondere befassen sie sich mit folgenden Schwerpunkten: - Visualisierung/Mensch-Maschine-Schnittstelle - Architekturen - Parallel versus vector processing - Innovative Anwendungen.

Inhaltsverzeichnis

Frontmatter

Eröffnungssitzung

Global Simulations on Vector and Parallel Supercomputers

Abstract
In the last forty years the computational community has witnessed the birth and evolution of computers, minicomputers, personal computers and supercomputers. However, all the available indications point to the expectation that we are only at the beginning of a new socio-economic era, where computing machines and signal processing machines will play a most determinant role. Ages are often classified in terms of some characteristic of its production tools; thus the stone, the bronze, the iron ages. As we know,”tools” enhance the dimension and the power of man; in the past the physical dimension, but today the intellectual and mental dimension. Clearly our age is the computer age (also referred to as the ”information society”). A basic goal in science is to achieve universal understanding, thereby providing quantitative models for any specific event, as well as for all events in general. Engineering attempts to put this understanding to work in practical applications and realizations of ever increasing complexity and boldness. These goals and attempts have been with mankind since the beginning of our evolution but today seem to be more and more at hand. A turning point on the learning curve is the ability to perform ”global simulations”, which can be accomplished only if supercomputers are extensively available.
Enrico Clementi

Visualisierung / Mensch-Maschine-Schnittstelle

Distributed Supercomputing for Graphics Applications: A Case Study on an Implementation of the Radiosity Approach

Abstract
Besides the ray tracing technique, the radiosity method is another major approach for global illumination modeling in the field of computer graphics. Since this method needs a huge amount of storage space (both memory and disk) and a long pre-computation cycle, it is not suitable to implement it on conventional workstations, so therefore that supercomputers are necessary for such kind of graphics applications.
However, some problems appeared due to the integration of supercomputers and workstations in a distributive computing environment, especially for graphics application. The major problems are
  • unavailability of standard higher-level mechanism for building distributed application
  • transparent access to supercomputers without remote login or file transfer sessions
  • computation balance to make the best use of the performance of supercomputers and workstations
  • data transfer/storage strategy between supercomputers and workstations
  • conflict between interaction and response time for graphics application
  • conflict between interaction and response time for graphics application
In this paper we suggest our solutions to the above mentioned problems based on the remote procedure call (RPC) and the client/server model, for the radiosity package implementation. After the introduction of the radiosity method, we concentrate on the principle, strategy and solution of the integration between supercomputers and workstations. We also convey some general issues related to distributed computing and present our experience of the implementation, such as the application protocol definition, error recovery, code debugging etc. The radiosity package has been implemented at ZGDV in Darmstadt in a network environment including a Multiflow TRACE 7/300 supercomputer and a lot of VAX and SUN workstations.
Jose Encarnacao, Georg Köberle, Ning Zhang

Mensch-Maschine-Schnittstelle

Zusammenfassung
Es ist das Ziel dieses Vortrages, die durch ungeeignet konstruierte Mensch-Computer-Schnittstellen hervorgerufenen kognitiven Probleme darzustellen und zu analysieren sowie Lösungsansätze aufzuzeigen. Die dabei vorzustellenden Beispiele von Lösungen im Rahmen spezifischer Arbeitsplätze und Arbeitsaufgaben — ganz besonders auch solcher auf dem Gebiete der Anwendung von Supercomputern — eignen sich jedoch nicht für eine’statisch-monochrome’ Darstellung in der Form einer schwarz-weiß gedruckten Veröffentlichung und müssen deshalb weggelassen werden.
Werner Schneider

Architekturen

Die neuen Supercomputer von CRAY

Zusammenfassung
Cray Research ist weltweit der Marktführer bei Supercomputern mit über 240 installierten Systemen. In Deutschland werden derzeit 14 Cray Rechner eingesetzt. Viele der installierten und die meisten der neu bestellten Cray Rechner sind Multiprozessor Systeme, so daß heute über 700 Cray CPUs bei Kunden installiert sind. Etwa 35% der Cray Kunden sind im industriellen Bereich und 65% im wissenschaftlichen Bereich sowie bei Regierungseinrichtungen angesiedelt. Bild 1 gibt einen Überblick über die Neuinstallationen von Cray Systemen in den letzten Jahren.
Robert Übelmesser

Die Architektur der ETA 10

Zusammenfassung
Die ETA 10 Rechnerserie von CONTROL DATA ist eine Familie von Vektorrechnersystemen mit bis zu acht Prozessoren. Der Rechner ist erstmalig in dieser Leistungsklasse ganz aus CMOS Komponenten aufgebaut. Die CPU-Architektur garantiert hohe Vektorisierung durch mikroskopische Parallelverarbeitung. Der Systementwurf gestattet die gleichzeitige Verwendung von schneller SRAM und hochintegrierter DRAM Speichertechnologie in einer zweistufigen Speicherhierarchie mit lokalem und globalem Hauptspeicher sowie virtueller Speicherverwaltung. Der globale Hauptspeicher dient bei synchroner und asynchroner Parallelverarbeitung als Shared Memory mehreren Prozessoren. Die lose Kopplung der Einzelprozessoren führt zu effizienter Parallelisierung makroskopischer Tasks mit geringen Systemverlusten.
Wolfgang Bez

An Overview of The HITACHI S-820 Supercomputer System

Abstract
The HITACHI S-820 has made a debut as one of the most powerful supercomputers in the world, with a peak arithmetic performance of 3 GFLOPS. Like its predecessor S-810, the first Japanese-made supercomputer, it consists of a scalar processor and a vector processor. As the scalar processor has the same architecture as a general-purpose mainframe, the whole complex fits well in conventional operating environments. Central to the high computation speed is the vector processor with its multiple-pipeline structure and large vector register memory. The use of the semiconductor Extended Storage dramatically reduces I/O time, contributing to faster job turnaround and balanced system performance. A high degree of parallelism is incorporated inside the vector processor as well as between the vector and the scalar processors. The hardware technology employed in the system, which is the key to high performance and supreme reliability, includes the field-proven state-of-the-art high-speed logic LSIs originally developed for Hitachi’s top-of-the-line mainframes, a 256K bit CMOS RAM with an access time of 45 nsec, and a vector register LSI which combines logic and RAMs on a monolithic chip. A variety of software products have also been developed to fully exploit the hardware capabilities. They include a vectorizing compiler FORT77/HAP with enhanced vectorization capability, an easy-to-code differential equation solver DEQSOL E2, and a mathematical subroutine library MATRIX/HAP. In a benchmark with Lawrence Livermore Laboratory’s 14 Kernels, the S-820 scores 355 (417 with a biCMOS version of the Main Storage) MFLOPS (algebraic average), among the highest in the industry.
Michihiro Hirai, Shun Kawabe, Hideo Wada, Shizuo Goto

SIEMENS Dual Scalar Supercomputer

Abstract
The usage of Supercomputers by universities, research institutes and increasingly by industrial research and development centers demand new functions and higher performance of future supercomputers. Besides the infinite requirement of raw MIPS respectively MFLOPS, large direct access memory in the area of Gigabytes is necessary to reduce the elapsed time of new applications.
Peter Wüsten

Das skalierte Gesetz von Amdahl Zur Leistungsermittlung von Vektorrechnern

Zusammenfassung
Die Bestimmung der Leistung von Universalrechnern ist heute bis zu einer ausreichenden Genauigkeit gut möglich. Einerseits besteht eine weitgehende Übereinstimmung bei der Beurteilung von marktgängigen Rechenanlagen durch Anwender und Hersteller, andererseits können noch immer bestehende Unsicherheiten durch qualifizierte Benchmark-Untersuchungen zumindest soweit beseitigt werden, daß eine für eine Beschaffung notwendige Entscheidungsbasis gefunden werden kann. Dabei geht man im allgemeinen davon aus, daß sich das Lastprofil bei einem neu zu beschaffenden Rechner von dem des Vorläuferrechners nicht wesentlich unterscheidet.
Die Situation bei Vektorrechnern und insbesondere bei Supercomputcrn ist davon völlig verschieden. Selbst Spezialisten beurteilen die Leistung dieser Systeme so unterschiedlich, daß es für den Anwender in den meisten Fällen unmöglich ist, sich ein genügend genaues Bild zu machen. Darüber hinaus verschließen sich Vektorrechner bislang einer objektiven Leistungsbewertung durch Benchmark-Untersuchungen, da man mit einer gravierenden Veränderung der Charakteristik des zu bearbeitenden Lastprofiles rechnen muß, wenn man auf einen Rechner einer anderen Leistungsklasse übergeht [4]. Bis heute gibt es nur sehr unzulängliche Versuche, die Leistung und das Lastprofil eines neu zu installierenden Vektorrechners zu bestimmen [5].
In dem ersten Teil dieser Arbeit wird gezeigt, wie abhängig von den entsprechenden Arbeitsgebieten die Leistung eines neu zu beschaffenden Supercomputers ermittelt werden kann. Es zeigt sich, daß die Einflüsse des Vektorisierungsgrades durch modifizierte Amdahl-Gesetze bestimmt werden. Die„skalierten“ Amdahl-Gesetze werden abgeleitet.
Im zweiten Teil dieser Arbeit werden diese Ergebnisse auf den Einsatz von mehreren unterschiedlichen Vektorrechnern angewandt. Es ergeben sich einige interessante wirtschaftliche Alternativen zu dem Einsatz von Supercomputern durch die Kombination von Universalrechnern mit Vektorzusatz und sogenannten Minisupercomputern.
Hans-Martin Wacker

Parallel Versus Vector Processing

Dem parallelen Rechnen gehört die Zukunft

Zusammenfassung
Parallelrechner (im engeren Sinne) kennzeichnen die 3. Generation von Superrechnern nach
  • Vektorrechnern (1. Generation)
  • Multi-Vektorrechnern mit mehreren CPUs und dem Konzept eines gemeinsamen Speichers (2. Generation).
Karl Solchenbach, Bernhard Thomas, Ulrich Trottenberg

Why I like Vector Computers

Abstract
The requirements for supercomputing in technical sciences in an industrial R&D environment or in a versatile job profile university environment are specified: 100 GFLOPS sustained performance, 64 Gwords main memory, flexible data transfer operations (compress, expand, merge, gather, scatter), portable Fortran 8x, fastest scalar speed. Then the reasons are discussed why the”usual” trend to parallelism via MM) (message passing systems, shared memory systems, hybrid systems) fail to meet the requirements of the users. The proposition of a Continuous Pipe Vector Computer (CPVC) serves to explain in the form of 10 notes the ideas how parallelism should be organized that it is completely transparent to the user. The proposed CPVC minimizes the lost cycles of a supercomputer so that one gets close to the theoretical peak performance by the most user-friendly architecture.
Willi Schönauer

Innovative Anwendungen

Durch die Berechnung von Moleküleigenschaften zum gezielten Entwurf von neuen Wirkstoffen

Zusammenfassung
Die Entwicklung von selektiven, zuverlässigen und sicheren Wirkstoffen ist mittlerweile eine extrem zeit- und kostenintensive Aufgabe geworden. Die Strukturchemie ermöglicht es, unter Einsatz der Computergraphik, die Vorgänge bei der Wechselwirkung eines Wirkstoffmoleküls mit seinem Rezeptorprotein auf molekularer Ebene zu verstehen und rechnerisch zu simulieren.
Voraussetzung dazu ist die Strukturaufklärung bzw. Strukturberechnung beider Komponenten, des Wirkstoffmoleküls und seines biochemischen Rezeptors. Bedingt durch ihre Flexibilität können Moleküle unterschiedliche Gestalten annehmen. Diese konformellen Umwandlungen lassen sich auf leistungsfähigen Computern simulieren. Die Kenntnis der energetisch günstigen Konformationen eines Moleküls ist entscheidend, da unter diesen sich auch die biochemisch relevanten Anordnungen befinden. Beim gezielten Design neuer Wirkstoffe mit Hilfe des Computers wird dann versucht, die dreidimensionale Gestalt eines Wirkstoffmoleküls unter Berücksichtigung seiner konformellen Flexibilität so zu modifizieren, daß zum einen eine optimale Wechselwirkung, zum anderen eine hohe Selektivität zur Bindestelle des Rezeptors erzielt wird.
Gerhard Klebe

Supercomputer in der Produktions- und Ablaufplanung

Zusammenfassung
Aufgabe der dynamischen Produktionsplanung ist es, sowohl die Verteilung der Produktions aufgaben auf die verfügbaren Produktionskapazitäten anzugeben, als auch die zeitliche Reihenfolge der Produktionsdurchführung in den einzelnen Produktionsanlagen zu bestimmen. Bei einer Anwendung betriebswirtschaftlicher Optimierungskriterien zur Lösung dieser Planungsaufgabe ergeben sich daraus zugleich Hinweise auf die Losgrößenpolitik, die Kapitalbindung und Lagerraumbeanspruchung im Produktionsprozeß, auf die günstigste Auslastung der Produktionskapazitäten oder auf die geeignete Zusammensetzung des Produktionsprogramms [1].
Dieter B. Preßmar

Backmatter

Weitere Informationen