Skip to main content
main-content

Über dieses Buch

Die Operations Research Proceedings 1989 dokumentieren die Vorträge, die auf der 18. Jahrestagung der Deutschen Gesellschaft für Operations Research in der Zeit vom 13. bis 15. September 1989 gehalten worden sind. In dem Band sind die Fassungen von 5 Plenar- und 105 Fachvorträgen enthalten, von denen 60 in Lang-, der Rest in Kurzfassungen aufgenommen sind. Im einzelnen sind Beiträge zu folgenden Teilgebieten zusammengestellt: - Operations Research in der Industrie - Operations Research in Banken und Versicherungen - Produktion - Marketing - Logistik und Verkehr - Statistik, Datenanalyse und Prognose - Organisation und Entscheidungstheorie - Decision Support-Systeme und Künstliche Intelligenz - Wirtschaftsinformatik - Stochastische Prozesse einschl. Zuverlässigkeits- und Bedienungstheorie - Mathematische Optimierung - Spieltheorie - Kontrolltheorie

Inhaltsverzeichnis

Frontmatter

Begrüßung durch den Vorsitzenden der Deutschen Gesellschaft für Operations Research Prof. Dr. Wolfgang Bühler

Begrüßung durch den Vorsitzenden der Deutschen Gesellschaft für Operations Research Prof. Dr. Wolfgang Bühler

Klaus-Peter Kistner, Joachim H. Ahrens, Gustav Feichtinger, Joachim Minnemann, Lothar Streitferdt

Plenarvorträge

Katastrophentheorie: Gleichgewicht und Revolution in hochkomplexen Systemen

Schon vor mehr als zehn Jahren erreichte die Diskussion um René THOMs Katastrophentheorie einen — von Kontroversen begleiteten — Höhepunkt. In diversen Wochenmagazinen (wie etwa dem Spiegel) wurde die Katastrophentheorie als ein Druchbruch gepriesen, der sich mit NEWTONs Werk messen könne.

F. Ferschl

Entwicklung von Personaleinstellungsstrategien Anhand Eines Simulationsmodells

In alien Bereichen und Funktionen der Unternehmen, insbesondere in der Informationsverar-beitung, steigen die Aufgaben und deren Komplexität laufend, und entsprechend steigen auch die Anforderungen an die “Qualität” der Mitarbeiter. Gleichzeitig nimmt jedoch die Zahl qualifizierter Kandidaten auf dem Arbeitsmarkt ab. Eine wirksame, gezielte Personalbeschaf-fungspolitik ist damit entscheidend für jedes Unternehmen, das sich eine wettbewerbsüber-legene Mannschaft schaffen will. Eine solche Politik festzulegen ist jedoch schwierig, da haufig keine brauchbare, vollständige Faktenbasis vorhanden ist. Statt eines aufwendigen Prognosemodells wurde in der WestLB hierfür ein stochastisches Simulationsmodell mit einem Standard-Tabellenkalkulationsprogramm auf einem PC entwickelt. Die Ergebnisse erfullten die Erwartungen voll — das Modell lieferte zum ersten Mai die notwendigen Informationen für kurzfristige gezielte Personalbeschaffungsmaßnahmen und Ansatzpunkte für eine erfolgver-sprechende Personalbeschaffungsstrategie.

Etienne Jaugey

Neuere Entwicklungen in Der Nichtlinearen Optimierung

Die nichtlineare Optimierung beschäftigt sich mit der Untersuchung einer nichtlinearen Funktion, welche das Verhalten eines technischen, ökonomischen oder anderen Systems ausdrückt, bezüglich maximaler bzw. minimaler Werte unter gegebenen Restriktionen, die ihrerseits wiederum vviderspiegelungen bestehender Beschränkungen (an Material, Arbeitskräften, Geldmitteln usw.) darstellen. Solche Beschränkungen bestehen in vielen Fällen in Gleichungen und/oder Ungleichungen.

K.-H. Elster

Signaling and Forward Induction in a Market Entry Context

Recent developments in noncooperative game theory (especially those dealing with information transmission and equilibrium refinements) are illustrated by means of variations on a simple market entry game.

Eric van Damme

Elemente Einer Umweltorientierten Betriebswirtschaftlichen Produktions- und Kostentheorie auf der Grundlage von Leontief-Technologien

Industrielle Produktionsprozesse sind nicht nur durch die Erzeugung erwünschter Produkte (Hauptprodukte), sondern auch durch den unvermeidbaren Anfall mehr oder weniger unerwünschter Nebenprodukte gekennzeichnet. Mit diesem Beitrag werden einige produktions- und kostentheoretische Ansätze zur Analyse von nicht verwertbaren und damit zu entsorgenden Nebenprodukten sowie von verwertbaren und damit zu rezyklierenden Nebenprodukten vorgestellt.

Werner Dinkelbach

Studenwettbewerb

Kostensenkung durch Werkverkehr — Möglichkeiten der Substitution von Fremd- durch Eigentransport dargestellt an einem mittelständischen Unternehmen

Ausgangspunkt für die im Rahmen einer Diplomarbeit durchgefiihrten Untersuchungen war die konkrete Situation eines mittelständischen Unternehmens. Das Unternehmen fertigt Rolltore für Industrieanlagen. Die Tore werden an Kunden im gesamten Bundesgebiet geliefert.

Karsten Wiese

Operations Research in der Industrie

Die Rolle von Operations Research bei der Entwicklung und dem Einsatz eines Informationssystems für die Logistik

Die Rolle, die OR spielte war vielleicht nicht sehr eindrucksvoll. Aber es war und ist eine wirkliche Rolle in einem wirklichen System und keine arithmetische Ubung. Der Vortrag soli zeigen, dass das und wie das möglich war

H. Grünwald, B. Matzinger

Quantitative Evaluation von Typischen Planungssystemen für Logistik und Produktion: MRP, JIT, OPT, etc.

Seit vielen Jahren werden von Praktikern, ORern, EDVern und anderen die verschiedensten Planungs- systeme für Logistik und Produktion vorgeschlagen. Recorder Point Planning, Base Stock Control, Manufacturing Requirements Planning (MRP-I), Manufacturing Resource Planning (MRP-II), Just In Time (JIT), Optimized Production Technology (OPT) kamen teils nacheinander, teils gleichzeitig in Mode.

Herbert J. Grünwald, P. Weeda

Ansätze zur strategischen Standort— und Produktionsplanung — ein Anwendungsbeispiel

Im Rahmen der strategischen Planung eines Unternehmens der Elektro-Branche betrachten wir ein Problem der betriebliehen Standortplanung. Dabei geht es, bezogen auf mehrere verschiedene Güter, um die Frage, welche Produkte in welcher Menge an welchem Standort zu produzieren und zu welchem Nachfrageort zu transportieren sind. Bei diesem Anwendungsbeispiel treten darüber hinaus zusätzliche Kosten- und Kapazitätsbeschränkungen auf. Ergebnisse werden sowohl für ein exaktes Verfahren (Anwendung kommerzieller Software basierend auf einer gemischt-ganzzahligen Formulierung des Problems) als auch für ein speziell entwiekeltes heuristisches Losungsverfahren angegeben.

Wolfgang Domschke, Stefan Voß

Kraftwerkseinsatzplanung Mittels Zufallsgesteuerter Suchstrategien

In dieser Arbeit wird die kurzfristige Optimierung des Kraftwerkseinsatzes eines Energieversorgungsunternehmens am Beispiel der EVN (Energieversorgung Niederösterreich) behandelt. Als Methoden werden bei der Maschinenauswahl die Dynamische Programmierung sowie “Simulated Annealing” und Evolutionsstrategien verwendet. Das stetige Problem der Lastaufteilung wird mittels dualer Optimierung gelöst.

Richard Hartl, Gerold Petritsch

Timing of A New Product Introduction

The goal of this research is to explore the optimal time for introducing a new product or service in a competitive market and to identify the parameters to which this optimal time is most sensitive. A stochastic model is developed that would assess the impact of the time of introduction of the product or service on its overall value. This is a theoretical model that combines a life cycle model with the effects of competition. This model is then simulated under different scenarios and the results obtained are discussed. In general there is a tradeoff between introducing the product too early and thus losing out on future technological efficiencies and the risk of another firm introducing the product first and capturing market share. The results indicate that estimating the expected time of entry by the competitor is a critical part in this decision making process. A general illustrative example is used. Sensitivity analysis suggests that the parameter representing the increase in technological efficiency over time can also be significant.

Soumyo D. Moitra

Ideas, for Integral Logistics in Centralized Wood Processing

A decision support system (DSS) is developed to improve the quality of decision making in wood processing companies. Wood processing companies are businesses that import (buy, harvest) raw materials, stems and logs, and export (deliver) products, assortments and boards, after a multi-step conversion process.

Martin Peter Reinders

Ein Verfahren zur 2-Dimensionalen Verschnittminimierung bei Homogenem und Inhomogenem Verschnittmaterial

Aus rechtwinkeligen Halbzeugen gleicher Dimension sind rechtwinkelige Zuschnitte unterschiedlicher Größe derart herauszuschneiden, daß der dabei anfallende Abfall minimal wird. Dabei sind folgende Bedingungen zu erfüllen: SCHNEIDETECHNISCHE RESTRIKTIONEN: Es sind einzig durchgehende Guillotineschnitte erlaubt.PRODUKTIONSBEDINGTE RESTRIKTIONEN: Die Schnitte müssen in einer definierten Sequenz durchlaufen werden. D.h. es müssen zuerst Schnitte entlang der Breite erfolgen, danach Schnitte entlang der Länge; u.s.w..PRODUKTSPEZDFISCHE RESTRIKTIONEN: Die inhärente Richtung des Werkstoffes (z.B. die Maserung des Holzes) muß berücksichtigt werden oder nicht. Im 2. Fall kann zur Verringerung des Abfalls Länge und Breite vertauscht werden (Drehungsneutralität).DIE NACHFRAGE muß erfüllt werden.

Walter Schneider

Kursfristige Produktiosprogrammplanung in einem Hochofenwerk durch inteNsitätsmäßige Anpassungsmßnahmen

Gegenstand der nachfolgenden Überlengungen ist die Entwicklung eines Modells für mehrere Hochöfen eines Hochofenwerks auf der Grundlage der linearen Optimierung mit dem Ziel, diese simultan durch den Einsatz intensitätsmäßiger Anpassungsmaßnahmen an einen zeitlich schwankenden Roheisenbedarf anzupassen. Dabei ist das Optimierungskriterium die Minimierung der entscheidungsabhängigen Kosten.

K. Koch, J. Pethke, Nat R. Schwinn

Designing a model for the industrial end-user

Producing liquid steel at minimal cost is an important problem for an integrated steel-producer. At ARBED (Luxembourg) this involves expenditures of approx.. 2 billion Flux/month (approx. 50 million US$/month — direct costs only) and has been the subject of an optimization-model for over 50 years.

R. Staudinger

Herstellkosten bei alternierender Kostenartenzuordnung

Für die Herstellkostenberechnung in der chemischen Industrie mit zyklischer Produktion und dem Anfall von Kuppelproduften bietet sich moistens die Lösung durch Formulierung von Matrizenmodellen an.

Manfred Welscheid

Operational Research in Industry — A Survey

Management of industrial enterprises increasingly means decision making under complex and often confusing circumstances. Economies in the free world have changed from a type in which every product quickly would find a customer, to a type where markets are fragmented and populated with well- organized and demanding customers whose tastes may change from one day to the other. Governmental rules, both caused by international integration and by an increasing care for the “environment”, are becoming ever more impeding. Science, more in particular operational research, mathematics and informatics, has produced tools to support the decision maker in his difficult task. This paper gives an overview of recent results. It contains examples of OR applications in a large multi-national company. Logistics play an important part in the examples: the loading of vehicles with large rectangular boxes; the calculation of the required number of vehicles to transport a given amount of boxes; the management of service parts for a vast range of consumer products. Furthermore, the paper discusses the conditions that have to be satisfied in order to successfully use OR in practice. A “project-based approach” with strong involvement of the client organization has turned out to be of paramount importance. The steps to be taken in such a project are briefly described: (1) a preliminary investigation to define the problem and generate ideas for its solution; (2) the main body of activities to work out the selected solutions, compare them and make recommendations for a choice and its implementaiton; (3) the implementation itself. The profile of the OR-worker, the pitfalls to avoid and the difficulties that he or she to solve, will get some attention also.

Leonard Fortuin

Operations Research in Banken und Versicherungen

Portfolio Insurance Am Deutschen Rentenmarkt

Aufgrund der gestiegenen Zinsvolatilität gewinnt die Kontrolle von Zinsänderungsrisiken bei Finanz-intermediären zunehmend an Bedeutung. Ein besonderes Gewicht besitzen dabei Portefeuilles aus Anleihen.

Wolfgang Bühler

Einfluß der Prämienkalkulation und Reservebildung auf das versicherungstechnische Risiko

Die gesamte Risikosituation eines Versicherungsunternehmens ist nicht nur allgemeinen und speziellen Unternehmerrisiken ausgesetzt, sondern es tritt darüberhinaus ein arteigenes Risiko, das sogenannte versicherungstechnische Risiko, hinzu, welches die Geschäftstätigkeit von Versicherungsunternehmen prägt. Das vereinfachte, auf Prämien und Schadenzahlungen reduzierte Grundmodell des sogenannten Risikogeschäfts bildet den Kern der Versicherungsproduktion, woraus das versicherungstechnische Risiko als Branchenspezifikum entsteht. Versicherungsunternehmen bieten den Versicherungsnehmern die Dienstleistung Versicherungsschutz an, die durch einen Versicherungsvertrag „in einem genau festgelegten Rahmen für einen bestimmten Zeitraum“([3], S. 651) ge- wahrt wird. Hierzu zahlt der Versicherungsnehmer zu Beginn der Versicherungsperiode i.a. ein festes Entgelt, die (Versicherungs-) Prämie; diesem Prämienzufluß stehen nachfolgend Schadenzahlungen in zufälliger Höhe gegenüber. Diese dem Versicherungsgeschäft inhärente Indeterminiertheit von Schadenzahl und Schadenhöhe rechtfertigt, dem Versicherungsunternehmen ein arteigenes Risiko zuzusprechen.

Helmut Freudenberger

Prediction of IBNR events in non-life insurance

We follow a portfolio of insured risks during a fixed exposure period [O,T]. When a claim incur it is reported to the insurance company after a certain period of time, and settled after yet another period of time. The claims process can be illustrated by means of a Lexis’ diagram. In Fig. 1.1 below, occurences are indicated by a x on the horizontal time axis. Waiting time until reporting and settlement of a claim is followed along the vertical axis. Reporting, partial payments and settlement is indicated by a □, a °, and a ●, respectively, on the straight line with 45° slope and origin at the time of occurrence.

Ole Hesselager

Epidemiologische Prognosen von Aids und Ihre Auswirkungen Auf Die Kalkulation von Lebensversicherungstarifen

Zur Prognose über die Auswirkungen von AIDS existieren verschiedene Mikro- und Makromodelle. Hier sollen die Ergebnisse eines deterministischen epidemiologischen Modells nach Bailey berichtet werden, welches bei Untergliederung der Bevölkerung in vier Subpopulationen verschiedenen Risikos das Wachstum der Epidemie über gewöhnliche nichtlineare Differentialgleichungs systeme beschreibt. Die Ergebnisse der Hochrechnungen für die nächsten zwölf Jahre stimmen mit den Ergebnissen anderer Autoren (S. Weyer, J. Lärper et al., D. Drude, A.D. Wilkie et al., M.J. Cowell u. Hoskins), die zum Teil mit komplizierteren (und nicht in Einzelheiten publizierten) oder auch sehr viel einfacher gebauten Modellen arbeiten, erstaunlich gut überein.

Hans-Jochen Bartels

Die Problematik Der Tilgungs- Und Zinsverrechnung Bei (Hypotheken-) Darlehen Vor Dem Hintergrund Der Zinsurteile Des Bgh Vom 24. November 1988

Der BGH hat in zwei Urteilen vom 24.11.1988 die in Verträgen über Hypothekendarlehen übliche Klausel der Tilgungsveirechnung zu Jahresende für unwirksam erklärt, ganz genau gesagt unter weiteren Bedingungen. Betroffen ist eine Vielzahl von Darlehensverträgen, die nach dem 31. März 1977 und vor dem 1. September 1985 abgeschlossen wurden, wobei der letztere Termin nicht ganz unproblematisch ist.

Günter Altrogge

Effizienz von Bonus-Malus-Systemen

Eines der größten Probleme stellt fiir die Versicherungsunternehmen die Kalkulation einer risikoadäquaten Prämie für die Produktion des Gutes Versicherungsschutz dar. Insbesondere in Versicherungszweigen, in welchen der Schadenverlauf durch a priori nicht meßbare, an das einzelne zu tarifierende Risiko gebundene Risikofaktoren beeinflußt wird — wie dies z. B. in der Kraftfahrzeughaftpflichtversicherung (“KH-Versicherung”) der Fall ist. Gerade in der KH-Versicherung kann beobachtet werden, daß Risiken trotz identischer Ausprägung a priori meßbarer Risikofaktoren wie Wagnisart, -stärke, kW, Regio usw. dennoch aufgrund der Existenz a priori nicht mßBbarer Risikofaktoren wie z. B. Reaktions- und Sehvermögen, Fahrroutine usw. keine identischen Schadenverläuf e vorweisen. Um auch diese Risikocharakteristika bei der Tarifierung berücksichtigen zu können, greift man auf die Erfahrungstarifierung zurück. Eine erfahrungstarifierte Prämie ist definitionsgemaß eine in Abhängigkeit vom individuellen Schadenverlauf variierende Prämie, die sich mit wachsender Beobachtungsdauer der nach Vorausset- zung zeitstabilen, korrekten Prämie annähert.

Andrea Boos

Mischung von Optionen und Termingeschäften

Von besonderem Interesse für das Treasury Management erscheint die Frage nach einer Mischung von Optionen und Termingeschäften vor allem aus zweierlei Gründen: Sofern diese beiden Instrumente im Vergleich grundsätzlich unterschiedliche Risiko-/Renditecharakteristika aufweisen, ist möglicherweise der Einsatz beider zur zielgerechten Portefeuillegestaltung empfehlenswert. Aber auch, wenn dies nicht der Fall wäre, könnten Preisunterschiede existieren, die auszunutzen wären.

Holger Hinz

Bewertung von Handlungsalternativen Bei Unvollkommenem Kapitalmarkt

Handlungsalternativen, welche durch zeitverschiedene finanzielle Konsequenzen charakterisiert sind, werden unter Zuhilfenahme von Verzinsungsmaßstäben bewertet. Weichen die Konditionen für anzulegendes und aufzunehmendes Kapital voneinander ab (unvollkommener Kapitalmarkt), bestimmen nicht nur Höhe und Termin aller Einnahmen und Ausgaben einer Maßnahme ihre Vorziehenswürdigkeit, sondern darüber hinaus die Gesamtheit aller temporären und ineinandergreifenden Aktivitäten des Investierens undFinanzierens; Vorschriften des Steuersystems treten überformend hinzu. Einfangen lassen sich diese interdependenten Zusammenhänge in einer rekursiven Modellkonstruktion. Bei gegebenem Datenkranz gestattet jene, alternative Präferenzen zu realisieren: erzielbares Einkommen, das ein finanzielles Engagement regelmäßig oder endfällig verspricht, bzw. die Rentabilität des jeweils eingesetzten Kapitals. Gemeinsamkeiten, Unterschiede und Tragweite dieser — als Investitionsrechnungen interpretierbaren — Bewertungsfunktionen werden anschließend anhand eines entscheidungstheoretischen Axiomensystems herausgearbeitet und auf ihre betriebswirtschaftlichen Implikationen hin ausgelotet. Die Annahme des unvollkommenen Kapitalmarktes erweist sich hierbei in zweifacher Hinsicht als fruchtbar: Konzeptionell, weil diese Prämisse so weitreichend ist, daß sie eine gleichermaßen geschlossene wie konsistente Analyse erlaubt, wobei sich die verschiedenen Maßstäbe wechselseitig ergänzen.

Raimund Schirmeister

Optionsscheine Auf Deutsche Aktien

Optionsanleihen sind eine beliebte Finanzierungsform geworden, das Marktsegment der Optionsscheine auf deutsche Aktien ist kräftig expandiert. Im April 1989 zählen wir 63 Titel, wobei unter den jüngsten Emittenten nicht nur die großen Gesellschaften mit langjähriger Optionsanleihenerfahrung, sondern zunehmend auch kleinere Unternehmen, wie bspw. AGAB, Krones, Markt & Technik und AVA, zu finden sind. Nach Branchen aufgeschlüsselt, ergibt sich aktuell eine breite Verteilung der Emissionen über die verschiedensten Wirtschaftszweige des deutschen Kapitalmarkts. Besonders stark vertreten sind allerdings nach wie vor die traditionellen „Optionsscheinbranchen“ Chemie und Banken.

Edgar Klein, Manfred Nuske

Produktion

Produktionsablaufplanung und -steuerung bei Mehrproduktfließlinien

Die Ausrichtung des Produktionsprogramms an den speziellen Bedürfnissen der Käufer führt auch bei Produkten, die über einen längeren Zeitraum hinweg in großen Stückzahlen herzustellen sind dazu, daß verschiedene Varianten bzw. Modelle eines Grundproduktes zu fertigen sind. Unterscheiden sich die Modelle relativ wenig in Art und Anzahl der Arbeitsgänge, so wird das Produktionssystem häufig in Form einer getakteten Mehrproduktfließlinie organisiert. Der Produktionsprozeß eines jeden Modells wird dann in mehreren hintereinander geschalteten und zeitlich miteinander verketteten Arbeitsstationen einer Linie vollzogen. Sind in einem Planungszeitraum mehrere Modelle in vorgegebenen Stückzahlen zu fertigen, so können diese losweise oder in beliebigem Wechsel einzelner Produkteinheiten verschiedener Modelle hergestellt werden. Im Hinblick auf kurze Durchlaufzeiten und auf einen möglichst niedrigen Bestand an Zwischen- und Endprodukten wird i.a. der beliebige Modellwechsel bevorzugt, sofern er produktionstechnisch möglich ist.

Hans Ziegler

Verfahren Zur Abstimmung Von Linien Bei Produktmix

Oberziel des vorgestellten Verfahrens ist die bestmögliche Kapazitätsauslastung von getakteten Mehrproduktmontagelinien. Diese „Optimierung“ soil durch eine Reihenfolgesteuerung erfolgen, die intern das Ziel hat, für die bereitgestellten Werker eine überlastungsfreie Produktion zu gewährleisten. Überlastungsfreie Produktion ist zum einen eine notwendige Bedingung zur Springerreduzierung (dadurch in gleichem Maße Leerzeitreduzierung), zum anderen wird damit zunehmenden Anforderun- gen von Arbeitnehmervertretern Rechnung getragen.

W. Dangelmaier

Wirtschaftlichkeitsaspekte der Just-In-Time-Lieferung

In diesem Beitrag werden die Kostenauswirkungen der JIT-Lieferung auf die Rüst- und Lagerkosten der Zulieferer untersucht. Aujßerdem wird der Frage nachgegangen, inwieweit die JIT-Lieferung wirtschaftlich sinn- voll ist. Abschließend wird unter der Annahme fester Lieferzeitpunkte und -mengen eine Formel entwickelt, mit deren Hilfe die Zulieferer die optimale Losgröße bei JIT-Anlieferung bestimmen können.

Günter Fandel, Peter François, Eugen May

Optimale Losgrössen Bei Servicegradrestriktion, Unsicherer Produktion und Stochastischem Absatz

In ihren Arbeiten beschäftigen sich [WILLIAMS] und [ZIPKIN] mit dem Problem der Bestimmung optimaler Losgrößen bei unsicherer Nachfrage und Produktion für den Fall mehrerer Produkte, die gemeinsam auf (in der einfachsten Situation) einer Anlage intermittierend gefertigt werden.

Hermann Jahnke

Leistungsanalyse Fur Flexible Fertigungssysteme mit Begrenzten Lokalen Pufferplätzen

Es wird ein Verfahren dargestellt, mit dem eine analytische Berechnung des Leistungsverhaltens flexibler Fertigungssysteme (FFS) möglich wird, in denen aufgrund beschränkter maschinennaher Pufferplätze Blockierungen der Maschinen auftreten können. Die Grundidee des Verfahrens besteht darin, auf der Basis einer genauen Analyse der Abläufe in einem solchen FFS die zu erwartenden Blockierdauern zu schätzen und dann zu den Bearbeitungszeiten zu addieren. Zur Berechnung der LeistungskenngroBen des FFS wird dann einer der bekannten Algorithmen eingesetzt.

Horst Tempelmeier

Aggregation Bei Flexiblen Fertigungssystemen

The concept of hierarchical production planning and flexible manufacturing systems are integrated with emphasis on the potentials of aggregation. It can be shown that in this case perferct aggregation is possible. The proposed approach could be examined by a later implementation.

Marion Steven

Kapazitätsabgleich flexibler Fertigungssysteme

Gegenstand des Beitrags ist ein Model! sowie ein Lösungsverfahren zur Minimierung der maximalen Kapazitätsbelastung von sich ersetzenden Maschinen eines flexiblen Fertigungssystems (FFS) unter Berücksichtigung begrenzter Werkzeugmagazine (Systemrüstungsplanung). Ausgangspunkt der Systemrüstungsplanung sind vorgegebene und gemeinsam zu fertigende Werkstücke. Die Arbeitsgänge dieser Werkstücke sowie deren zugehorige Werkzeuge sind den ersetzenden Maschinen eines FFS zuzuordnen. Das Planungsproblem wird als lineares gemischt-ganzzahliges Programm mit dem Zielkriterium Minimierung der maximalen Kapazitätsbelastung der Maschinen (Kapazitätsabgleich) formuliert. Zur Lösung des Modells wird eine Heuristik entwickelt, in der eine Zuordnung der Arbeitsgänge zu den Maschinen durch die Lösung eines parametrischen verallgemeinerten Zuordnungs-Problems erreicht wird. Hierbei approximiert die Zielfunktion die Werkzeugmagazinplätze, die durch diese Zuordnung erforderlich sind. Die Parametrisierung der Problemstellung erlaubt es, Lösungsgüte und Rechenzeit des Verfahrens zu beeinflussen. Der Algorithmus wurde auf einem PC implementiert und an zahlreichen, zufällig gebildeten Beispielen getestet. Es zeigten sich durchweg positive Ergebnisse.

Heinrich Kuhn

Production Scheduling in a Foundry

This is a project carried out jointly by the EPFL and a large manufacturing group to set up a computer- aided system of production planning and control at the operational level in an aluminium foundry.

Y. Rossier, Th. M. Liebling

Reihenfolgeproblem Bei Der Acrylglasherstellung

Die Produktion von Acrylglasplatten besteht im wesentlichen aus der Herstellung eines chemischen Sirups, dessen Abfüllung zwischen zwei Mineralglasplatten (Sandwichform) und der Polymerisation (Aushärtung) des Sirups zu einer festen Platte. Die Glasplattensandwiches gleicher Produkte werden jeweils auf Gestellen zusammengefaßt.

Wolfgang Domschke, Harald Friedrich, Erwin Pesch, Birgit Schildt

Marketing

Der Einfluss Der Werbekosten Auf Das Optimale Marketing-Mix

Ziel des Artikels ist es, den Einfluß der Werbekosten auf das optimale Marketing-Mix eines gewinnmaximierenden Monopolisten mit Hilfe einer Sensitivitätsanalyse zu bestimmen. Besonderes Augenmerk soll dabei auf die Frage gerichtet werden, in welcher Weise Werbekosten die monopolistische Preispolitik beeinflussen.

Bernd Hempelmann

Dauerhafte Konsumgüter und Secondhand—Märkte: Charakterisierung von Gleichgewicht and absatzpolitisches Instrumentarium

Dauerhafte Konsumgüter werden, wenn die Informations— und Transaktionskosten im Vergleich zum Wert des Gutes gering sind, oftmals auf organisierten Secondhand—Märkten (SM) gehandelt (z.B. Automobile). Die Preisbildung dort richtet sich nach Angebot und Nachfrage und liegt außerhalb der unmittelbaren Kontrolle des Anbieters. Absatzpolitische Optionen des Anbieters sind folglich erst dann zu bewerten, wenn der Preisbildungprozeß auf dem SM bekannt ist. Hierzu wird in Abschnitt 2 zunächst ein SM—Modell vorgestellt, das die Charakterisierung des SM—Gleichgewichtes sowie die Berechnung der Preisstruktur von Gebrauchtgütern gestattet. Hierauf aufbauend werden dann in Abschnitt 3 einige produktpolitische Aktionen des Herstellers untersucht, wie z.B. eine Politik psychischer Obsoleszenz. Abschnitt 4 gibt eine kurze Zusammenfassung.

Wolfgang Kürsten

An Economic Evaluation of an Alternative Supplier Customer Quality Control System

In the recent literature much attention has been given to the establishment of a “co-maker” relationship between the customer and the manufacturer (supplier) of a commodity. Under a co-maker relationship, the supplier is viewed as an “upstream extension of the customer’s process” [1]. Although much has been written about certain aspects of co-maker relationships, little research has been done to investigate and evaluate their economic impact. In this research, an analysis is made of the potential economic benefits of a co-maker relationship relative to quality control efforts. The total quality control costs under the traditional supplier-customer relationship are compared to the total quality control costs under a co-maker relationship.

Michael H. Peters, Timothy S. Vaughan

Logistik und Verkehr

Neuere Entwicklungen Auf Dem Gebiet Der Materialwirtschaftlichen Logistik

Eine Möglichkeit, die Produktions- und Lagerkosten eines Unternehmens zu senken und damit seine Wettbewerbsfähigkeit zu erhöhen, liegt in der Rationalisierung des Materialflusses und der Lagertechnik. Material Requirements Planning (MRP) und das Just-in-Time-Prinzip (JIT) sind zwei wichtige Ansätze zur Optimierung des Materialflusses, während man mit Hilfe des Prinzips der chaotischen Lagerhaltung den Lagerraum optimal nutzen und den Zeitaufwand für die Ein- und Auslagerung der Materialien minimieren möchte.

Günter Fandel, Peter Francois

Verfahren zur Reduzierung der Kosten in der Materialwirtschaft/Beschaffungslogistik mit Hilfe der Anlieferintervalle als Vorstufe für eine optimale Bestellpolitik

Um mit seinen Produkten am Markt bestehen zu können, werden von Unternehmen durch den steigenden Konkurrenzdruck immer neue Kostenreduzierungen gefordert. Hierzu kann die Beschaffungslogistik einen großen Beitrag leisten, da die Materialkosten je nach Branche 50–70% der Herstellkosten betragen. Bisher konzentrierte man sich in der Beschaffungslogistik zur Erreichung dieses Ziels neben anderen Maßnahmen, z.B. Verbesserung der organisatorischen Abläufe, hauptsächlich auf Strategien zur Bestandsreduzierung. Eine andere strategische Vorgehensweise war aufgrund fehlender Systemunterstützung nicht praktizierbar. Mit dieser Politik kann man aber direkt nur eine Kostenart beeinflussen und vernachlässigt damit eventuell andere Kostensenkungspotentiale sowie gegenläufige Auswirkungen.

Uwe Dittmann

Das Schätzen von Strassenentfernungen Mit Gebietspaarspezifischen Umwegfaktoren Im Praktischen Einsatz

Informationen über reale Entfernungen werden bei vielen Logistikproblemen benötigt.

Wolfgang Berens

Fahrwegoptimierung im Containerverkehr

Bei einem jährlichen Durchsatz von 800.000 Containereinheiten stellt die Optimierung der internen Containertransporte eines großen Hafenbetriebs einen wichtigen wirtschaftlichen Faktor dar. Berichtet wird von Fahrwegoptimierungen beim Einsatz von Spezial- fahrzeugen (Van Carriern) am Hafenterminal.

M. Buhk, D. Steenken

Ein Verfahren zur rechnergestützten Tourenplanung im Güterfernverkehr

Während bei der Planung von depotbezogenen Sammel- und Verteilverkehren sich der effiziente Einsatz von OR-Verfahren durch eine Vielzahl von in der Praxis eingesetzten Planungsprogrammen ablesen läßt, sind für den Bereich des Güterfernverkehrs Verfahrensansätze wenig entwickelt. Die spezielle Struktur der Planungsaufgabe, wie sie z. B. bei der Disposition von Gelegenheitsverkehren (Trampverkehre) zu finden ist, läßt eine Übertragung von bekannten Tourenplanungsalgorithmen für den oben genannten Bereich nicht zu.

J. Schmidt

Neue Heuristiken und Strukturanalysen zum zweidimensionalen homogenen Packproblem

Gegenstand dieses Beitrages ist das Problem der Maximierung der Anzahl der auf einer rechteckigen Grundfläche orthogonal anzuordnenden identischen rechteckigen Packstäcke. Es werden zwei neue heuristische Lösungsansätze vorgestellt. Ein Verfahren zur Bestimmung der theoretischen Obergrenzen für die Anzahl der anzuordnenden Packstücke wird so erweitert, daß neben einer verbesserten Obergrenzen-Bestimmung auch Informationen über die Struktur einer optimalen Lösung erzeugt werden, die in einem Optimierungsverfahren zur Reduzierung des Rechenzeitaufwandes genutzt werden können.

Gerd Naujoks

Ein Quantitativer Ansatz zur Optimierung der Ersatzteilbereitstellung

Der Beitrag stellt einen Ansatz zur Optimierung der Ersatzteilbereitstellungsmenge in der Zeit dar. Ein Ansatz, der den Anspruch der Vollständigkeit erhebt, muß dabei bei der Ursache ansetzen, die zu einem Bedarf an Ersatzteilen führt. Dies ist der Ausfall von Bauteilen in einem Primärprodukt. Bisher wurden in der Ersatzteillogistik überwiegend univariate Prognoseverfahien zur Anwendung gebracht, die den Bezug zum Primärprodukt nicht berücksichtigen. Die Ergebnisse univariater Verfahren führen deshalb in der Regel zu Fehlmengen und/oder Überbeständen, da sie nicht in der Lage sind, den für Ersatzteilbedarfe typischen geknickten Verlauf vorherzusagen. Der Zusammenhang zwischen Primärprodukten und Elementausfällen wird in dem hier dargestellten Ansatz durch die Erneuerungsfunktion hergestellt. Die Zahl der in den Markt gelangten Primarprodukte kann dabei mit Hilfe der Produktle- benszyklusfunktion von Brockhoff und Albach abgebildet werden. Im Anschluß daran wird festgestellt, wieviel dieses Bedarfes als Nachfrage am Markt wirksam wird. Insbesondere interessiert, welche Anteile der Nachfrage auf den Hersteller des Primärprodukts entfallen, da dieser in vielen Fällen das Ersatzteillogistiksystem betreibt. Damit ist zugleich die Frage nach der Wettbewerbsgefährdung von Ersatzteilen durch Imitatoren und den Determinanten der Wettbewerbsgefährdung gestellt. Wenn die Nachfragemenge je Zeiteinheit nun bestimmt ist, muß, da davon auszugehen ist, daß in den meisten Fällen nicht stetig, sondern in Losen produziert wird, mit Hilfe eines Verfahrens zur Losgroßenoptimierung die jeweilige Bereitstellungsmenge ermittelt werden.

Frieder Schuppert

Rechnerunterstützte Lösung Eines Enumerationsproblems — Dargestellt Am Beispiel Eines Kommissionierlagers

Lagerbetriebe und insbesondere Kommissionierlager sind unter verschiedensten Aspekten ein häufiges Anwendungsfeld für die Optimierungsmethoden des Operations Research. Allerdings hat sich durch Einbeziehung logistischer Ansätze das strategische Umfeld, in dem Läger heute betrieben werden, stark verändert. In diesem Zusammenhang haben sich neue Fragestellungen gebildet, die durch die Neuentwicklung bzw. Anpassung bestehender numerischer Methoden gelöst werden können.

J. Stenzel

Einige Anmerkungen zur Optimalen Fahrweise von Kraftfahrzeugen

Die bekanntesten Modelle zur KraftstoffVerbrauchsoptimierung der Fahrweise von Kraftfahrzeugen, der kontrolltheoretische Ansatz von SCHWARZKOPF/LEIPNIK und das dynamische Programmierungsmodell von HOOKER/ROSE/ROBERTS, können beide aus Gründen des Rechenaufwandes und verschiedener realitätsferner Prämissen, so z.B. der Bekanntheit des Höhenprofils der Fahrstrecke oder des Veikehrsaufkommens, nicht für eine bordrechnergestützte realtime-Berechnung kraftstoffverbrauchsgünstiger Fahrweisen im tatsächlich bestehenden Straßenverkehr verwendet werden. Situationsangemessen erscheint hingegen ein System, daß einerseits den stochastischen Umweltbedingungen Rechnung trägt und andererseits bezüglich des Rechenaufwandes so ausgestaltet ist, daß eine rasche Berechnung von FahrverhaltensvorschMgen für den Fahnzeugführer möglich ist. Kern dieses Systems ist eine aus verschiedenen Komponenten zusammengesetzte Heuristik zur Berechnung von sogenannten Fahrangaben in Form von Wertbestimmungen der Entscheidungsvariablen Beschleunigung (a), Fahrgeschwindigkeit (v) und Gang (k). Die Heuristik selbst baut auf einem Erklärungsmodell des Kraftstoffverbrauchs mit den Bestimmungsfaktoren Fahrangaben, technische Fahrzeugdaten und Rahmendaten, d.h. den umweltbedingten Großen Fahrbahnsteigung, Windrichtung und -geschwindigkeit, Streckenlänge, zulässige Höchstgeschwindigkeit und Wasserstandshöhe (Regen!), auf. Da sich die wesentlichen Rahmenbedingungen in der Realität für gewöhnlich nicht abrupt ändern, ist es ausreichend, ihre Wertausprägungen nach jeweils fest vorgegebenen Teilstrecken (Messzyklen) dem System mitzuteilen und bis zum nächsten Messzyklus als konstant zu unterstellen. Die Messzyklen selbst sind in Streckenabschnitte i der Länge ΔD unterteilt, für die die Heuristik am Anfang eines jeden Messzyklus’ die Fahrangaben Durchschnittsgeschwindigkeit vi, Beschleunigung ai und Gangwahl ki bestimmt.

Ralf Eberenz

Sukzessive Gleichgewichtsumlegung Mit Verlustflüssen

Bei der Verkehrsplanung für Straßennetze ist es wichtig, Überlastungen beschreiben zu können, um z.B. Staus in Netzteile zu verschieben, in denen der öffentliche Verkehr nicht behindert wird.

Roger Rohde

Ein neuer Algorithmus zur Lösung des kombinierten Verkehrsverteilungs- und Umlegungsproblems

The paper starts with a short review of the 2 standard algorithms (S.Evans, M.Florian) for solving the combined trip distribution and assignment problem. After this, a new algorithm is introduced. At the end of the paper the 3 algorithms are tested with a realistic dataset and the results are compared. These results show, that the new algorithm converges more rapidly than the both in use.

Helmut von Schittenhelm

Interaktive Personaleinsatzplanung in großen medizinlsch-technischen Krankenhausabteilungen

In der Radiologischen Klinik der Universität Münster, in der das erstellte Programm als erstes eingesetzt wurde, arbeiten z.Zt. 46 MTR (Medizinisch-Technische-Radiologieassistentinnen) auf 39 Arbeitsplätzen. Ein Arbeitsplatz entspricht hierbei einem Röntgengerät, das von der MTR zu bedienen ist. Bis auf wenige Ausnahmen sind die MTR keinen festen Arbeitsplätzen zugeordnet. Vielmehr werden von der leitenden MTR Wochenpläne mit der jeweils aktuellen Zuordnung von Mitarbeitern zu Arbeitsplätzen erstellt.

Wolfgang Berens, Ulrich Dikow, Klaus Fischer, Jörg Schlüchtermann

Kosteneinsparungen im Krankenhausbereich durch Sofortdiagnostik in der ärztlichen Praxis

Ziel dieser Studie war es, eine quantitative Aussage über Kosteneinsparungsmöglichkeiten im Krankenhausbereich aufzuzeigen, werm die einweisenden Ärzte die Möglichkeit einer Sofortdiagnostik im Laborbereich gehabt hätten. Die Ergebnisse basieren auf bisherigen Studien in Verbindung mit einer anonymisierten Voll-Datenerhebung aus einem Krankenkassenbezirk über einen Zeitraum von 3 Jahren. Die Modellberechnungen erfolgten exemplarisch für die folgenden 7 Diagnosen: 1) Hyperbilirubinämie 2) Hepatitis oder Leberzellschädigung 3) chron. Hepatitis 4) Gallensteinleiden 5) Cholecystitis 6) Pancreatitis 7) Ulcus pepticum.

Rito Bergemann, Arno Brandt

Optima — Ein Planungssystem zur Müllentsorgung für den Landesbetrieb Hamburger Stadtreinigung

Zur täglichen Müllentsorgung des Hamburger Stadtgebietes wird das PC-gestützte Planungssystem OPTIMA eingesetzt, das im Rahmen der Reorganisation des Landesbetriebes Hamburger Stadtreinigung von der SCS Informationstechnik GmbH entwickelt wurde.

Hartmut Stadtler

Statistik, Datenanalyse und Prognose

Prediction from Truncated Payment Statistics

Payment statistics involve numbers and totals of payments at specified times or time intervals. The accuracy and detail in amount and time specifications vary with the application, and different specifications lead to different kinds of estimation and prediction problems. The purpose here is to show that estimation and prediction problems for truncated payment statistics are related to similar problems for truncated life times in reliability theory and survival analysis. Analysis of payment statistics also presents interesting new interpretations of concepts like the Gini coefficient and the Lorenz curve which usually appear in the statistical analysis of income distributions.

Ove Frank

Zur empirischen Bestimmung der Eigenschaften von Saisonbereinigungsverfahren

Dass eine Vielzahl von Saisonbereinigungsverfahren exisiert, ist bekannt. Ein beträchtlicher Teil davon ruht in theoretischen Papieren. Nur einige wenige werden von offiziellen Stellen verwendet. Zeitreihen, die durch eine dieser Prozeduren bereinigt worden sind, dienen als Basis für die Diagnose der allgemeinen wirtschaflichen Situation und damit auch als Basis für die Prognose der künftigen wirtschaftlichen Entwicklung.

K. H. Edel

Erzeugnisdisposition mit Modernen Methoden der Absatzprognose und Jahresplanung zur Festlegung der Mittelfristigen Unternehmensziele

Erich Konopicky

Penalty-Verfahren bei der Clusteranalyse

In der Clusteranalyse versucht man, auf der Grundlage von Daten, die interessierende Objektmengen beschreiben, eine Aufteilung der verschiedenen Objekte auf unterschiedliche Gruppen oder Klassen dergestalt, daß ähnliche Objekte in der gleichen Klasse zusammengefaßt werden.

Wolfgang Gaul

Kausalanalyse mit dem Lisrel-Ansatz oder einer Kombination Traditioneller Multivariater Methoden?

Multivariate statistische Methoden werden seit längerer Zeit beispielsweise in der experimentellen Psychologie sowie in den Sozialwissenschaften erfolgreich eingesetzt. In den letzten Jahren erfolgte die Ausweitung der Anwendung dieser Verfahren auf die Betriebswirtschaftslehre, wo sie sich insbesondere für die Marketingforschung anbieten.

Jochen Benz

Preissimulation auf Basis von Labor- und Scannerdaten

Die Findung des „richtigen“ Preises bildet ein Kardinalproblem jeder Marketingstrategie. Dies gilt gleichermaßen für existierende wie für neue Produkte. Die Lösung dieses Problems erfordert quantitative Informationen über die Wirkung von Preisänderungen auf die Nachfrage von konkurrierenden Produkten. Ein neuartiges Verfahren zur Beschaffung derartiger Informationen für Konsumgüter ist das TESI-Preismodell Gestützt auf ein interaktives Computer-Programm lassen sich damit für beliebige Preissituationen die Marktanteile der konkurrierenden Marken, deren Preisabsatzfunktionen, Preiselastizitäten und weitere Kenngrößen ableiten und grafisch darstellen.

B. Erichson, A. Bischoff

Effiziente Informationsnutzung Mittels Formaler Lernregeln in Biologischen Produktionsmodellen

Biologische Produktionssysteme sind in der Land- und Ernährungswirtschaft die übliche Basis zur Erzeugung von Gütern. In zunehmendem Maße besteht aber auch in anderen Wirtschaftsbereichen Interesse an biologischen Produktionsverfahren (Energiegewinnung, Biotechnologie, ökologisch unbedenkliche Abfallbeseitigung etc.). Anders als die industrielle chemische und technische Produktion ist die biologische Produktion in Verlauf und Ergebnis häufig extrem standortabhängig und verläuft meist in langen Zyklen. Produktionsergebnisse werden durch das Zusammenwirken deterministischer und stochastischer Komponenten geprägt, wobei deren spezifische Ausprägungen am Produktionsstandorteine besondere Stellungeinnehmen. Eine Vielzahl dieser Standortfaktoren wirken nämlich systematisch auf die Produktion ein, über ihren Einfluß liegen allerdings bei Aufnahme der Produktion nur unscharfe Informationen vor. Durch Verwertung der nach jedem Produktionszyklus anfallenden Informationen können die Standortwirkungen aber erlernt und damit die Produktionsvorgänge optimiert werden.

Christian Noell

Vergleich adaptiver Verfahren der Exponentiellen Glättung

Die Güte von Prognosen mit Hilfe der exponentiellen Glättung hängt in sehr hohem Maße vom Wert des Glättungsparameters α ab. Bei “stabilen” Zeitreihen zeigt sich, daß ein kleiner Wert für α tendenziell bessere Prognosen liefert als ein großes α. Bei instabilen Zeitreihen mit Strukturbrüchen ist, um eine schnelle Anpassung an Strukturveränderungen zu erzielen, ein großes α erforderlich. Bei bereichsweise stabilen Zeitreihen mit Strukturbrüchen ist deshalb bei der Anwendung der exponentiellen Glättung im Regelfall ein variabler Glättungsparameter wünschenswert, damit das Verfahren schnell auf Strukturänderungen reagieren kann.

J. Schwarze

PROGA — eine Experimentier- und Lernumgebung für kurzfristige Univariable Prognoseverfahren

Zwischen theoretischem Wissen und seiner praktischen Anwendbarkeit liegen oft Welten. Denn der erfolgreiche Einsatz von erworbenem Sachwissen erfordert Erfahrungen, die nicht in Form von Faktenwissen vermittelbar sind. Auch Erfahrungsberichte kortnen diese Lücke kaum schließen, denn sie präsentieren Schlußfolgerungen, die ein Leser bzw. Hörer in vollem Maße in ihrer Bedeutung kaum erfassen kann. Deshalb ist in vielen Wissenschaftsbereichen die Vermittlung von Wissen und vor allem Know-how heute ohne Laborversuche undenkbar.

Jochen Benz, Michael Gebauer, Susanne Schneider

Über das Verhalten Einiger Ausreissertests bei Zeitreihen für Endliches Messdesign

Der Autor gab in [13] mehrere Tests zur Überprüfung einer Realisierung x1,…,xn einer Zeitreihe auf Ausreißer an. Dabei ging man von der Kenntnis eines ungestörten Datenblocks, nämlich x1,…,xr, aus. Für die Prüfgrößen wurden die asymptotischen Verteilungsfunktionen (r →∞, n-r=k = konst.) berechnet und miteinander verglichen.

Wolfgang Schmid

Organisation und Entscheidungstheorie

Die Bewertung Neuer Technologien Mit Verfahren Des Multi-Criteria-Decision-Making

Der Einsatz neuer Technologien stellt die Unternehmen vor Entscheidungsprobleme, die durch klassische Konzepte der Wirtschaftlichkeitsanalyse nicht adäquat erfaßt werden können. Neue Technologien verandern das Leistungsverhalten von Fertigungssystemen in einer Weise, die durch Kosten- und Erlösgrößen nicht vollständig beschreibbar ist. Die Notwendigkeit einer mehrdimensionalen Bewertung ist deshalb sowohl in der betriebswirtschaftlichen Literatur wie auch in der betrieblichen Praxis allgemein anerkannt.

W. Habenicht

Konsistenz von Entscheidungsverfahren für Mehrfache Zielsetzungen bei Variablen Attributmengen

Entscheidungsverfahren bei mehrfacher Zielsetzung gehen häufig von einer a priori festgelegten und unveränderlichen Menge von Attributen aus. In realen Entscheidungssituationen kann jedoch der Fall eintreten, daß im Zuge der Entscheidungsfindung weitere Aspekte des Problems als relevant erkannt und als Attribute in den Entscheidungsprozeß mit einbezogen werden. Für die Plausibilität und damit die Akzeptanz eines Entscheidungsverfahrens ist die Reaktion des Verfahrens auf derartige Änderungen von großer Bedeutung. Führt z.B. die Einbeziehung eines weiteren Attributes zu einer Umkehrung in der Reihung von Alternativen, die aus den Datenwerten des neu betrachteten Attributes nicht intuitiv einsichtig ist, so kann das Vertrauen des Anwenders in das benutzte Verfahren und die damit erzielte Lösung erheblich beeinträchtigt werden.

Rudolf Vetschera

Zur Axiomatisierung und den Konsequenzen der dualen Theorie der Entscheidungen unter Risiko

Gegenstand der Theorie der Entscheidungen unter Risiko ist die Charakterisierung optimalen Verhaltens in Situationen, in welchen zwischen mehreren Aktionen gewählt werden kann, wobei das Resultat dieser Handlung noch abhängig ist vom Eintreten eines Umweltzustandes; die Wahrscheinlichkeiten für das Eintreten der Umweltzustände werden als bekannt vorausgesetzt. Während die Modellierung der Entscheidungssituation hier nicht problematisiert wird, soil die Frage, wie die „Optimalitat“ von Handlungen beschrieben wird, unter einem speziellen Blickwinkel untersucht werden. Dieser Gesichtspunkt wird am deutlichsten durch die Fragestellung beleuchtet, welche Art von Rationalität man der „Optimalitat“ zugrundelegt.

Ralf Trost

Stochastische Dominanz Bei Unvollständiger Wahrscheinlichkeitsinformation

In diesem Vortrag werden LP-Ansätze vorgestellt, mit deren Hilfe stochastische Dominanz zwischen zwei Alternativen bei Vorliegen von artieller Information über die Eintrittswahrscheinlichkeiten der Umweltzustände überprüft werden kann. Die Ansätze setzen eine endliche Menge von Umweltzuständen voraus.

Hans-Jürgen Keppe, Martin Weber

Asymmetrische Informationsverteilung und der Handel von Informationen auf Märkten

Asymmetrisch verteilte Informationen zwischen Käufer und Verkäufer gelten gemeinhin als die Funktionsfähigkeit von Märkten beeinträchtigend, da sie vorteilhafte Transaktionen behindern oder sogar vereiteln. Es existieren jedoch Märkte, die eine differenziertere Einschätzung der Auswirkungen von ungleich verteilter Information verlangen; und hierzu zählt der Markt für das Gut ‘Information’.

Eva Terberger

Neuere ökonometrische Verfahren des Betriebsveraleichs: eine Anwendungsstudie der Data-Envelopment-Analyse

Ausgangspunkt für die Data-Envelopment-Analyse (DEA), die 1978 von CHARNES/COOPER/RHODES (CCR) konzipiert wurde, bilden die Arbeiten FARRELLs. Der Anlaß für dessen Arbeiten im Jahre 1957 war, daß bis dahin kein befriedigendes Maß zur Messung der Produktionseffizienz von komplexen Firmen, die multiple Inputs zur Produktion multipler Outputs einsetzen, existierte. Sein Ziel bestand somit einerseits darin, aus den bestpraktizierenden Firmen die relevante, empirische Produktionsfunktion zu schätzen und andererseits in der Konstruktion eines einzelnen Maßes der technischen Effizienz, das das Verhalten ökonomischer Einheiten durch Einbeziehung aller Inputs und Outputs und unter Vermeidung von Indexierungsproblemen widerspiegeln sollte.

Eva Zanders

Decision Support-Systeme und Künstliche Intelligenz

Externe Unternehmensmodellierung Unter Berücksichtigung von Branchenbesonderheiten und Aggregationsstufen

Unter externer Unternehmensmodellierung soil eine Form der Unternehmensprognose, -planung und -kontrolle verstanden werden, bei der ausschließlich publizierte Informationen Verwendung finden. Für eine solche Modellierung interessieren sich institutionelle Anleger sowie Unternehmen, die im Rahmen der Konkurrenzanalyse oder der Akquisitionspolitik Urteile qualifiziert unterstützen wollen.

Reinhart Schmidt

Bayes-Lernen in Inferenznetzwerken

Auf der Basis der Wissensdarstellung durch symmetrische Inferenznetzwerke wird ähnlich wie im Expertensystem Prospector die Schlußkraft zwischen zwei Knoten durch Sufficiency- (L S ) und Necessity-Koeffizienten (L NL ) bewertet. Kanten können beliebig zwischen Knoten angelegt werden, wodurch keine eindeutige Differenzierung zwischen Evidenzen und Hypothesen notwendig wird. Die Eintrittswahrscheinlichkeit jedes Hypothese-Knotens ist durch eine Betaverteilung charakterisiert, die nach Anregung einzelner Evidenzen-Knoten mit Hilfe des Bayesschen Satzes zum Prognosewert führt. Nach der Prognose wird in jeder Evidenz-Hypothese-Beziehung sowohl die Betaverteilung der Hypothese als auch die Bewertung der aktiven Kante nach feed-back-Information über die Richtigkeit der Prognose mittels Bayesschem Satz aktualisiert. Diese Akkumulierung von Informationen über die Eintrittswahrscheinlichkeitender Knoten als auch uber deren Abhängigkeiten und ein Alterungsmechanismus befähigt das System zu lernen. Dadurch ist es jederzeit in der Lage, die Realität im Inferenznetzwerk abzubilden. Um auch komplexe Fragestellungen behandeln zu können, werden in dieser Arbeit sowohl das unsichere Eintreten einer Evidenz als auch das Zusammenwirken mehrerer Evidenzen bei Unabhängigkeit berücksichtigt.

W. Rödder, H. P. Reidmacher

Flexible Planung und Kontrolle von Prototypingprojekten

Grundlage für das Projektmanagement von Softwarentwicklungsprojekten ist die Unterteilung des Entwicklungsverlaufes in unterschiedliche Teilaufgaben und -ergebnisse. Die traditionellen Verfahren orientieren sich an linearen Vorgehensweisen nach dem Softwarelebenszyklus [15]. Kennzeichnend für diese Einteilung des Entwicklungsverlaufs und aller darauf aufbauenden Modelle ist die Trennung von Analyse und Realisierung. Der Konkretisierungsgrad nimmt im Entwicklungsverlauf zu, von einer abstrakten Problemdefinition bis zum konkreten Einsatz werden mehrere Entwicklungsphasen durchlaufen. Den einzelnen Phasen können relativ klar abgrenzbare Aufgaben und Ergebnisse zugeordnet werden. Die Ergebnisse jeder Phase gehen direkt in die nachfolgende Phase ein.

Wolfram Pietsch

Datenbewertung mit Expertensystem-Unterstützung Integration und Praktische Erfahrungen

Im Vortrag soll ein Expertensystem vorgestellt werden, das die Auswahl von Kunden für Vertriebs- und Marketingaktionen unterstützt. Es beurteilt Kunden auf Basis vorhandener Daten und leitet entsprechende Aktivierungshinweise ab.

B. Arrenberg, B. Gurth

Tourenplanung mit einem Suchverfahren der Künstlichen Intelligenz

Gegenstand unserer Untersuchungen ist die Anwendung heuristischer Graphensuchverfahren aus dem Bereich der Künstlichen Intelligenz (vgl. [3], [5] und [6]) auf Problemstellungen der Tourenplanung. In dem vorliegenden Beitrag wird das nur mengenmäßig beschränkte Standardproblem mit einem Depot betrachtet; d. h. die Zielsetzung besteht in der Entfernungsminimierung, wobei die Summen der Entlademengen der ermittelten Touren die maximale Kapazität der Fahrzeuge nicht überschreiten dürfen.

Herbert Kopfer, Michael Lontke

Expertensystem zur Branchenstrukturanalyse

Grundlage strategischer Entscheidungen eines Unternehmens bildet die Untersuchung der relevanten Umweltbedingungen und der internen Potentiale. Dabei stellt die ganzheitliche Bewertung und Beurteilung strategischer Einflußgrößen aufgrund der Komplexität und der inhärenten Unsicherheiten bezüglich der Relevanz, der Wirkungsweise und der Beziehungen zwischen strategischen Faktoren eine wesentliche Schwierigkeit dar. Zur Entscheidungsunterstützung werden bei der strategischen Planung vornehmlich komplexitätsmindernde Hilfsmittel eingesetzt, die auf Heuristiken und Annahmen über das Zusammenwirken der Faktoren basieren. Durch den Einsatz eines Expertensystems kann die explizite Berücksichtigung nicht exakt beschriebener Beziehungen und Abhängigkeiten rechnergestützt erfolgen.

Brigitte Werners, Belinda Lelke

Entscheidungsunterstützung bei der Auswertung von Primārforschungsdaten — Ein Konzept zur Verbindung von Wissensbasis, Datenbank und Methoden

Auf der Basis eines bereits realisierten wissensbasierten Prototypen, mit dem Benutzer bei der Auswahl von Datenanalysemethoden unterstützt werden können, wird für ein Nachfolgesystem ein Konzept vorgestellt, das bei vorgegebenem Auswertungsziel und erhobenen Primärforschungsdaten geeignete Folgen von Auswertungsschritten als Problemlösung vorschlägt. Über das dabei verwandte Datenmodell und die gewählte Form der Repräsentation des Wissens über Methoden wird berichtet.

Daniel Baier, Wolfgang Gaul

Zum Einsatz von DSS in Unternehmensspielen

Unternehmensspiele werden nicht nur als Lehrmittel in der betriebswirtschaftlichen Ausbildung, sondern auch für Forschungszwecke als wirtschafts- und sozialwissenschaftliches Labor eingesetzt.

Carsten Weimann

Entscheidungsunterstützung bei der FuE-Programmplanung

Die Zusammenstellung eines geeigneten FuE-Programms durch Auswahl von FuE-Projekten erfordert die simultane Berücksichtigung einer Fülle von Aspekten. Hierzu gehören verschiedene Arten von Projektinterdependenzen, externe Abhängigkeiten, multidimensionale Beurteilungskriterien und das Vorliegen von Unsicherheiten. Durch eine Abbildung mittels mathematischer Modelle und deren rechnergestützter Auswertung soll der Entscheidungsfäller in der Behandlung dieses komplexen Entscheidungsproblems unterstützt werden.

Richard Weber, Brigitte Werners

Wirtschaftsinformatik

AVOS: Ein Auswahlverfahren mit gewichteten Kriterien und ordinalen Skalen

In vielen Bereichen steht man vor der „Qual der Wahl“, aus einer Fülle von Objekten das bestmögliche herauszufinden. Als Hilfestellung werden dafür unterschiedliche Algorithmen angeboten. Es gibt schnelle Algorithmen, die jedoch oft ungenau sind, und genauere, die dafür aber lange dauern.

G. Bolch, S. Smorodinskij, M.-M. Vollath

Entwicklung Eines Expertensystems für das DV-Controlling

Für das Controlling der Datenverarbeitung wird ein Instrument vorgestellt, das sowohl ein Kennzahlenals auch ein Expertensystem einschließt.

Jürgen Nonhoff

Zum Verbund von Individueller und Zentraler EDV

Personalcomputersysteme werden seit Anfang der achtziger Jahre zur Lösung von DV-Problemen an Arbeitsplätzen eingesetzt. Bis vor kurzem waren PCs überwiegend als stand-alone-Geräte im Einsatz. Es bestand keine Verbindung zu der existierenden Groß-DV oder zu vorhandenen Abteilungsrechnern. Insbesondere fordern Endanwender, daß ein Informationsaustausch auf Gruppen- bzw. Abteilungsebene stattfindet, daß eine Integration der Daten auf Unternehmensebene realisiert wird und daß der Zugriff auf andere EDV-Systeme möglich ist.

Klaus Huckert

Stochastische Prozesse einschl. Zuverlässigkeits — und Bedienungstheorie

Über Einige Neuere Modelle der Zuverlässigkeitstheorie

Modelle der Zuverlässigkeitstheorie befassen sich mit verschiedenen Aspekten der Analyse von Funktionsfähigkeit und Kontrolle technischer Systeme. Die Theorie der stochastischen Prozesse stellt ein wichtiges Hilfsmittel zur Untersuchung zufallsabhängiger Zustandsverläufe dar. Im Rahmen dieser Theorie werden einige neuere Optimierungsmodelle betrachtet, die sich mit der besten Wahl eines Zeitpunktes für eine Instandhaltungsaktion befassen. Es wird ein Konzept vorgestellt, welches eserlaubt, Optimierungsprobleme auch unter Berücksichtigung unterschiedlicher Informationsniveaus zu lösen. Dies wird an einem Beispiel mit Punkt-Prozeß-Beobachtungen demonstriert.

Uwe Jensen

The Shortest Queue Problem

Consider a system consisting of two identical servers, each with exponentially distributed service times. Jobs arrive according to a Poisson stream. On arrival a job joins the shortest queue and in case both queues have equal length, he joins the first queue with probability q and the second one with probability 1-q. This problem is known as the shortest queue problem. Haight [3] originally introduced the problem. Kingman [4] and Flatto and McKean [2] treated the symmetric problem, that is q = ½ , by using a generating function analysis. They showed that the generating function for the equilibrium distribution of the lengths of the two queues is a meromorphic function. Then by the decomposition of the generating function into partial fractions, it follows that the equilibrium probabilities can be represented by an infinite sum of product form solutions. However, the decomposition leads to cumbersome formulae for the equilibrium probabilities.

I. J. B. F. Adan, J. Wessels, W. H. M. Zijm

Discrete-Time Queues with Intermittently Available Server and Preemptive Priorities

Priority queueing systems in discrete time have not yet attained the degree of maturity as their counterparts in continuous time. Caution is needed in paralleling the continuous-time analysis, because instants of arrival and service completions may coincide when restricted to regularly spaced epochs.

Manfred Kramer

A Non-Exponential Queueing System with Independent Arrivals but Batch Servicing

We study a queueing system with a finite number of input sources. Jobs are individually generated by a source but wait to be served in batches, during which the input of that source is stopped. The service speed of a server depends on the mode of other sources and thus includes interdependencies. The input- and service times are allowed to be generally distributed. A product form expression is obtained for the steady state joint queue length distribution which is insensitive (i.e. depends on only mean input- and service times). The result is of both practical and theoretical interest as an extension of more standard batch service systems. An application to optimal design is included as an illustration.

Eric Smeitink

Über das Asymptotische Verhalten von Markov Ketten Vom M/G Typ

Eine Markov-Kette heißt vom M/G-Typ, falls die Übergangsmatrix P der Markov-Kette die Gestalt $$P = \left( {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {{B_0}} \\ C \end{array}} \\ {} \\ {} \end{array}} \\ {} \end{array}}&{\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {{B_{_1}}} \\ {{A_1}} \end{array}} \\ {{A_0}} \\ {} \\ 0 \end{array}}&{\begin{array}{*{20}{c}} {{B_2}} \\ {{A_2}} \\ {{A_1}} \\ {\begin{array}{*{20}{c}} {{A_0}} \\ {} \end{array}} \end{array}}&{\begin{array}{*{20}{c}} {...} \\ {...} \\ {...} \\ {\begin{array}{*{20}{c}} {...} \\ \ddots \end{array}} \end{array}} \end{array}} \right)$$ mit nichtnegativen Matrizen AiBi(i ∊ N0 und C hat. Fü die stationäre Verteilung $$\overrightarrow x = {\left( {\overrightarrow {{x_n}} } \right)_{n \in {\mathbb{N}_0}}}$$ einer Markov-Kette werden notwendige und hinreichende Bedingungen für ein asymptotisch geometrisches Verhalten, das heißt für ein asymptotisches Verhalten der Form $$\overrightarrow x = {\tau ^{ - n}}\overrightarrow u + O\left( {{\gamma ^{ - n}}} \right)\overrightarrow e$$ fü $$n \in {N_0}$$ mit$$\vec u \in \mathbb{R}_ + ^m,1 < \tau < \gamma ,\vec e = {\left( {1,...,m} \right)^T}$$, angegeben. Die Unterteilung von $$\overrightarrow x$$ in Teilvektoren entspreche dabei der Unterteilung der Matrix P.

Egbert Falkenberg

Ein Semi-Markov Modell für die HIV-Progression

Ein HlV-Infizierter durchläuft während seiner Krankheit mehrere Stadien. Der Krankheitsverlauf beginnt mit der frischen Infektion und endet mit dem Tod an AIDS oder einer anderen Ursache. Die Übergänge zwischen den Stadien und die in den Stadien verbrachten Verweilzeiten sind zufällig. Unter der — empirisch noch zu verifizierenden — Annahme, daß alle Übergänge insgesamt stochastisch unabhängig sind, ist jeder Krankheitsverlauf die Realisierung eines Markov’ schen Erneuerungsprozesses. Wir übernehmen die Stadieneinteilung infiziert, Lymphadenopathiesyndrom, AIDS-related complex, Vollbild AIDS, Tod an AIDS und Tod an anderer Ursache, wobei die Wahl der Zustände nicht von prinzipieller Bedeutung für die Anwendung des Modells ist. Mit einem geeignet gewählten Semi-Markov-Kern berechnen wir die momentane Aufenthaltswahrscheinlichkeit in den einzelnen Stadien unter der Bedingung eines Starts in einem bestimmten Zustand zum Zeitpunkt 0, daraus die Erwartungswerte der Aufenthaltsdauern und daraus, unter geeigneten Annahmen über die stadienspezifischen Kostenraten, wiederum die Erwartungswerte der Gesamtfallkosten. Die Anwendung der Theorie der Markov’schen Erneuerungsprozesse erweist sich im vorliegenden Fall als besonders einfach, da der Semi-Markov-Kern, der zur Modellierung des HIV-Verlaufs vorgeschlagen wird, solange Dreiecksform hat, wie die Patienten vorangegangene Zustände nicht wieder erreichen können, wenn sie sich einmal in einem fortgeschritteneren Stadium aufhalten. Der Modellansatz ist insofern allgemein, als über die Verweilzeitverteilungen, außer daß sie auf der positiven Halbachse konzentriert sind, nichts weiter vorausgesetzt wird. Solange die vorhandenen Daten über den Krankheitsverlauf (noch) nicht ausreichen, um die Modellvoraussetzungen zu überprüfen, bleibt der Ansatz ein Versuch, der aber im Hinblick auf die einschneidenden Auswirkungen, die die Krankheit auf den Umfang und die Struktur der Nachfrage nach Leistungen des Gesundheitssystems haben wird, als lohnenswert erscheint.

Johannes Tritschler

Modellierung und Bewertung paralleler Programme mit Hilfe von Markovketten

Ein geeignetes Beschreibungsmittel für den Ablauf paralleler Programme auf Multiprozessorsystemen sind stochastische Graphen. Die Analyse des Laufzeitverhaltens paralleler Programme kann auf die Analyse solcher Graphen zurückgeführt werden. Bei vielen praktischen Problemen zeigen die entsprechenden Graphmodelle eine gewisse Regelmäßigkeit. Zunächst wird die Modellierung konkreter Beispiele vorgestellt; die betrachteten Anwendungen stammen aus den Bereichen Iterationsverfahren und Macropipelining. Die Analyse der stochastischen Graphen erfolgt durch die Abbildung der Graphen in Markovketten, aus deren transienten Lösungen die Leistungsgrößen abgeleitet werden.

G. Fleischmann, G. Werner

An Approximation for the Response Time of an Open CP-Disk System

In this paper we will discuss the analysis of the response time distribution of database queries to a computer system. This computer system is described as an open queueing model, consisting of a CP and a Disk. The complexity of the model is too large to obtain the exact distribution for the response time of a job to this system, but after some approximations we will derive a good estimation for the distribution.This is an example of the kind of problems, which arise in practice in evaluating the performance of information processing systems.

A. Dekkers, J. van der Wal

Optimal Pricing for the Sale of Several Commodities

k commodities of the same kind are for sale in a finite time interval I, and potential customers arrive according to a Poisson process. It is assumed that no customer may buy nore than one unit. The seller has to fix, for each t ∊ E and each j ∊ 1,…, 1, a price for which he is willing to sell a commodity at time t. This decision is based on the knowledge of the probabilities that a customer appearing at time t will accept a price at most x monetary units (for all t ∊ I and x > 0). There is no possibility of recall of previous customers. The maximal expected gain for selling k commodities ist, as a function of t, seen to satisfy a recursive system of integral equation which under suitable conditions can be reduced to a recursive system of first order differential equations. Once this system is solved, an optimal price function is easily determined.

Wolfgang Stadje

The Multi-Armed Bandit Problem: Computational Aspects

Suppose there are N independent projects on which we can work. Each project is, at any time, in some state. After observing the states of each project, one project has to be selected to work on for the next period. If project k is selected and the state of the project is i, the we receive an expected reward rk(i) and the next state of project k becomes j with prohability pk(i,j). The states of the remaining projects, which are not worked on, do not change. The problem is to find a selection rule which maximizes the α-discounted rewards.

Lodewijk C. M. Kallenberg

On the Size of Buffers in an Assembly Line

We consider the design of a large assembly line with approximately 50 machines, in particular the question where intermediate buffers are necessary, and what size these buffers should have. If in a production or assembly line without buffers one of the machines fails, within a few minutes all machines in front of it will be blocked, and the machines after the one that failed are going to starve. Depending on the failure frequencies and failure times this may lead to an enormous loss of production capacity for the entire system. For the case of 50 machines, where each of the machines is down 2% of the time, the capacity of the whole system may reduce to 36% of the capacity without failures. With infinite buffers the capacity remains 98%.

Jan van der Wal

Dynamische Optimierung mit Nebenbedingungen für die Berechnung von Instandhaltungsstrategien

Für Systeme (im Sinne der Zuverlässigkeitstheorie) mit modularem Aufbau wird die Instandhaltung bei unterschiedlichen Informationsständen untersucht. Bei unvollständiger Information über den Systemzustand wird eine optimale Instandhaltungsstrategie durch „Dynamische Optimierung mit Nebenbedingungen“ berechenbar.

Stefan Schneeberger

Mathematische Optimierung

New Algorithms for Concave Minimization Problems

Our aim is to find a global solution of the concave minimization problem glob min f(x) s.t. gi (x) ≤ 0 (i=1,…,m) ’ where (—f), gi (i=1,…,m) are real—valued (finite) convex functions defined throughout ℝn. The feasible set D= {x ∈ ℝn: gi (x) ≤ 0 (i=1,...,m){ is assumed to be bounded.

Reiner Horst

Simultaneous Nonlinear Learning Curve Estimation

Over the years, it has been demonstrated repeatedly [Gulledge and Womer (1986)] that the learning curve is not appropriate for modeling variable cost in made-to-order production programs unless production rate is constant. The effects of production rate changes are not considered in models which employ only learning curve techniques, even though the theoretical foundations for investigating production rate impacts on costs have been considered by economists for many years. These learning curve models consider cumulative output to be the most important cost determinant. After Alchian (1959) implicitly combined a learning curve hypothesis with economic theory in a study related to military airframes, research has appeared that integrates the approaches [Rosen (1972), Washburn (1972), Womer (1979), Womer and Gulledge (1983), Gulledge and Womer (1986)]. Most of these studies are based on production models that are continuous in both time and output rate. The model presented in this paper considers the number of units being produced as a discrete variable within a multistage optimization problem framework.

Thomas R. Gulledge, M. Murat Tarimcilar, Norman Keith Womer

About the Development of Integrated Software-Systems for Mathematical Programming

The development of mathematical programming systems will be analysed from the view point of users who are interested in problem solving with computer assistance These users need fast and robust support in practical decisions. They are neither computer experts nor specialists in mathematical programming. We will point out how advanced software and computer systems can provide assistance in problem formulation, its management, solution and interpretation of results. We will mainly concentrate on systems with the WYSIWYG-(what you see is what you get)-concept and systems for nonlinear programming problems. The main idea is to use the object-oriented paradigm of computer languages for the design of the user interface. For the class of nonlinear problems the questions of sequential and parallel use of optimization algorithms for the single and multiple criteria case, the use of symbol-processing for obtaining derivatives and knowledge-based choice of algorithms are investigated. As an example a prototype of the mathematical programming system OpTiX for micro- and minicomputers is presented.

Manfred Grauer

New Results on the Projection Gradient Method

At EURO IX, held in Paris in july 1988, we presented a new projection gradient method for linear programming. The method is very efficient (Our Gradient-Ip package is about twice faster compared to other commercial computer packages) and is already used for industrial applications in france at Air France, Renault, in agriculture,...

Eric Jacquet-Lagrèze

LP-Preprocessing und Crash-Prozeduren zur Lösung Grosser und Schwieriger LP-Modelle

Der Vortrag beschreibt Algorithmen zur Reduktion von LP-Modellen mit der Zielsetzung, die nachfolgende LP-Optimierung zu beschleunigen. Dies erfolgt durch das Fixieren von Variablen, das Entfernen von expliziten Schranken auf Variablen und die Erkennung von (schwach) redundanten Restriktionen.

Uwe H. Suhl, Ralf Szymanski

Degeneracy Graphs — A Survey

Degeneracy is a complex phenomenon linked with various mathematical programming problems the constraints set of which defines a convex polyhedral set (particularly, a convex polytope), such as linear programming (see, e.g., Altman (1964), Balinski et al. (1986), Beale (1955), Dantzig (1963), Hoffmann (1953), Megiddo (1986), Wolfe (1963)), transportation (network) type of problems (see, e.g., Ahrens und Finke (1975), Cunningham (1979), Cunningham and Klincewicz (1981), McKeown (1978)), quadratic optimization (see, e.g., Chang and Cottle (1980)), linear complementarity problems (see, e.g., Kostreva (1979)), bottleneck linear programming (see, e.g., Derigs (1982), Garfinkel and Rao (1976), Hammer (1969), Seshan and Achary (1982)), multiparametric linear programming (see, e.g., Gal (1979)), linear vectormaximization (see, e.g., Philip (1977)), linear integer vectormaximum problems (see, e.g, Ramesh et al. (1988)), nonlinear programming (see, e.g, Horst et al. (1988)), piece-wise-linear programming (see, e.g, Fourer (1988)) etc. — for more references see Kruse (1986) und Zörnig (1989).

Tomas Gal

Übergangsknoten — Pivotauswahl und Ihre Anwendung im N-Baum-Verfahren

Die mit dem Auftreten primaler Entartung verbundenen Effizienzprobleme pivotisierender Verfahren sind bis heute nicht zufriedenstellend gelöst, wie die ständige Entwicklung von Pivotauswahlverfahren für den Entartungsfall belegt (vgl. z. B. die Literaturübersicht in GAL (1989)). Besonders deutlich wird ein solches Defizit bei den Verfahren zur Bestimmung aller Ecken eines Polyeders, die keine konkreten Ansätze zur Behandlung des Entartungsfalles bieten (vgl. Dyer und Proll (1982)), so daß ein Anlaß gegeben war zur Entwicklung eines eigenständigen Verfahrens zur Bestimmung aller Nachbarecken einer entarteten Ecke, d.h. zur Lösung des sog. N-Problems. Mit dem daraus resultierenden N-Baum-Verfahren (Kruse (1986)) steht ein Instrument zur Verfügung, das den Aufwand zur Lösung des N-Problems deutlich reduziert (Sauerbier (1989)). Im Gegensatz zur Berechnung aller Knoten (einer Zusammenhangskomponente) des positiven Entartungsgraphen verringert es den Rechenaufwand durchschnittlich um mehr als zwei Drittel. Die zur Steuerung dieses Verfahrens verwendete ε-Störungsregel (Charnes (1952)) verhindert jedoch nicht Pivotschritte in innere Knoten des positiven Entartungsgraphen. Dies schien im Hinblick auf die Aufgabenstellung unbefriedigend, zumal da die Analyse konkreter Entartungsgraphen zeigte, daß es möglich ist, die Übergangsmengen durch positive Pivotschritte zu verbinden. Das folgende Beispiel deutet die Vorteile einer solchen Vorgehensweise an.

Ferdinand Geue

Bounds on the Aggregation Error in Case of Primal Degeneracy

In computing a-posteriori-bounds on the objective function values of column-aggregated linear programs, the aggregate optimum may be primal degenerate. It is shown that in this case the bounds may be tightened by using other basic dual solutions or well chosen convex combinations of basic dual solutions obtained by applying a razor search procedure. Empirical results on the effect of degeneracy on computing bounds are presented.

Gerhard Knolmayer, Klaus-Peter Stuhr

Postoptimale Analyse für Entartete Lineare Optimierungsprobleme

Während im nichtentarteten Fall die gesuchten Größen im Rahmen einer postoptimalen (Sensitivitäts-) Analyse unmittelbar aus dem optimalen Tableau berechnet werden können, sind im entarteten Fall die zugehörigen Informationen über eine Vielzahl von optimalen Tableaus verstreut, [1, 2, 3, 6, 7, 11, 12].

Gabriele Piehler

Eine Entscheidungsorientierte Typologie von Zuschneide- und Packproblemen

In der Literatur der Betriebswirtschaftslehre, der Ingenieurwissenschaften, der Informatik und Mathematik sowie des Operations Research gewinnen Probleme an Bedeutung, die, obwohl sie eine starke strukturelle Verwandtschaft aufweisen, oft unabhängig voneinander behandelt werden und dementsprechend auch sehr unterschiedlich bezeichnet sind. Es handelt sich hierbei um Probleme des Zuschneidens oder Packens materieller oder immaterieller Objekte fester geometrischer Abmessungen.

Harald Dyckhoff

Fulpal — ein Interaktives Vefahren zur Lösung Linearer (Mehrziel)-Optimierungsprobleme mit Vagen Daten

Wird ein reales Entscheidungsproblem in Form eines klassischen linearen Optimierungsmodells abgebildet, so muß der Entscheidungsträger in der Lage sein, allen Koeffizienten der Zielfunktion(en) und der Restriktionen eine eindeutig bestimmte reelle Zahl zuzuordnen.In vielen praktischen Anwendungdfällen reichen aber die Informationen des Entscheidungsträgers nicht aus, um diesen hohen Anforderungen zu genügen.

Heinrich Rommelfanger

Spieltheorie

Spieltheoretische Ansätze zur Lösung multikriterieller Entscheidungsmodelle

Seit em Beginn der sechziger Jahre wird in der entscheidungsorientierten Betriebswirtschaftslehre davon ausgegangen, daß in einer Unternehmung nicht nur das Ziel der Gewinnmaximierung, sodern auch wietere Zielsetzungen verfolgt werden (vgl. u. a. DINKELBACH [1962]], DINKELBACH [1982, S. 153f.]). In der sogenannten Vektoroptimierung wird diese Problemstellung formalisiert ung Lösungsansätze dafür vorgeschlagen.

Fritz Wengler

Spieltheoretische Modellierung Eines Gesellschaftlichen Prozesses

Bestimmte Entwicklungen in einem gesellschaftlichen Gefüge lassen sich verallgemeinernd als Prozeß beschreiben, in dem konkurrierende Interessenlagen zu einem stabilen Gleichgewicht gelangen. Dabei ist in aller Regel das Wissen der beteiligten Gruppierungen über die Interessenlage und das Verhalten anderer sowie über weitere Einflußgrößen nicht detailliert. Prozeßbestimmend sind daher subjektive, sich im Prozeßverlauf ändernde Vermutungen. Diese Situation laßt sich mit einer von W. Böge und seinen Schülern entwickelten Konzeption spieltheoretisch modellieren. Sein Ansatz grenzt sich von anderen ab, indem a) die Spieler ihren mittleren erwarteten Nutzen maximieren (Bayes’sche Hypothese), b) die Wahrscheinlichkeitsverteilungen beliebig (unabhängig) verteilt vorgegeben werden konnen und c) diese subjektiven a priori Vermutungen in abzahlbar vielen Schritten zu eindeutig bestimmbaren a posteriori Vermutungen führen. Schon ein relativ einfaches Beispiel kann zeigen, daß diese Art der Modellierung komplexe Wirkungsmechanismen aufdecken und beschreiben kann: Zwei Parteien haben sich in einem dreistufigen Abstimmungsverfahren auf eine von vier Alternativen zu einigen. In jeder Stufe schlägt eine der Parteien eine Alternative vor, die die andere annehmen (Ende des Verfahrens) oder ablehnen kann (Weiterführung des Verfahrens). In der dritten Stufe muB die dort vorgeschlagene Alternative von beiden Parteien akzeptiert werden. Außere Einflüsse sind nur insoweit gegeben, als in jeder Stufe der Vorschlagsberechtigte ausgelost wird. Geht man von der Gleichverteilung in den drei Losgängen und von der vierdimensionalen Standardnormalverteilung als subjektiver Vermutung auf den moglichen Nutzenfunktionen der jeweils anderen Partei aus, dann existieren zwei eindeutig bestimmbare Gleichgewichtspunkte. Im ersten Gleichgewichtsfall sind, den vier Alternativen gemaß, die vier kompromißlosen Strategien moglich, nur die Alternative mit dem eigenen maximalen Nutzen vorzuschlagen und auch nur diese anzunehmen.

Wolfgang Morgenstern, Reginald Scheidt

Kontrolltheorie

Interaction of Price and Advertising under Dynamic Conditions

This paper studies the strategic implications of price-advertising interactions in an intertemporal setting. Our model is based on three dynamic effects: product life cycle, learning by doing, and discounting. The main interest lies on the interaction between the optimal price and advertising policies and their dependence on the product life cycle. As a general result it turns out that the optimal price policy follows the product life cycle. Moreover, both the advertising and the pricing policies do depend on the efficiency of advertising expenditures.

Engelbert J. Dockner, Gustav Feichtinger, Gerhard Sorger

Debt Cycles with Endogenous Interest Rate

In the course of economic development, nations may find it optimal to go through a cycle of debt. A recent theoretical paper by Long and Siebert (1989) gives sufficient conditions for this, under the assumption that the country is small and faces an exogenously given and time-independent world rate of interest. This raises an interesting question: would debt cycles be optimal (under certain conditions) if the country is large enough to influence the world rate of interest? In addition, is it possible that a debt cycle repeats itself indefinitely with the same frequency and magnitude? Can debt cycles exhibit the property of a converging spiral?

Ngo Van Long, Horst Siebert

Investment and Dividend Policies of a Firm during a Business Cycle

The dynamic model of the firm to be presented is an extension of earlier models by Leban and Lesourne (“The firm’s investment and employment policy through a business cycle”, European Economic Review 13 (1980), and “Adaptive strategies of the firm through a business cycle”, Journal of Economic Dynamic and Control 5 (1983)) and Nickell (“On the role of expectations in the pure theory of investment”, Review of economic studies 41 (1974)). These articles study, in the context of a deterministic dynamic model, the behaviour of a firm which is confronted with a temporary decline in the demand for its product, while investments are irreversible. In our model financial policies of the firm are introduced in this framework. The firm chooses its dividend and investment policy in order to attain the maximal value for the discounted stream of dividends. Especially the role of dividends and the role of debt during the recession will be examined. In mathematical form, the model is nonautonomous and involves pure state constraints. The Maximum Principle is used to derive the necessary conditions and a path-coupling procedure is employed to find the optimal trajectories of the control and state variables for the entire planning period.

Onno Van Hilten

Politische Konjunkturzyklen Als Lösungen von Linear-Quadratischen Kontrollproblemen

Politische Konjunkturzyklen sind regelmäßge Schwankungen makroökonomischer Variablen, die durch das Verhalten der Regierung ausgelöst werden. Wenn angenommen wird, daß die Regierung eine intertemporale Zielfunktion optimiert, können solche Zyklen im Rahmen politisch-ökonomischer Modelle als Lösungen von Problemen der optimalen Kontrolle abgeleitet werden. Wir geben einen Überblick über einige derartige Modelle, bei denen die Zielfunktion der Regierung quadratisch und das ökonomische Modell linear ist, und zeigen, daß sich bei verschiedenen Modellannahmen unterschiedliche Formen politischer Konjunkturzyklen ergeben können.

Reinhard Neck

Optimal Dynamic Taxation, Saving and Investment

In many recent papers macro-economic models have been developed to study the dynamic evolution of the economy in order to analyze dynamic effects of fiscal policy (e.g. Hall (1971), Brock and Turnovsky (1981), Abel and Blanchard (1983), Judd (1985) and Van de Klundert and Peters (1986)). Aim of these papers is to investigate the incidence of different tax rates such as a tax on profits, a sales tax, a wage tax or a consumption tax with the help of optimal control theory. However, in these kinds of models the tax rates are given exogenously.In this paper we deal with this problem by a more normative approach. We are concerned with optimal dynamic taxation, where the government wants to maximize the utility of a representative consumer (e.g. Turnovsky and Brock (1980)) and tries to choose its tax rate in such a way that this objective is maximized. Moreover, we assume that the government takes into account the way that the firm and consumer will react on its tax policy, while the firms and the consumers takes the decision of the other as given. So, the government behaves as the leader in an open-loop Stackelberg equilibrium (e.g. Basar and Olsder (1982)). However, as pointed out by Kydland and Prescott (1977) and Calvo (1978) such an optimal policy may be time-inconsistent. Once the current is history, the effect of policies on behavior in that period are of little or no interest. Therefore, we are concerned with two possible solutions. The first solution, which is the formal outcome of an open-loop Stackelberg equilibrium of game between government, consumers and firms, is only credible, if there is commitment or if there are reputational forces. The second solution, which correspons to a Nash-Cournot equilibrium is time-consistent, but yields a lower value of steady-state utility. In this paper we show that this problem of time-consistency depends on the kind of tax rates the government chooses.Our approach builds on Abel and Blanchard’s (1983) macro-economic market model, which describes intertemporal choice of consumers and firms in a free market economy. Abel and Blanchard use this framework to analyze the dynamic effects of fiscal policy. We extend the Abel and Blanchard model by modelling optimal government’s behavior and give some rules for the optimal choice of tax policy. It is shown that there only will be time-inconsistency, if the government chooses profit or sales tax to finance their expenditures. Wage and consumption tax cannot be source for time-inconsistency, which gives an incentive to implement these taxes.

Raymond Gradus

Stabilization of employment in an uncertain open-access resource economy

We consider a resource management problem in which the management objective is to minimize fluctuations in resource economics. Stabilizing management policies consist of memoryless state feedback control strategies for a class of discrete time resource models which contain unknown but bounded fluctuations. The underlying theory is based on conditions developed for a Lyapunov type stability of sets. The design of the stabilizing policies is illustrated by a simulation example from resource economics. Specifically, employment of fishermen is stabilized by using a subsidizing and taxing policy in an open access common-property fishery in which the value of the resource and the resource level fluctuate, and where entry and exit dynamics are determined by fluctuating revenues obtained from the fishery.

Veijo Kaitala, George Leitmann

Backmatter

Weitere Informationen