Skip to main content

1993 | Buch

DGOR / ÖGOR

Papers of the 21th Annual Meeting of DGOR in Cooperation with ÖGOR Vorträge der 21. Jahrestagung der DGOR zusammen mit ÖGOR

herausgegeben von: Prof. Dr. Karl-Werner Hansmann, Prof. Dr. Achim Bachem, Prof. Dr. Matthias Jarke, Univ.-Lektor Dr. Wolfgang E. Katzenberger, Dr. Alfred Marusev

Verlag: Springer Berlin Heidelberg

Buchreihe : Operations Research Proceedings

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter

Plenarvortrag

The Appropriateness of O R

The early Operational Research literature is devoted to explaining the applications nature of the subject and appeared in a variety of publications. March 1950 saw the appearance of Volume 1, No.1 of the Operational Research Quarterly1 — a magazine of 15 pages of which 9 were devoted to abstracts of other papers. One of these papers appeared in the UK journal Research Volume 2 in October 1949 and was by G Preuschen2 of (Institut fur Landwirtschaftleich Arbeitswissenschaft und Landtecknik, Imtshausen). The paper reviews the work at Institutes in Pommritz, Bonim and Breslau from 1918 and is fascinating in that it clearly represents some pioneering work covering the interaction of a number of factors aimed at production improvement. These include human and mechanical variables as well as the variability of the environment. The use of experimentation and analytical models were considered.

K Brian Haley

Vortag des Studentenpreisträgers

Simulation von Planungs- und Steuerungskonzepten in der Galvanik der Instandhaltungswerft Hamburg der Deutschen Lufthansa

Die Galvanik der Instandhaltungswerft der Lufthansa in Hamburg ist die größte Reparaturgalvanik Europas. Hier werden in jährlich mehr als 46.000 Einzelaufträgen die Oberflächen von Flugzeugteilen aufgearbeitet. Sie ist ein Dienstleistungsbetrieb der Flugzeuginstandhaltung und hat dafür zu sorgen, daß die Teile dem Ersatzteillager, der Montage oder anderen Werkstätten rechtzeitig zur Verfügung stehen.

Bettina Drüke

Anwendungsberichte aus der Praxis

Modellierung einer integrierten Auftrags- und Tourenoptimierung zur Ersatzteilversorgung der Deutschen Lufthansa AG

In der hier vorgestellten Arbeit werden die Möglichkeiten zur Steuerung der Abläufe bei der Ersatzteilversorgung auf der Lufthansa Basis Frankfurt untersucht. Dabei werden Verfahren vorgestellt, um die beiden Teilvorgänge Materialkommissionierung und -transport einmal getrennt und einmal simultan zu planen. Ziel ist eine möglichst termintreue Materialauslieferung. Ausgehend von einer Priorisierung der Auslagerungsaufträge im Lager nach Earliest Due Dates wird dabei versucht, bereits früher für den internen Transportdienst entwickelte Steuerungsalgorithmen zu integrieren und ein geschlossenes Steuerungssystem für den Gesamtvorgang zu erhalten.

Gerold Carl, Martin Schulte
Wissensbasierte Schwachstellendiagnose im Produktionsbereich

Die Wettbewerbsfähigkeit eines Industrieunternehmens hängt von einer Vielzahl von Leistungsmerkmalen ab. Der Preis der Produkte ist sicherlich ein wesentlicher Punkt, aber auch die Gewährleistung der Lieferfähigkeit und kurzer Auftragsdurchlaufzeiten, die Einhaltung von Lieferterminen, sowie ein hoher Qualitätsstandard der Produkte zeichnen ein erfolgreiches Unternehmen aus.

Frank Fischer
Informationsbedarfsanalyse und Konzeptionierung von Executive Information Systems

Die Informationsstruktur einer Konzern-Organisation, d.h. die Kommunikation zwischen Vorstand, Zentralabteilungen und Spartengesellschaften, werden aktivitäts- und datenflußorientiert dargestellt. Die Informationsflüsse zwischen und innerhalb der Zentralabteilungen und dem Vorstand werden durch Quell- und Zielaktivitäten, der Verarbeitung am Ziel, der Übermittlungsart und dem Rhythmus beschrieben. Die DV-Landschaft der operativen Systeme in den Spartengesellschaften wird erfaßt. Die zeitliche Dimension wird in einem Planungs- und Berichtskalender abgebildet.

Stephan Fuchs, Wolfgang Ibert
Unternehmensmodellierung als Basis einer Anwendungsarchitektur

Die Hauptprobleme der heutigen Anwendungsentwicklung liegen in der gewachsenen Daten- and Funktionsredundanz and damit in der aufwendigen Pflege von Altanwendungen. Für Neuentwicklungen sind nur ca. 20 – 30% der verfügbaren Ressourcen einsetzbar, was letztlich zu dem allzubekannten Anforderungsstau in der Anwendungsentwicklung führt.

Hermann Glück
Absatzprognosen als Basis für die operative Vertriebsplanung bei Volkswagen

Zentrales Kriterium für eine optimale quantitative Vertriebsplanung bei Volkswagen ist die Güte der Prognose für die Bedarfsentwicklung nach Neufahrzeugen der verschiedenen Konzern-Fahrzeugmodelle in allen Vertriebsbereichen des Konzerns.

Reinhard Hecking
Verfahren zur Optimierung interner Transporte am Containerterminal

An einem Containerterminal werden neben der Be- und Entladung von Schiffen, Bahnwaggons und LKWs interne Transporte zur Gestellung von Containern durchgeführt. Solche Transporte sind z.B. die Gestellung von Leercontainern an Packhallen, das Abräumen entpackter Container und ihr Transport in das Leercontainer-Lager oder der Transport von gepackten Containern in den Vorstau zum Export.

Andreas Henning, Dirk Steenken
Point & Figure Charts in der praktischen Anwendung

Es gibt drei wesensmässig verschiedene Ansätze zur Prognose von Aktien- und Devisenkursen. Es sind die 1.Fundamentalanalyse,2.Technische Analyse,3.Random-Walk-Theorie.

Elmar Klausmeier
Das Unternehmens-Führungs-Informations-System (U-FIS) der Ruhrkohle AG

Es wird über das seit 3 Jahren im Einsatz und in Weiterentwicklung befindliche System U-FIS berichtet. Das System ist abgestimmt auf das RAG-Rechnernetz (regional ausgebreitetes SNA-Netz im Verbund mit örtlichen LANs). Es ist LAN-basiert und nutzt die Windows-Oberfläche. Über SNA-Gateways besteht für die Berichtserstellung Zugang zu DB2-Datenbanken, die verdichtete Information aus den operativen Systemen enthalten und zusätzlich zu vertiefenden Analysen zur Verfügung stehen (Hochregallager der Information).

Dieter Klemke
Führungsinformationssystem — Kriterien einer erfolgreichen Einführung

Zur Einführung in die Thematik werden Begriffe wie ESS (Executive Support System), EIS (Executive Information System), MIS (Management Information System) kurz gegenübergestellt und die wesentlichen Informationskomponenten genannt, die zu einem ESS als dem umfassenderen Begriff gehören. Anschliessend werden typische Systemarchitekturen (Host/verteilt/PC-LAN) kurz beschrieben.

Hartmann Knorr
Optimale Infrastrukturinvestitionen im Telekommunikationssektor

Eine Planungsaufgabe für den Betreiber eines Telekommunikationsnetzes besteht in der Ermittlung von wirtschaftlichen Investitionsprogrammen. Der Gegenstand des vorliegenden Beitrags ist ein lineares Mehrperiodenmodell zur Anpassung bestimmter Investitionsgüter an den sich im Zeitablauf entwickelnden Bedarf. Bei der Analyse denkbarer optimaler Lösungen dieses Modells werden Interdependenzen zu anderen Planungsrechnungen des Netzbetreibers deutlich.

Norbert Matthes
Planung von Neuverrohrungen auf Basis eines Optimierungsmodells

Netzausbauvorhaben der öffentlichen Versorgungswirtschaft zeichnen sich durch hohe Kapitalbindung und Langfristigkeit der Investitionsentscheidungen aus. Vor diesem Hintergrund ist ein Optimierungsmodell zur Berechnung von gewinnoptimalen Netzausbaustrategien entwickelt worden.

Manfred Meika
Auswahl und Anwendung eines EIS-Werkzeuges für das Unternehmens-Reporting in der Drägerwerk AG

Die Anzahl der Produkte, die zum Stichwort „EIS“ (Executive Information System) angeboten werden, ist groß und wächst noch weiter. In dem Bestreben, die herkömmliche Batch-orientierte Unternehmens-Berichterstattung im Drägerwerk durch eine moderne Anwendung zu ersetzen, wurde ein Anforderungskatalog an ein zukünftiges EIS-Werkzeug definiert, der Kriterien enthielt hinsichtlich Funktionalität, Oberfläche, Datenhaltung, Hardware-Architektur, Integrationsfähigkeit. Ohne in eine vollständige Marktanalyse einzutreten, wurden einige Produkte nach diesem Anforderungskatalog bewertet; das danach optimale Werkzeug wurde installiert.

Hubert Ohlendorf
Quadratische Optimierung in der industriellen Anwendung
Beispiel: Mischbettrechnung

Im Zuge einer Modernisierung eines integrierten Hüttenwerkes in DURGAPUR (Indien) wird auch der Bereich der Möller- und Kohlevorbereitung (Raw Material Handling Plant RMHP) automatisiert, in der die Einsatzstoffvorbereitung zur Roheisenerzeugimg im Hochofen erfolgt. Insbesondere zur Sintervorbereitung werden unterschiedliche Einsatzstoffe auf sogenannten Mischbetten gemischt.

Karl-Rüdiger Hüsig, Reinhold Müller, Ulrich Pickartz
„Anwendung von Petri-Netzen auf die Planung von Autotüren — Montageinseln“

Für die Fertigung eines neuen Automodelles wird für die Türenmontage die bisherige Linienfertigung mit der ganzheitlichen Inselfertigungsmethode kombiniert, wobei ein Werker immer eine Tür komplett bearbeitet. Das hier dargestellte Modell beschreibt einen geschlossenen Fertigungszyklus , bei dem am Eingang die zu montierenden Teile ( 4 Türen + Montagematerial ) auf Paletten einer Fertigungsinsel zugeführt und dort auf 5 parallele Stränge verteilt werden. Innerhalb der Stränge arbeiten jeweils 12 Werker in 3 Montagegruppen. In einem Strang kann an maximal 5 Paletten gleichzeitig gearbeitet werden. Ist ein Türensatz fertig, werden die Paletten in einer Linie einer zweiten Fertigungsinsel für die Feinbearbeitung zugeführt. Am Ausgang von Insel 2 befindet sich ein Nachbearbeitungsplatz ( Annahme : 10% Nacharbeit erforderlich ) , sowie ein Sortierpuffer, in dem für die nachfolgenden Bearbeitungsschritte die ursprüngliche Auftragsreihenfolge wieder hergestellt wird, bevor die Paletten entladen und mit neuen Teilen für den nächsten Durchlauf bestückt werden.

Hans-Joachim Schorn
Qualitative Verkehrsdatenanalyse

Die Überwachung des Verkehrszustandes in einem Straßennetz und die Verkehrssteuerung durch technische Anlagen sind die wesentliche Aufgabe einer Verkehrsrechnerzentrale (TCC). Dabei erhält die TCC zyklisch Meßwerte wie Verkehrsstärken, Geschwindigkeiten und Belegungsgrade übertragen von den im Straßennnetz installierten Detektoren. Um mit Hilfe dieser Daten den Verkehr optimal steuern zu können, müssen die Daten analysiert werden. Methoden der Künstlichen Intelligenz bieten viele Möglichkeiten, aus den detektierten Daten streckenbezogene, vollständige und qualitativ zuverlässige Verkehrsinformationen herzuleiten.Das vorliegende Papier zeigt Methoden auf zur Überprüfung der Plausibilität von Detektordaten, zur räumlichen Prognose von Verkehrsstärken und zur Analyse der Verkehrslage. Dazu werden linguistische Variblen definiert, die für jeden Streckenabschnitt die Verkehrsbelastung in den Abstufungen (LOW,MEDIUM,HIGH,VERY HIGH) beschreiben. Analog werden linguistische Variablen für den Abbiegeverkehr definiert. Die fehlenden Verkehrsdaten werden durch einen Inferenzmechanismus, der mit linguistischen Variablen operiert, auf der Basis der detektierten Daten vervollständigt. Dazu werden zur Beschreibung der unsicheren und unvollständigen Informationen unscharfe Mengen definiert. Als Ergebnis erhält man für jeden Streckenabschnitt eine linguistische Variable, die die Verkehrsstärke auf dem Streckenabschnitt flexibel beschreibt. Eine Rückführung auf den „sichersten“ möglichen Verkehrsstärkewert ist ebenfalls möglich.

A. Schumacher, H. Kirschfink
Anwendung multivariater statistischer Methoden im Versandhandel — Eine Sortimentsanalyse

Die „Kauf ohne Risiko“— Garantie ist ein wichtiges Marketing-Instrument des Versandhandels. Die durch dieses Service-Angebot entstehenden Waren-Retouren verursachen Kosten und beeinflußen den Netto-Umsatz.

Michael Semmler
Siting Long-Term Health Care Facilities by Optimizing Productivity Ratios

This paper provides a locational assessment model from a multiple criteria perspective through the utilization of fractional programming. The particular application provides decision support for the siting of a long-term health care facility. The paper extends spatial efficiency measurement methodologies by using Data Envelopment Analysis (DEA) to estimate the relative siting efficiency of 27 planning districts in the Northern Virginia region. The study identified Pareto-optimal sites as potential locations for a new 120 bed long-term care facility.

Horneé F. E. Shroff, Thomas R. Gulledge, Kingsley E. Haynes
Datenprüfung Mit Hilfe Eines Elektronischen Daumenabdrucks (Prüfschlüssel)

Immer häufiger werden Daten über Datenträger oder Modem ausgetauscht. Hierbei ist es notwendig, Prüfungen vorzunehmen, die unmittelbar feststellen, ob der Inhalt der Datei verändert, korrigiert oder vertauscht worden ist. Für jede Datei sollte ein Prüfschlüssel — wie der Daumenabdruck bei einem Menschen — die eindeutige Zuordnung zwischen Datei und Prüfschlüssel wiedergeben. Der R5-Modus (Rechenverfahren in 5 Schritten) ist ein Algorithmus der RWE Energie AG, der den sogenannten „Daumenabdruck“ für eine Datei erstellt.

Konrad Tobey
PC-gestützte Vorgabenermittlung bei der Schering AG

In diesem Beitrag wird beschrieben, wie ein PC-gestütztes Gleichungsmodell erstellt wurde, das zu Prognose-Rechnungen im Rahmen der Jahresplanung des Schering-Konzerns verwendet wird.

Dirk Venzlaff, Erich Wohlfart

OR in Banken, Handel und Versicherungen

Modellierung bankbetrieblicher Prozesse am Beispiel der Bearbeitung notleidender Kredite

Die Höhe der Aufwendungen und somit das Ergebnis von Kreditinstituten werden u.a. vom Volumen der Bildung von Einzelwertberichtigungen (EWB) für das Kreditgeschäft beeinflußt. Die Notwendigkeit zur EWB-Bildung hängt wiederum vom Ausfallvolumen notleidender Kreditengagements ab.

Erik Berg
Überlegungen zur Entwicklung einer allgemeinen Produktionstheorie zur Darstellung technologischer und finanzieller Leistungsprozesse
H. Gert Brüning
Kreditausfall, Ressourcenplastizität und Agency-Costs

Das Kreditausfallrisiko von Banken wird nicht nur durch die unvorhergesehene Zahlungsunfähigkeit einzelner Kreditkunden, sondern auch durch deren mögliche Anreize zur bewußten, von der Bank infolge asymmetrisch verteilter Information nicht kontrollierbaren, Manipulation am Rückstrom der kreditfinanzierten Projekte induziert (Moral Hazard). Ein klassisches Beispiel ist der Anreiz zur Erhöhung des Projektrisikos (asset substitution oder Risikoanreizproblem), das in der Literatur üblicherweise anhand marginaler Veränderungen an der Varianz des Projektrückstroms bei zinsfixen Kreditverpflichtungen diskutiert wird (Gavish/Kalay 1983, Green/Talmor 1986).

Wolfgang Kürsten
Der Aufbau Neuer und Die Intensivierung Bestehender Kundenbeziehungen: Problematik und Optimierungsansätze

Die Aufteilung der Personalkapazität auf Altkunden-Betreuung und Neukunden-Gewinnung ist ein Gesamtbankproblem. Durch ergebnisabhängige Bezahlung kann versucht werden, die Lösung auf Kundenberaterebene zu dezentralisieren. Mittels einfacher Ansätze auf Basis der Prinzipal-Agent-Theory werden Spezialfälle analysiert.

Andreas Pfingsten
Prämissenfreie Margenkalkulation im Rahmen der Marktzinsmethode

Zur Bewertung des zinsabhängingen Geschäfts innerhalb der bankbetrieblichen Einzelgeschäftskalkulation wurden in den letzten Jahren zahlreiche Methoden vorgeschlagen, die sogenannten Marktzinsmethoden. Dabei geht es in erster Linie darum, den Konditionsbeitrag, d.h. den Mehrertrag eines Kundengeschäftes gegenüber einem Alternativgeschäft am Geld- und Kapitalmarkt bzw. den Ertrag aus einem Darlehn und seiner Refinanzierung, korrekt zu bestimmen. Weitere Ziele dieser Methoden sind die Ermittlung der zu erzielenden Marge und des Opportunitätszinssatzes, d.h. des Zinssatzes des Alternativgeschäftes.

Heinz Schannath
Anlagestrategien für Depots festverzinslicher Wertpapiere

Bei der Anlage in festverzinslichen Wertpapieren ist die Frage nach der günstigsten Laufzeit ein zentrales Problem. Hierzu gibt es Pauschalaussagen, die ein bestimmtes Anlageverhalten vorschlagen. Aussagen dieser Art sind z.B. Anleger sollten immer Papiere derselben Laufzeit kaufenAnleger sollten die Laufzeiten ihrer Rentenpapiere systematisch staffeln.

Wolfgang W. Stahl

OR im Umweltschutz

Optimierung von Agrarsystemen unter Beachtung ökologisch-ökonomischer Ziele - eine Anwendung von CREAMS und ACOMPLEX

In den letzten Jahren ist eine zunehmende Umweltbelastung festzustellen. Gleichzeitig kommt ökologischen Zielen eine größere Beachtung zu. Die Forderung nach einer umweltverträglichen Landbewirtschaftung stellt die Naturwissenschaften vor die Aufgabe möglichst genaue Meßmethoden und darauf aufbauend Simulationsmodelle zu entwickeln, um negative ökologische Effekte darstellen und Vermeidungsstrategien entwickeln zu können. Um sachgerechte Lösungen zu erreichen ist ein interdisziplinärer Ansatz notwendig, wie er an der Universität Hohenheim im Sonder-forschungsbereich 183 “Umweltgerechte Nutzung von Agrarlandschaften” verfolgt wird.

Clemens Fuchs
Simulation Der Maschinenbelegungsplanung Mittels Emissionsorientierten Prioritätsregeln

Zur Maschinenbelegungsplanung bei Werkstattfertigung werden in der industriellen Praxis i. allg. Prioritätsregeln herangezogen. Diese Regeln werden in dieser Arbeit um emissionsorientierte Prioritätsregeln ergänzt. Zur Analyse ihrer Auswirkungen wird ein mehrstufiges Produktionssystem abgebildet und dessen Maschinenbelegungsplanung simuliert.

Hans-Dietrich Haasis, Otto Rentz
PPS-Software als Werkzeug für die OR-Anwendung in der mittelständischen Industrie

Der Beitrag versteht sich als Fortsetzung der Diskussion auf dem Praxisforum der DGOR-Jahrestagung 1991 speziell zur Akzeptanz von OR-Ergebnissen in der Praxis. Vorgestellt werden Erfahrungen aus der Beratung mittelständischer Industrieunternehmen in der Region Berlin/Brandenburg zur Einführung und Nutzung integrierter PPS-Software mit dem Ziel der Entwicklung eines durchgängigen Wirtschaftlichkeitsdenkens.

Paul-Dieter Kluge
Untersuchungen Zur Dynamik Von Stofftransporten und -Umsätzen in Geoökosystemen

Die Untersuchungen sind ein Beitrag zur physisch-geografischen Prozeßforschung. Die Beherrschung und Steuerung von Geoökosystemen erfordert die Modellierung und Vorhersage von Stofftransporten und -Umsätzen in verschiedenen Landschaften. Auf der Grundlage von Zeitreihen, die die Witterung, Bodeneigenschaften sowie das Abflußgeschehen kennzeichnen, wird die Abhängigkeit geoökologischer Prozesse von ausgewählten Kenngrößen des meteorologischen Regimes sowie des oberen Bodenhorizontes und der Bodeneigenschaften ermittelt. Zur Anwendung kommt neben Korrelations- und Entropieanalyse die Selbstorganisation mathematischer Modelle.

Johann-A. Müller
Ein konnexionistischer Ansatz zur Prognose und Steuerung von Ablaufschadstoffen einer Kläranlage

Diese Arbeit beschreibt ein konnexionistisches Modell zur Prognose und Steuerung am Beispiel des Ablaufschadstoffs Nitrat (NO3-N). In einer empirischen Analyse werden Kläranlagenmeßwerte aus einer Betriebsprotokolldatenbank zur Modellschätzung verwendet. Besondere Aufmerksamkeit wird der Modellierung und der Modellselektion gewidmet. Backpropagation, eine Kleinstquadratprozedur, die Gradientenverfahren mit dynamischer Rückkoppelung kombiniert, dient zur Bestimmung der Kantengewichte des Netzwerks. Um die Gefahr der Überschreitung von gesetzlichen Grenzwerten (z.B. Nitrat) zu reduzieren wurden Warn- und Alarmvariable modelliert.

Martin Natter, Martin Lukanowicz
Zur Konvergenz spezifischer Materialparameter bei Mehrfachrecycling

Zur Einsparung von Ressourcen und zur Schonung von Deponievolumen räumt das Abfallgesetz der stofflichen Verwertung gebrauchter Produkte Vorrang vor deren Beseitigung als Abfall ein. Dies kommt in verschiedenen Rechtsverordnungen zur Rücknahme und Verwertung spezifischer Altprodukte zum Ausdruck. Die Umsetzung dieser Prioritäten und Verordnungen erfolgt durch integrierte Verwertungskonzepte, welche unter anderem Recycling als eine der Hauptkomponenten beinhalten /1/.Beim Recycling gebrauchter Produkte werden den Rohstoffen im Produktionsprozeß definierte Mengen aufbereiteter Altstoffe zugemischt und auch unvermeidbar Schadstoffe eingetragen. Im Rahmen dieses Vortrags wird die stufenweise Entwicklung ausgewählter Materialparameter beim Mehrfachrecycling untersucht. Hierzu wird zunächst die Zusammensetzung als Funktion der durchlaufenen Zyklenzahl und der Recyclingquote formuliert. Um unvermeidbaren Schadstoffeintrag zu berücksichtigen, wird der Ansatz um den Eintrag beliebig vieler Schadstoffe erweitert. Zur Bestimmung von Konvergenz und Absolutwerten von Rezyklatanteil, Altersstruktur, Schadstoffgehalt und spezifischer Materialparameter werden Potenzreihen angesetzt und mathematische Konvergenzkriterien einerseits sowie eine rechnergestützte Simulation andererseits angewandt. Die Ergebnisse werden an ausgewählten Beispielen dargestellt. Ein Optimieransatz zur kostenminimalen Produktion unter Einbezug von Recycling wird entwickelt und vorgestellt.

M. Nicolai, Th. Spengler, O. Rentz
Entwicklung Eines auf der Theorie der Unscharfen Mengen Basierenden Energie-Emissions-Modells

Zur Erarbeitung und Analyse von Emissionsminderungsstrategien werden seit einigen Jahren Energie-Emissions-Modelle entwickelt und angewandt. In der Struktur handelt es sich bei diesen Modellen zumeist um mehrperiodige, quasi-dynamische lineare Optimierungsansätze, die als Zielfunktion die Minimierung der diskontierten Gesamtkosten der Energieversorgung verfolgen. Die maximal zulässigen Emissionen durch Energieumwandlung, die durch politische Entscheidungsträger festgesetzt werden sollen, werden dabei als exogene Nebenbedingungen berücksichtigt. Der zulässige Lösungsraum der Optimierungsvariablen, die die Energieflüsse durch das gesamte Umwandlungsnetzwerk darstellen, wird so scharf begrenzt. In realiter wird ein Entscheidungsträger aber eine Überschreitung der scharfen Emissionsgrenzen tolerieren, falls daraus eine gravierende Verringerung der Kosten resultiert. Seine Zufriedenheit, die sich in bisherigen Modellen an der scharfen Grenze sprunghaft von eins auf null änderte, wird aber mit wachsender Überschreitung kontinuierlich abnehmen. Dieses Phänomen läßt sich problemadäquat mittels unscharfer Mengen (Fuzzy Sets) beschreiben. In dem hier entwickelten Modell werden vage Technologiedaten und Zukunftsprojektionen sowohl in der Technologie-Matrix als auch auf der rechten Seite der Nebenbedingungen berücksichtigt. Auch die Koeffizienten der Zielfunktion, die die Kostendaten des Systems darstellen, werden als unscharfe Parameter modelliert.

C. Oder, O. Rentz
Zur Bestimmung ökologischer Kosten am Beispiel einer mehrstufigen Produktionsplanung unter Berücksichtigung von Recycling und Entsorgung

Unter Zugrundelegung einer anthropozentrischen Betrachtungsweise und einer funktionalen Umweltdefinition wird die natürliche Umwelt in das System der betriebswirtschaftlichen Produktionsfaktoren eingeordnet. Aufbauend auf dieser Faktorensystematik wird eine „mengenmäßige Bewertung“des Produktionsfaktors natürliche Umwelt nach ökologischen Knappheitskalkülen, unter Zuhilfenahme des von MULLER-WENK im Rahmen der ökologischen Buchhaltung entwickelten Konzepts der Bewertung mit Äquivalenzkoeffizienten, vorgenommen, wobei die Fälle der Raten- bzw. Kumulativknappheit unterschieden werden. Nun bleibt noch das Problem der Transformation einer mengenmäßigen Bewertung in eine Bewertung mit Geldgrößen, hier die Bestimmung ökologischer Kosten, zu lösen. Für ein Problem der kurzfristigen Produktionsplanung mit der Struktur einer zyklischen, mehrfachen starren Kuppelproduktion werden ökologische Kosten bestimmt. Dabei wird die natürliche Umwelt sowohl als Lieferant für natürliche Ressourcen als auch als Lieferant von Aufnahmekapazitäten für produktionsbedingte Rückstände explizit berücksichtigt. Als mögliche Strategien für die Umweltschonung werden Maßnahmen des Recycling in den Entstehungsprozeß und der innerbetrieblichen Entsorgung mit in die Betrachtung einbezogen. Das vorab charakterisierte Produktionsplanungsproblem wird unter Zugrundelegung einer Zielsetzung der Deckungsbeitragsmaximierung als lineares Programm formuliert. Die ökologischen Kosten werden unter Anwendung der Dualitätstheorie der linearen Programmierung abgeleitet.

Andrea Piro
Fertigungssteuerung in Gießereien

Anhand eines Praxisbeispieles werden die Besonderheiten einer PC-ge- stützten FertigungsSteuerung in einer Gießerei dargestellt: Die Produktionsstruktur einer Gießerei ist durch folgende Charakteristika gekennzeichnet: kundenbezogene Auftragsfertigung in klein- und mittelgroßen Serieneinstufige FertigungZeitwirtschaft ist wichtigster Planfaktor, die Materialwirtschaft ist von untergeordneter Bedeutungkeine komplexe Stücklistenverwaltunghohe Kosten durch vorbereitende Produktion (Herstellung von Modellen, Werkzeugen, etc.)

Hans-Peter Seibert, Volker Koster

Produktionsplanung und -steuerung

Verteilte Fertigungsplanung und -steuerung auf Agentenbasis

Für Fertigungsorganisationen gewinnen flexible Fertigungsstrukturen mit dezentralen, teilautonomen Arbeitsgruppen an Bedeutung. Die Struktur von Informationssystemen muß sich diesen geänderten Rahmenbedingungen in geeigneter Weise anpassen und diese Formen der Fertigung, sowie deren Integration in den betrieblichen Gesamtablauf, unterstützen.

Stefan Baldi, Günter Schmidt
Eine Branching-Regel für das Job-Shop Scheduling Problem

Job-Shop Scheduling Probleme werden meist mit einem Disjunktiven Graphen dargestellt. Aufbauend auf diesem Modell wird eine einfache Branching-Regel vorgestellt. Im Gegensatz zu den neuesten Entwicklungen auf dem Gebiet des Job-Shop Scheduling, die Branching-Regeln benutzen, die eine Operation zum Vorgänger oder Nachfolger einer Gruppe anderer Operationen machen, wählt diese Regel an jedem Branching-Knoten einzelne disjunktive Pfeile aus, die als konjunktive Pfeile in der einen oder anderen Richtung in den Graphen eingebaut werden.

Jürgen Bednarzik
Bestandsregelnde Auftragssteuerung mit unscharfer Optimierung

Förderungen zur bestandsregelnden Auftragsfreigabe und Maschinenbelegung wurden “unscharf” formuliert, in Optmüerungsmodelle umgesetzt und mit Verfahren der gemischt-ganzzahligen Optimierung gelöst Geplant sind Erprobungen der Modelle und Verfahren in Simulationsexperimenten für echtzeitorientierte Anwendungen.

Winfried Brecht
A Unifying Approach to Prioritisation and Optimisation of Maintenance

Here we present a unifying and integrating approach which can be used for long term optimisation, priority setting, and combination of maintenance. The approach focuses on the timing aspect of an action to be taken, like replacement, overhaul, or inspection. This is a typical aspect for many maintenance models. A penalty cost function is defined which expresses the expected costs of deferring the action to the next decision moment. The action is taken if the cost function exceeds a threshold level. We will show that several models fit within this structure, such as the block replacement model, the minimal repair model, an efficiency model, and also an opportunity block replacement model. The penalty cost function is also suitable for data elicitation purposes and avoids that questions are model dependent. This plays a role in setting up userinterfaces for decision support systems incorporating maintenance optimisation models. The penalty function can also serve as priority function, in case execution of activities has to be deferred because of capacity constraints. Furthermore, it is useful in combining activities if a first planning has been made by separate models (a decomposition approach). Finally, it can serve as a heuristic to derive structured maintenance policies, which we will demonstrate with a group replacement problem.

Rommert Dekker
Simulationsuntersuchung zu Verfahren der Werkstattsteuerung

Ausgangspunkt der Untersuchung war die kontroverse Diskussion um die Eignung der Belastungsorientierten Auftragsfreigabe (BOAF) für den Fall typischer Werkstattfertigung mit Montageprozessen und wechselnden Engpässen [1, 2, 3]. Anhand mehrerer Fertigungsstrukturen, insbesondere der in [1] betrachteten Situation, wurden verschiedene Steuerungs-verfahren verglichen, die sich in den Merkmalen Schätzung der Durchlaufzeiten für die Terminierung (feste Werte; vergangenheitsorientiert; Warteschlangen-theoretisch)Regeln zur Auftragsfreigabe (insbesondere BOAF)Prioritätsregeln unterscheiden.

Bernhard Fleischmann, Torsten Henneberg
Lösung dynamischer mehrstufiger Mehrprodukt-Losgrößenprobleme unter Kapazitätsrestriktionen durch lokale Suchverfahren

Es wird das Problem der Losgrößenbildung für eine generelle Erzeugnisstruktur betrachtet, in der jedes (Teil-) Produkt eines von mehreren Betriebsmitteln (Maschinen, Kapazitätsarten) in Anspruch nimmt. Ein Betriebsmittel kann von Produkten unterschiedlicher Dispositionsstufen belegt werden. Unter dynamisch schwankendem, deterministischem Bedarf für die Endprodukte sollen kostenminimale Losgrößen gefunden werden, die hinsichtlich der Kapazitäten zulässig sind. Das Entscheidungsproblem wird auf Grundlage des Capacitated Lotsizing Problem (CLSP) formuliert.Zur Lösung werden lokale Suchverfahren wie Simulated Annealing und Tabu-Suche und Verfahren auf Grundlage einer Suche über Populationen wie genetische Algorithmen eingesetzt.Die Verfahren werden anhand einer Reihe kleinerer Probleme vergleichend bewertet, für die optimale Ergebnisse bekannt sind. Ferner erfolgt für einige etwas größere Beispiele ein Vergleich mit Ergebnissen, die über eine Kombination der Verfahren von Heinrich und Dixon ermittelt wurden.

Stefan Helber
Kommunikation als Schlüssel zur Qualitätssicherung

Die wissensbasierte Unterstützung des Lebenszyklus’ eines Produktes ist durch eine weInselsituation geprägt: für die einzelnen Phasen existieren zwar individuelle Lösungen bzw. Lösungsansätze, jedoch gibt es meist keine automatisierte Kommunikation zwischen den beteiligten Systemen, da sie auf inhomogenen Paradigmen der Wissensrepräsentation und -Verarbeitung beruhen. Dieses Papier stellen einen Ansatz vor, wie diese Kommunikationslücke für das Fallbeispiel der lebenszyklusweiten Qualitätssicherung geschlossen werden kann. Die Hauptthese ist, daß eine effiziente Kommunikation zwischen den Teilsystemen sowie den beteiligten Abteilungen eine Schlüsselfunktion für die Steigerung der Qualität des Produktionsprozesses — ergo des Produktes — einnimmt. Als Begründung sei daran erinnert, daß am Anfang der Herstellung eines Produktes praktisch nie ein optimaler Produktionsprozeß zur Verfügung steht, sondern erst im Laufe der Zeit durch Fehlerberichte und Analysen entsteht. Eine an den Produktionsprozeß orientierte Kommunikationsstruktur dient also der Minimierung der Zeitspanne zwischen der Feststellung eines Mangels und seiner Behebung.

Manfred Jeusfeld, Robert Grob
Resource-Constrained Project Scheduling with Setup-Times

The well-known multiple resource-constrained project scheduling problem (RCPSP) can be stated as follows [1]: j=l,…,J partially ordered jobs have to be scheduled subject to r=l,…,R renewable resources with a constanct period capacity of Kr units. Each nonpreemptive job has a duration dj and uses kjr units of resource r while being in process. The objective function is to minimize the project-makespan.

Rainer Kolisch
Ein Formalmodell der Produktlonsplanung und -steuerung - angewandt auf Fabrlk-Fraktale (autonome Prozeßkomponenten)

Produktionsplanungs- und -steuerungsentscheidungen laufen stets auf einem Abgleich der Bedarfe an Ressourcen mit den im Leistungserstellungsprozeß angebotenen Ressourcen hinaus. Dieser Sachverhalt läßt sich auch durchgängig formalisieren, was grundsätzlich die Voraussetzung für die EDV-Bearbeitung des PPS-Problems darstellt. Das Modell umfaßt Mengenstrukturen, Zeitstrukturen, Diagnose- und Entschei-dungsoperatoren. Das vorgeschlagene Modell wird an Beispielen verifiziert, wobei der Schwerpunkt auf die herkömmlichen Produktionsplanungs- und -steuerungsverfahren gelegt ist. Im zweiten Teil des Beitrages werden neuere Entwicklungen hinsichtlich der Organisation industrieller Leistungserstellungsprozesse mit in die Überlegungen mit einbezogen. Es erfolgt die Anwendung des Formalmodells auf Fabrikfraktale.

Hermann Kühnle, Lothar Friedrich
Bestimmung des Zusatzbedarfs Infolge des Ausschusses

Ausgangspunkt der Bedarfsermittlung ist die graphische Darstellung der mengenmäßigen Erzeugnisstruktur. Das Endprodukt wird aus Baugruppen und Einzelteilen zusammengesetzt. Diese mehrstufige Erzeugnisstruktur läßt sich in mehrere Baukastenstücklisten zerlegen. Den Materialbedarf kann man so bestimmen, daß man aus der Baukastenstückliste die Mengenübersichtsstückliste bestimmt; oder mit der Bildung des entsprechenden Gleichungssystems und seiner Lösung. Da kann die Matrizendarstellung angewendet werden.

Petrišič Jože, Starbek Marko
Wissensbasierte Unterstützung der Konstruktion von Faserverbundwerkstoffen

Der Konstruktionsprozeß von Bauteilen aus Faserverbundkunststoffen (FVK) wird durch viele Einflüße bestimmt, z.B. durch den Werkstoff, das Fertigungsverfahren, den Laminataufbau und die Geometrie. Diese Einflüße weisen starke Abhängigkeiten untereinander auf. Aus diesem Grund werden FVK trotz ihrer Vorteile gegenüber herkömmlichen Werkstoffen hauptsächlich in speziellen An-wendungsbereichen, wie beispielsweise dem Flugzeugbau benutzt.

K. Pohl, J. Turek
Zur Abstimmung der Losgrößen in mehrstufigen Produktionsprozessen im Rahmen des JIT-Konzeptes

Das Just-in-Time-Konzept ist eine globale Fertigungsphilosophie, die eine Fülle von Teilkonzepten aus dem Gebiet der Produktionsplanung und -Steuerung miteinander kombiniert. Ein charakteristisches Merkmal des JIT-Konzeptes ist die Forderung nach produktionssynchroner Bereitstellung, die innerhalb eines Betriebes zur Produktion mit gleichen Losgrößen auf allen Fertigungsstufen führt. Auf der Beschaffungsseite des JIT- Anwenders manifestiert sich das JIT-Konzept unternehmensübergreifend in der Ausprägung von Lieferabrufsystemen. Als begleitende Maßnahme investieren die beteiligten Unternehmen in die Verminderung von Rüstzeiten.

Bernd Pokrandt
Zum Einsatz von Fertigungsleitständen in Industriebetrieben

Elektronische Leitstände zur Unterstützung der Fertigungssteuerung wurden in den letzten Jahren sowohl von Softwarehäusern als auch in Publikationen stark propagiert. So soll es mit Fertigungsleitständen aufgrund der größeren Fertigungsnähe eher möglich sein, den Fertigungsprozeß zu erfassen, zu steuern und zu kontrollieren, als dies zentrale Standard-PPS-Systeme (allein) vermögen.

H. Stadtler, S. Wilhelm
Computerunterstützte Konstruktion des Fristenplanes

Der Fristenplan veranschaulicht die Dauer und die Aufeinanderfolge von Vorgängen, die zur Fertigung eines Teiles, einer Gruppe oder eines Erzeugnisses durchgeführt werden müssen. Der Fristenplan bildet eine Nahtstelle zwischen Fertigungsplanung und Fertigungssteuerung, er ist auftragsunabhängig; bei seiner Erstellung wird er aber von einem Mengenbereich ausgehen. Der Fristenplan enthält noch keine Termine, sondern beginnt mit der Zeitpunkt 0 (bei Vorwärtsrechnung) oder endet mit der Zeitpunkt 0 (bei Rückwärtsrechnung). Die vorwärtsrechnung geht vom Startzeitpunkt beginnen und enden. Die Rückwärtsrechnung dagegen geht vom Endzeitpunkt der letzten Vorgänge aus, so daß die einzelnen Vorgänge zum spätestmöglichen Zeitpunkt beginnen und enden.

Starbek Marko, Petrišič Jože
PC-Implementation of 1-& 2-dimensional Cutting Stock Heuristics

To implement a cutting stock algorithm on a Personal Computer one aim of the development is the reduction of complexity. The amount of data generated by the algorithm and the required computation time have to be compressed. By the random selection of good patterns we reduce complexity in the framework of the Haessler heuristic (1975). In this heuristic the algorithm is governed by serveral measures: the number of required stocks to complete the total order, the percentage of the current demand to be satisfied by a multiple application of one pattern (using level) and the percentage of trim loss. The orders not satisfied so far are sorted by the number of demanded pieces. More generally this sort can be considered as priority rule applied to the open orders. The computational experience of our approach is based on 10000 randomly generated problems with 4 to 8 different orders. The ordered length varied between 9% and 49% of the stock length. This stock length ranged from 100 to 200 length untis. The computational experience exhibites solutions of high quality in the region of 3% trim loss yielding some evidence for the thesis that good patterns are lying densely in the solution space. On the basis of the 1-dimensional case we construct the 2-dimensional heuristic with the approach of Guillotine-cuts. With this approach we get a trim loss in the region of about 20%. This higher trim loss is due to the 2-dimensionality of the problem.

Richard Vahrenkamp
Combining Maintenance Activities in an Operational Planning Phase

Joint execution of maintenance activities can reduce costs because set-up activities like opening a machine, may be shared. Combining execution however, may also imply that activities are carried out at other times than originally planned. In this paper we analyse the problem of determining which activities should be combined on which moments of time.

R. E. Wildeman, R. Dekker

Logistik und Lagerhaltung

Bestandsplanung und -Controlling Bei Chemischpharmazeutischer Produktion

Es wird ein Controllinginstrument beschrieben, das - zugeschnitten auf die speziellen Bedingungen chemisch-pharmazeutischer WirkstofFproduktion - dazu dienen soll, dem Logistikmanagement einen laufenden Einblick in die aktuelle Bevorratungssituation mit Ausweis von Uber- und Unterbevorratung sowie deren differenzierter Analyse zu geben. Kernpunkt dieses Instruments ist die zeitpunktbezogene Ermittlung von aussagefähigen Sollbeständen, in denen neben den Produktionsstrukturdaten auch Daten der Bedarfsplanung und Dispositionsparameter der Lagerhaltungspolitik sachgerecht einbezogen werden müssen. Für ein Unternehmen der Pharmaindustrie wird die Weiterentwicklung eines entsprechenden Instruments dargestellt und an Hand eines konkreten Anwendungsfalls demonstriert.

Jörg Budde, Karl Inderfurth
Simulationsuntersuchungen zur Abstimmung von Produktions- und Transportlosgrößen in der Serienfertigung

Bekanntlich gehen mit dem Vordringen von JIT-Konzepten in der Produktion die Forderungen nach einer Verringerung der Produktionslosgrößen (Losgröße = 1!) und nach der Aufteilung eines Produktionsloses in mehrere Transportlose einher. Damit verbunden ist häufig eine technische Umgestaltung der Fertigungsprozesse mit dem Ziel, die Rüstzeiten beim Produktwechsel zu reduzieren und auf diese Weise kleinere Produktionslosgrößen wirtschaftlich zu rechtfertigen. Während traditionell der Abgleich von Rüst- und Lagerkosten im Mittelpunkt der Losgrößenplanung steht, sind bei hochautomatisierten Fertigungssystemen die zu beachtenden Wirkungszusammenhänge so komplex, daß sie nicht mehr ohne weiteres in geschlossener Form modellanalytisch erfaßt werden können. Daher drängt sich der Einsatz der Computersimulation geradezu auf.

Manfred Gronalt, Hans-Otto Günther, Marion Roth
Finanzwirtschaftliche Ansätze in der Lagerhaltung

Im vorliegenden Artikel werden einige auf kapitalmarktorientierten Modellen basierende investitionstheoretische Erweiterungen einfacher stochastischer Lagerhaltungsmodelle kurz vorgestellt. Basierend auf einer Untersuchung einer approximativen (R, T)-Politik in einer Capital Asset Pricing Model - Formulierung von RaturiundSinghal (1990) wird ein erweitertes Modell vorgestellt, das eine Optimierung der Lagerhaltungspolitik ermöglicht und so zu allgemeingültigeren Ergebnissen kommt.

Rainer Schefer
Schranken für ein Kapazitätsbeschränktes Traveling Salesman Problem mit Quellen und Senken

Die Arbeit befaßt sich mit der Berechnung unterer Schranken für ein kapazitätsbeschränktes Traveling Salesman Problem mit Quellen und Senken. Wir benutzen eine Relaxation durch minimale 1-Gerüste mit zusätzlichen Einschränkungen bzgl. der Auswahl der Kanten. Das Problem wird als minimal gewichtetes Matroid-Intersection- Problem auf dem Durchschnitt von zwei Matroiden gelöst. Ein polynomialer Algorithmus der Komplexität O(n4) wird angegeben.

Günther Schulz
Ein heuristisches Verfahren zur Lösung des dynamischen mehrstufigen Mehrproduktlosgrößenproblems unter Berücksichtigung nehrerer Betriebsmittelkapazitäten

Die Berücksichtigung von Betriebsmittelkapazitäten im Rahmen der Losgrößenplanung ist insbesondere im Hinblick auf die Umsetzbarkeit der Losgrößenentscheidungen in nachfolgenden Planungsstufen notwendig. In den gegenwärtig in der Praxis eingesetzten EDV-gestützten Systemen zur Produktionsplanung und - Steuerung (PPS-Systemen) werden knappe Betriebsmittelkapazitäten im Rahmen der Losgrößenplanung nicht berücksichtigt. Dies ist nicht verwunderlich, weil derzeit nur wenige Verfahren zur Lösung des sich stellenden kapazitierten Losgrößenproblems verfügbar sind.

Horst Tempelmeier, Matthias Derstroff

F & E und Projektmanagement

Konzept eines Controlling-Systems für F+E

In Anbetracht der Verschärfung des internationalen Wettbewerbs ist die zeitgerechte Umsetzung von Unternehmens-Know-How in vermarktungsfähige Produkte unumgänglich. Voraussetzung hierfür ist eine enge Verzahnung von F+E mit Fertigung und Marketing. Eine effiziente Steuerung und Kontrolle dieser Aktivitäten läßt sich nur auf Basis eines integralen Ansatzes durchführen. Die Anforderungen an ein entsprechendes Controlling-System werden aus Sicht des F+E präzisiert und in einen konzeptuellen Rahmen eingebettet.

R. Alves
Projektoptimierung und Projektmanagement bei flexiblen Anlagentechnologien

Zielsetzung des Beitrages ist die Vorstellung eines Optimierungsansatzes und dessen Anwendung für die konzeptionelle Gestaltung von Produktionsanlagen bei auch längerfristig wechselnden Produktionsanforderungen in einem gegebenen Produktfeld.

Peter Betge
Besondere Anforderungsproblematik für die Rechnerunterstützung von Forschungs- und Entwicklungsprojekten

Projekte im Bereich der Forschung und Entwicklung (FuE) sind durch Neuigkeit und Unsicherheit charakterisiert. Häufig sind mehrere Projekte parallel zu bearbeiten. Der Druck, die Entwicklungszeit zu reduzieren, erhöht zusätzlich die Komplexität der notwendigen Managementaktivitäten.

Steffen Gackstatter, Birgit Schnelle-Zürn
Strukturorientierte Parallelisierungsstrategien bei Konkurrierenden Aktivitäten als Instrument zur Verkürzung der Dauer von Forschungs- und Entwicklungs(F&E)-Vorhaben

Ausgehend von einer Kennzeichnung und Differenzierung des Sachverhaltes der Parallelisierungsstrategien werden anhand einfacher Modelle die Auswirkungen der sukzessiven Parallelisierung konkurrierender Alternativen für die Durchführung zeitkritischer Projektaktivitäten auf die Dauer, Kosten und (technischen) Erfolgsaussichten der Aktivitäten untersucht. Es wird gezeigt, daß die Verkürzung der Vorgangsdauer zu steigenden Kosten führt und daß mit konvexen Zeit-Kosten-Funktionen zu rechnen ist; dieses Ergebnis ist unabhängig von der Berücksichtigung von Lerneffekten. Eine Beschränkung der Analyse auf den „tradeoff“ zwischen Projektdauer und Projektkosten hingegen ist nur bei Vernachlässigung von Lerneffekten zulässig: Werden Lerneffekte berücksichtigt, so hängen auch die (technischen) Erfolgsaussichten von der Verknüpfung der verfügbaren Alternativen ab und müssen deshalb berücksichtigt werden.

Hans-Horst Schröder
Projektverfolgung als notwendiges Instrument zur Erfolgssicherung

Die steigende Dynamik der Technologienentwicklung und die damit verbundene Verkürzung der Produktlebenszyklen verlangen eine effiziente Forschung und Entwicklung. Diesem Erfordernis stehen limitierte Finanzmittel gegenüber. Daraus folgt das bekannte Problem, die knappen Finanzmittel und Kapazitäten so auf Projekte zu verteilen, daß der zu erwartende Nutzen aus der Vermarktung der Ergebnisse die eingesetzten Mittel möglichst weit übersteigt.

Heinz Strebel, Karl Zotter
Hypertextsysteme - Option zur Entscheidungsunterstützung im Innovationsprozess

Im Artikel werden neue Möglichkeiten der Entscheidungsunterstützung im Innovationsprozeß dargestellt, wie sie sich aus der Anwendung von Hypertextsystemen ergeben.

Cornelia Zanger

OR im Marketing

Erfahrungen mit Diffusionsmodellen Unter Besonderer Berücksichtigung von Marketing-Variablen

Eine Prognose der Ausbreitung von Innovationen kann auf der Grundlage von Diffusionsmodellen erfolgen. Die Grundmodelle beschreiben die Diffusion neuer Produkte lediglich in Abhängigkeit der Zeit; es ist jedoch möglich, die Grundmodelle um den Einfluß von Marketing-Variablen auf die Adoption neuer Produkte zu berücksichtigen; auf diese Weise kann nicht nur der Erklärungsgehalt, sondern auch die Prognosequalität der Modelle erhöht werden.

Claudia Fantapié Altobelli
An Algorithm for New Product Idea Generation

Given desirable attributes for new product concepts and possible alternatives of the attributes under consideration the proposed algorithm handles the problem of compatibility between alternatives from different attributes and determines “best” concepts under various restrictions. An example from the area of kitchen accessories is used for demonstration of the findings.

Wolfgang Gaul
Zur Planung des Einsatz-Timing von Werbemitteln

Ziel des Beitrages ist die Formulierung und Analyse eines dynamischen Modells zur Bestimmung gewinnmaximaler simultaner Werbemittelprogramm- und Mediabudgetpolitiken für ein Konsumprodukt. Es wird gezeigt, daß der komplexe Ansatz der Simultanoptimierung zerlegt werden kann in (1) Voroptimierungsstufen zur Mediabudgetierung und in (2) eine Hauptoptimierungsstufe zur Werbemittelprogrammplanung. Beispielhafte Anwendungen des Planungsansatzes zeigen den Einfluß von Reihenfolgebedingungen für den Einsatz von Werbemitteln sowie von Werbemittel-Produktionskosten auf Mediabudgets und Gewinn sowie auf die Ersatzentscheidungen für die einzusetzenden Werbemittel.

Fokko ter Haseborg
Wettbewerbliche Produktpositionierung

Produktpositionierungsmodelle ermöglichen eine frühzeitige Abschätzung des Markterfolges hypothetischer Neuproduktkonzepte und sind daher ein wichtiges Hilfsmittel im Produktplanungsprozeß. Bei der Prognose des Markterfolges sollten jedoch die mit der Markteinführung bei den etablierten Anbietern ausgelösten Reaktionen im Einsatz interessierender Instrumentalvariablen (hier insbesondere der Produktposition, des Preises und des Marketingbudgets) bedacht werden.

Ulf Gerold Marks
Zur Validität von Conjoint-Analysen

Ziel des Beitrages ist es festzustellen, inwieweit aufgrund der in der Conjoint- Analyse ermittelten Teilnutzenwerte, wie behauptet, die Wichtigkeiten einzelner Eigenschaften angegeben werden können. Im Rahmen einer kriterienbezogenen Validierung werden die Ergebnisse der Trade-Off-Analyse mit denen der Füll-Profile-Technik verglichen, indem überprüft wird, ob sich bei beiden Varianten der Conjoint-Analyse die gleiche Rangfolge der Eigenschaften ergibt, wenn sie nach ihren Wichtigkeiten geordnet werden. Es wird gleichzeitig festgestellt, ob dem jeweils wichtigsten Merkmal eine ähnlich hohe Maßzahl für die Wichtigkeit zugewiesen wird. Die Unterschiede zwischen beiden Verfahren werden sowohl theoretisch als auch empirisch überprüft.

Lothar Müller-Hagedorn, Eva Sewing, Waldemar Toporowski
Ein Zwei-Stufen-Modell der Marktreaktion

Für zahlreiche Hersteller von Markenartikeln des täglichen Bedarfs werden Daten über die Gedächtnisinhalte ihrer Zielgruppen - wie z.B. Markenbekanntheit oder Werbekenntnis - routinemäßig erhoben. Gedächtnisinhalte werden in der Marktanalyse bisher überwiegend als Zielgrößen kommunikationspolitischer Maßnahmen verwendet. Ihre wesentliche Bedeutung besteht jedoch in ihrem Einfluß auf die Marktanteilsreaktion.

Adelheid Weber

Lineare Optimierung / Stochastische Optimierung

Simultaneous Events in General Queueing Systems and their Impact on Perturbation Analysis Derivative Estimation

Queueing theory is a widespread approach for analyzing complex stochastic networks, such as flexible manufacturing systems or communication networks. Actually, the goal of system analysis is to optimize or at least to improve the performance of the system. Typical performance measures are throughput, utilization or mean sojourn times. In optimizing, the derivative of the performance measure with respect to a system parameter is of interest. One approach, known as Infinitesimal Perturbation Analysis, is to estimate the derivative via the sample derivatives of the performance measure.We study simultaneous events in a general queueing system setting and thereby derive sufficient and necessary conditions for the existence of sample path derivatives. Having stated the relationship between simultaneous events and the existence of sample derivatives, we extend significantly the area of problems in which the sample path derivative provides an unbiased estimator for the derivative of the performance. Our results extend to queueing systems with discrete service time or interarrival distributions.

B. Heidergott
The use of linear programming in stochastic optimization

In this talk we give an overview of the use of linear programming in stochastic dynamic optimization. The survey consists of four parts.

Lodewijk C. M. Kallenberg
Optimization of Discrete-Event Systems

We consider a Discrete-Event System described by a generalized Semi- Markovian process. For such a system we study differnt notions of estimating the derivative of a performance functior with respcct to some parameter. In particular, we compare perturbation analysis, the score-function method and weak derivatives. It is shown that a combination of all three methods leads to low variance estimators.

Georg Pflug
Stability in a stochastic sense — Dependent samples

Often mathematical programming problems are not completely known. Then the decision maker usually replaces the unknown quantities in the objective function and/or the constraints by estimates, and the question arises under what conditions on the original problem and the estimates the optimal values and the solution sets of the surrogate problems approximate the optimal value and the solution set of the original problem in a suitable sense.

Silvia Vogel

Nichtlineare Optimierung / Kontrolltheorie

A software system for the parallel and distributed solution of nonlinear optimization problems

This paper deals with the software environment “Optix-II” which supports the modelling and coarse grained parallel solution of (decomposed) nonlinear optimization problems. Optix-II consists of a problem editor, a problem compiler, and a runtime environment: The problem description is entered into a graphically controlled problem editor using the Optix-II problem description language which resembles mathematical notations for nonlinear optimization problems. In addition to this, external functions written in C or FORTRAN for the solution of complex mathematical models may be included. The Optix-II compiler translates the problem description into a collection of functions written in the computer language C. Thereby the compiler calculates symbolic first and second order derivatives for all objective functions and constraints. This ensemble of C-functions is then compiled and linked into optimization servers for different hardware/software platforms (e.g. SPARC/SunOs, MIPS/Ultrix, T800/Helios). The Optix-II runtime environment is used to control the ongoing optimization process on NFS-based heterogenous computer networks, multiprocessor workstations, and transputer-based parallel computers.

Harald Boden, Manfred Grauer
The Indefinite LQ-Problem: Existence of a Unique Solution

In this paper we consider the problem under which conditions there is, for a discrete-time system and an arbitrary finite planning horizon, a unique control that minimizes a general quadratic cost functional. The cost functional differs from the usual one considered in optimal control theory in the sense that we do not assume that the considered weight matrices are (semi) positive definite. The system is described by a linear time-invariant recurrence equation and has an exogenous component. For single input, single output systems both necessary and sufficient conditions are derived.

Jacob C. Engwerda
Fallstudie: Einsatz von Methoden der nichtlinearen Optimierung bei der Konstruktion von Motoren

Grundlage dieses Beitrags ist ein in Kooperation mit der Forschungs- und Entwicklungsabteilung eines eu­ropäischen Automobilkonzerns durchgeführtes Projekt, das zur Untersuchung der Einsatzmöglichkeit von Optimie­rungstechniken bei der Auswahl gewisser Konstruktionsparameter von 4-Takt-Ottomotoren, wie z.B. Öffnungs - und Schließwinkel der Ventile, Nockenform usw. diente. Das vorgegebene Ziel ist dabei die Erhöhung des Wirkungsgrades, und zwar nicht nur bei einer bestimmten Motorendrehzahl, sondern möglichst über den gesamten Drehzahlbereich. Zu diesem Zweck sind für 11 verschiedene Drehzahlen im Bereich von 1500 bis 6500 Upm Zielwerte für den Wirkungsgrad vorgegeben, die näherungsweise eine Kurve definieren. Ziel der Optimierung ist nun, diese Kurve möglichst genau zu approximieren. Die Auswahlmöglichkeiten für die Designparameter sind weiters noch durch verschiedene Neben­bedingungen eingeschränkt, wie zum Beispiel durch die Forderung, daß der Motorkolben nicht mit einem der Ventile kollidieren darf.

Helmut Gfrerer
The Dynamic Theory of the Investing Firm with Investment and Disinvestment Costs

Some recent papers on dynamic investments (e.g. Pindyck (1988), Kort (1990)) adopt the very strong assumption that investments are completely irreversible. Here we relax this assumption by allowing the firm to disinvest. However, every time it disinvests the firm has to pay transaction costs which are linearly dependent on the size of disinvestment. This implies that, despite of dropping the irreversibility assumption, the problem still has a really dynamic structure: when taking its investment decision now the firm has to reckon with the fact that disinvesting later on is costly. It turns out that, depending on the size of the cash balance and the amount of assets, one out of five different policies is optimal and that disinvestments can be optimal for reasons of cash shortage and size reduction when the firm has grown beyond some optimal levels of capitalization.

Peter M. Kort, Charles S. Tapiero
Reduktion großer nichtlinearer prozeßanalytischer Optimierungsmodelle zur Energieplanung

Zur Mittel- und Langfristplanung werden in der Energiewirtschaft und der Energiepolitik dynamische (mehrperiodige) Energiesystemmodelle eingesetzt. Die Modellierung erfolgt im wesentlichen prozeßanalytisch, d.h. durch eine mathematische Beschreibung der physikalisch-technischen Zusammenhänge im zu untersuchenden Realsystem.

Rolf Kühner, Helmuth-M. Groscurth
Markov equilibria in perfect differential games

The basic feature shared by the games analyzed in this paper is the subgame perfectness of open-loop equilibria (if they exist). Clemhout and Wan (1974), Leitmann and Schmitendorf (1978), and Reinganum (1982) isolated different classes of such perfect games. The typological connection between their classes of games has been investigated by Mehlmann and Willing (1983), Fershtman (1987) and Mehlmann (1988). The first two types of games are characterized by the structural property of state-redundancy. After replacement of multipliers by the solutions of the corresponding costate equations, the Hamiltonian maximizing conditions ∂H i /∂u i = 0 are independent of the state variables, and the initial state value. The claim implicitly issued by Mehlmann and Willing (1983) is that any perfect game is either state-redundant or can be transformed to a state-redundant game. That state transformations are the main tool of proving the perfectness of a given game has been demonstrated by Fershtman (1987). Denote by ГT;χ 0 a finite horizon differential game starting at the initial state value χ0. Fershtman’s main criterion for the identification of perfect games is the equivalence of ГT;χ 0with ГT;χ for all admissible initial state values χ0 and a fixed value χ. The subgame-perfectness of open-loop equilibria is, however, not the only consequence of equivalence between games posessing identical payoffs and dynamics but starting from different initial states. If this relation is defined by diffeomorphisms then any equilibrium outcome as well as any Pareto efficient outcome generated by a team optimal set of decision rules is necessarily independent of initial state value and corresponding state trajectory. Triggering defined under these circumstances offers a credible alternative to the direct extensions of bargaining schemes to N-person differential games. It may be shown that Pareto efficient outcomes can be implemented as Markovian type equilibria.

Alexander Mehlmann
The Adaptation Process of the Firm During the Business Cycle

In business cycle models attention is mostly oriented on the peak and the lowest point of the cycle, but, in practice the firm adapts the technology at the end of the inflation period and at the start of the growth path. With the model of Leban and Lesourne [4] this policy of a firm during the adaptation period is explicable. In this article we describe the economic rules of this process, in a control theoretical context as e.g. Feichtinger and Hartl [2].Successively we formulate a model, based on Leban and Lesourne [4], analyse the phases of the development focus on the important adaptations of the firm and formulate the conclusions.

Piet A. Verheyen

Kombinatorische Optimierung / Komplexitätstheorie

FixArc — Ein System zur PC-gestützten Lösung von Fixkosten-Netzwerkflußproblemen

Zur Lösung des Fixkosten-Netzwerkflußproblems zur Gesamtkostenminimierung wurde ein neues Verfahren entwickelt und als Microsoft Windows-Anwendung implementiert. Es setzt sich aus einem Branch-and-Bound-System und einem Problemloser für die linearen Relaxationen zusammen, der eine neue Implementation des primalen Netzwerk-Simplex-Verfahrens darstellt und im Vergleich mit den schnellsten primal-dualen Verfahren konkurrenzfähig ist. Das Branch-and- Bound-System berechnet aus der Lagrange-Relaxation abgeleitete Penalties sowohl für Basis- als auch für Nichtbasisvariable. Bei intensiven Testrechnungen wurden aus verschiedenen Penalties, Separations- und Verzweigungsregeln die günstigsten Kombinationen ermittelt. Mit ihnen bereitet erstmals auch die Lösung großer Probleme (mehrere tausend Knoten, mehrere zehntausend Pfeile, davon bis zu fünftausend mit Fixkosten belastet) auf PCs keine Schwierigkeiten mehr.

Christoph Arlt
Genetic Algorithms for Job Shop Scheduling

Solving the minimum makespan problem of job shop scheduling a genetic algorithm serves as a meta-strategy to guide an optimal design of dispatching rule sequences for job assignment as well as one machine decomposition sequences in the sense of the shifting bottleneck procedure. Computational experiments show that our algorithm can find shorter makespans than the shifting bottleneck heuristic, tabu search, or simulated annealing with the same running time.

Ulrich Dorndorf, Erwin Pesch
On an Algorithm for Some Packing-Problem

In this paper, we give an algorithm for the one- dimensional packing-problem, in which a certain liberty is permitted, concerning the unique size of the packings. An upper bound on this size is the average itemsize multiplied by the i-th power of two, i being a random integer. The performance of this algorithm is tested using an algorithm developed by Martello and Toth.

Walter Goessens
A New Efficient Evolutionary Algorithm for the Quadratic Assignment Problem

Evolution Strategies (ES) belong to the class of evolutionary search and optimization techniques inspired by the mechanics of natural genetics and Darwinism. The focus here is on their applicability to the Quadratic Assignment Problem (QAP). The QAP has many practical applications such as factory layout, but is known to be NP-hard. A new Evolutionary Algorithm, based on the ES-idea, is presented. It appears to be very efficient and outperforms even Simulated Annealing. Experimental results on two test problems taken from the literature are given. Evolutionary Algorithms are a promising approach to solve difficult optimization problems. Necessary extensions for practical applications in factory layout form the final section of the paper.

Volker Nissen
Tabu Search und Lin-Kernighan

Tabu Search ist neben Simulated Annealing eine weitere lokale Suchstrategie zur Lösung kombinatorischer Optimierungsprobleme, derart, daß aufgrund einer zuvor definierten Nachbarschaftsstruktur gewisse Lösungsmodifikationen erlaubt sind, die auch zu vorübergehenden Qualitätsverschlechterungen fähren dürfen. In diesem Vortrag soll deutlich gemacht werden, daß der Algorithmus von Lin und Kernighan eine frühe Anwendung von Tabu Search auf Probleme der kombinatorischen Optimierung darstellt. Die Nachbarschaftsstruktur der Lin-Kernighan Idee ist etwas komplizierter; es handelt sich um eine sog. eingebettete Nachbarschaftsstruktur. Der Lin-Kernighan Algorithmus gehört zu einer Klasse komplexerer Tabu Search Strategien, den sog. Ejection Chain Strategien (Glover). Es werden verschiedene Anwendungen der Idee von Lin und Kernighan vorgestellt, Gemeinsamkeiten zu Tabu Search hervorgehoben und die Idee der Ejection Chain Strategie mit eingebetteten Nachbarschaftsstrukturen dargelegt.

Erwin Pesch
Das Traveling Salesman Problem mit Permutierten Verteilungsmatrizen und Quasi-2-Konvexität

Betrachtet wird das Traveling Salesman Problem (TSP; Rundreiseproblem) von einer speziellen Klasse von Matrizen, den sogenannten permutierten Verteilungsmatrizen. C = [cij] wird Verteilungsmatrix genannt, wenn für alle i<p, j<q: cij + cpq ≤ ciq + cpj, (i,j = 1,…,m) gilt. C erfüllt die sogenannte “Monge”-Bedingung. C wird permutierte Verteilungsmatrix genannt, wenn eine Permutation p so existiert, daß Cp = [cip<j<] eine Verteilungsmatrix ist. Die zulässige Lösungsmenge des TSP wird in einen Graphen (Strukturgraphen) so eingebettet, daß die Zielfunktion die Eigenschaft der Quasi-2-Ronvexität hat. Auf Grund der so eingeführten Struktur können effiziente (polynomiale) Lösungsmöglichkeiten für zugrundegelegte spezielle Problemklassen abgeleitet werden. Abschließend wird die Klasse der symmetrischen Produktmatrizen betrachtet, bei denen cij = ai.bj gilt.

Egon Seiffart

Fuzzy Sets

Unscharfe Produktionsfunktionen Unscharfe Erweiterung “klassischer” Produktionsfunktionen und ihre Anwendung auf F&E-Projekte

Die Entwicklung von Produktionsfunktionen als Modelle der Input-Output-Beziehungen von Produktionen ist eine der Hauptaufgaben der betriebswirtschaftlichen Produktionstheorie. Die meisten Ansätze (insbesondere die bekannten Produktionsfunktionen “Typ A” bis “Typ E”) gehen von deterministischen industriellen Produktionen aus. Es sind jedoch häufig Unsicherheitsfaktoren in Produktionsprozessen zu beobachten. Dies gilt sowohl für die Erzeugung materieller Sachgüter (z.B. Bearbeitungstoleranzen, vage Prognosen über die Entwicklung rechtlicher Rahmenbedingungen in Großprojekten) als auch für immaterielle Outputs (z.B. Informationsproduktion in Beratungsund F&E-Projekten), mit denen sich die jüngere Produktionstheorie zunehmend beschäftigt (Produktion von Dienstleistungen Produktion von Informationen).

Jürgen Bode
Fuzzy Reasoning for Solving Fuzzy Multiobjective Linear Programs

We propose a new solution principle to Fuzzy Multiobjective Linear Programs (FMLP) of the form maximize $$ \left( {\tilde c_{11} \times _{11} + \ldots + \tilde c_{1n} \times _n , \ldots ,\tilde c_{k1} \times _1 + \ldots + \tilde c_{kn} \times _n } \right) $$ subject to $$ \begin{array}{*{20}c} {\tilde a_{11} \times _1 + \ldots + \tilde a_{1n} \times _n \, \prec \,\tilde b_1 } \\ {...............} \\ {{\text{ }}\tilde a_{m1} \times _1 + \ldots + \tilde a_{mn} \times _n \, \prec \,\tilde b_m } \\ \end{array} $$ where x∈Rn is a vector of decision variables, all coefficients with tilde are fuzzy quantities, the operations addition and multiplication by scalar of fuzzy sets are defined by Zadeh’s extension principle, and < is a certain fuzzy relation given by the decision-maker.

Robert Fullér
Unterstützung zielorientierten Entscheidungen mit Hilfe der Fuzzy Logic

Der Produktionsprozeß muß sich immer den jeweiligen Marktanforderungen anpassen. In der gegenwärtigen Wettbewerbslage ist zunehmend nicht nur Qualität und Preis sondern auch die Fähigkeit der Unternehmen, kundenspezifische Produktanforderungen zu realisieren und zugleich kurze Lieferzeiten zu garantieren entscheidend. Eine Möglichkeit, den wachsenden Rationalisierungsdruck auch im Maschinenbau zu bewältigen, ist die Reorganisation der Arbeit zwecks Integration von verschiedenen Aufgaben und zunehmender Einsatz rechnerunterstützter Hilfsmittel für technische und organisatorische Aufgaben.

Ileana Hamburg
Fuzzy Sets in der Versicherungstechnik

Es wird ein Verfahren aufgezeigt, welches neuartige Risiken, für die noch keine Schadenerfahrung vorhanden ist, quantifizierbar macht. Hierbei wird das Risiko mittels unscharfer cartesischer Produkte anhand bestehender Tarifsysteme zunächst identifiziert und dann mit einer der Risikoidentifikation adäquaten Prämie so bemessen, daß sich die gewonnene Prämie als Bayes-Schätzer interpretieren läßt.Die Relevanz der bestehenden Tarifsysteme für die Kalkulation des neuartigen Risikos läßt sich als unscharfe Menge über Tarifsystemen festhalten. Mit einem Unschärfemaß kann diese unscharfe Menge einerseits als Kriterium für die Versicherbarkeit des Risikos und andererseits für die Festlegung eines der Relevanz entsprechenden Sicherheitszuschlags in der Prämie herangezogen werden.

Robert J. P. Holz
Fuzzy Control - Zum Vergleich von Unscharfer und Klassischer Regelung

Das Spektrum der Einsatzbereiche der Steuerung mit unscharfen Daten umfaßt Steuerungsaufgaben im betriebswirtschaftlichen wie auch im technischen Bereich. Der Vorteil wird dabei in einer einfacheren und anschaulicheren Formulierung und in höherer Robustheit gesehen.

Ulrich D. Holzbaur, Thomas Pieri
The Context Model from the Viewpoint of Logic

The context model was introduced as a commom framework for calculi which handle uncertain and vague knowledge like Bayes-, Dempster-Shafer-Smets-, and possibility theory in order to provide a clear semantic background, in which the concepts of these theories can be interpreted and compared. The context model is based on set-theoretic view of the knowledge to be modelled. Context logic transfers the ideas of the context model to logical calculi like probabilistic or possibilistic logic.Interpreting possibilistic logic in the sense of context logic, we can provide a well-defined semantics for the numbers used in possibilistic logic. Context logic enables us to understand connections between Prolog extensions based on many-valued (fuzzy) and on possibilistic logic.

Frank Klawonn, Jörg Gebhardt, Rudolf Kruse
Some problems of linear programming with fuzzy coefficients

In this paper, we investigate a special class of four fuzzy relations for ranking fuzzy numbers in LP problems, particularly, for ranking fuzzy numbers of a common shape. We start with ranking of ordinary sets A, B in the Euclidean k-dimensional space Ek defining the following four crisp relations ≤ i, i = 1,2,3,4:$$ \begin{array}{*{20}c} {{\text{A}} \leq_1 {\text{B}}\,\,\,if\,\,\,\forall \times \in {\text{A}}\,\,and\,\,\forall y \in {\text{B}}:\,\,{\text{X}} \leqq y,} \\ {{\text{A}}\, \leq_2 {\text{B}}\,\,\,if\,\,\,\forall \times \in {\text{A}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\exists y \in {\text{B}}:\,\,{\text{X}} \leqq y,} \\ {{\text{A}}\, \leq_3 {\text{B}}\,\,\,if\,\,\,\forall y \in {\text{A}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\exists y \in {\text{B}}:\,\,{\text{X}} \leqq y,} \\ {{\text{A}}\, \leq_4 {\text{B}}\,\,\,if\,\,\,\forall y \in {\text{A}}\,\,and\,\,\exists y \in {\text{B}}:\,\,{\text{X}} \leqq y.} \\ \end{array} $$

Jaroslav Ramík
Mathematische Optimierung mit Fuzzy Daten

Wird ein reales Entscheidungsproblem in Form eines mathematischen Optimierungsmodells abgebildet, so muß der Entscheidungsträger in der Lage sein, allen Koeffizienten der Zielfunktion(en) und der Restriktionsfunktionen und allen Restriktionsgrenzen eine eindeutig bestimmte reelle Zahl zuzuordnen. In vielen praktischen Anwendungsfällen reichen die Informationen des Entscheidungsträgers nicht aus, um diesen hohen Anforderungen zu genügen. Insbesondere Daten, die erst in der Zukunft realisiert werden, lassen sich zumeist nur größenordnungsmäßig prognostizieren. Dabei existieren i. a. nicht nur Vorstellungen über Bandbreiten für diese vagen Daten, sondern auch über unterschiedliche Realisierungschancen der in Betracht kommenden Werte. Solche unsicheren Daten lassen sich adäquat durch Fuzzy Sets modellieren. Es liegt daher nahe, vage. Daten in mathematischen Optimierungsmodellen durch Fuzzy-Größen auszudrücken.

Heinrich Rommelfanger
Netzplantechnik mit Fuzzy-Daten

In diesem Beitrag wird ein neuer Weg zur Berechnung von Ereigniszeitpunkten und Pufferzeiten in Netzplänen mit Fuzzy-Intervallen vorgestellt. Er bietet gegenüber den bisher bekannten Fuzzy-Netzplan-Verfahren den Vorzug, daß die Definitionen aus deterministischen Netzplan-Methoden einfach übertragen werden können.

Heinrich Rommelfanger, Michael Schüpke
FUZZY-Entscheidungsmodelle zur Organisationsplanung

Es werden lineare Entscheidungsmodelle zur Organisationsstruktur- und Stellenplanung formuliert, die als Vektoroptimierungsmodelle konzipiert sind. Die Kompromißlösungen lassen sich sowohl im deterministischen als auch im unscharfen Fall durch Anwendung des (modifizierten) iterativen Verfahrens FULPAL von Rommelfanger /8/ generieren.

Thomas Spengler
Steuerung industrieller Windsichter mit Hilfe von Fuzzy Logic

Windsichten ist ein Stofftrennverfahren, welches in der Zement-industrie und der Kohleaufbereitung häufig Verwendung findet. Hierbei kommt es darauf an, einen vorgegebenen Materialstrom so in zwei unterschiedliche Ströme zu Trennen, daß der eine Strom möglichst nur Feinanteile und der andere möglichst nur die Grobanteile der aufgegebenen Kornzusammensetzung enthalten soll. Ziel ist es eine gute Trennschärfe zu erhalten. Dieses Problem konnte bisher mit konventionellen Methoden nicht zufriedenstellend gelöst werden. Bei einer üblichen Bauart, dem Zyklonwindsichter variieren die folgenden Rohstoffparameter: Feuchte des Aufgabegutes, Korngrößenverteilung des Aufgabegutes, spezifisches Gewicht, sowie die Stoffart. Diese Größen sind nicht exakt zu quantifizieren, sodaß sich eine unscharfe Charakterisierung dieser Größen anbietet. Regelgrößen im Windsichter sind die Betriebsbedingungen Durchsatzmenge, Drehzahl des Streutellers, Ventilatordrehzahl sowie Gegenflügelsystemdrehzahl. Messungen der Korngrößenverteilung von Aufgabegut, Grobgut und Feingut sind mit hohem Aufwand verbunden. Es erscheint plausibel, zur Regulierung der Betriebsparameter eine Steuerung mittels Fuzzy Logic vorzunehmen.

Karsten Stäritz, Volker Thommes
Anwendung von Methoden aus dem Bereich der Fuzzy Sets zur Datenanalyse

Die Analyse und Auswertung von Daten, die bei realen Prozeßverläufen anfallen, stellt eine wesentliche Problemstellung bei der Entscheidungsfindung in komplexen Situationen dar. Beispiele für entsprechende Anwendungen sind unter anderem im finanzwirtschaftlichen, im medizinischen und im Umweltschutzbereich zu finden. Daneben ist auch in zahlreichen Problemstellungen aus dem betrieblichen Umfeld das Problem der Auswertung gemessener Daten von hoher Bedeutung.

Richard Weber

Stochastische Systeme und Warteschlangentheorie

Product forms as a solution base for queueing systems

A class of queueing networks has a product-form solution. It is interesting to investigate which queueing systems have solutions in the form of linear combinations of product forms. In this paper it is investigated when the equilibrium distribution of one or two-dimensional Markovian queueing systems can be written as linear combination of products of powers. Also some cases with extra supplementary variables are investigated.

Ivo J. B. F. Adan, Jaap Wessels
Entwicklung und Validierung der Schließmethode zur Analyse offener Warteschlangennetze

Bei der approximativen Analyse offener Warteschlangennetze gilt es die Genauigkeit der berechneten Leistungsgrößen zu verbesssern. Zu diesem Zweck sollen die zahlreichen Verfahren für geschlossene Netze mit ihren jeweiligen Erweiterungen genutzt werden, indem offene Warteschlangennetze “geschlossen” und die weiteren Analysen mit Hilfe der besten Lösungsverfahren für geschlosssene Netze durchgeführt werden. Die Anwendung dieser Vorgehensweise wird erläutert und anhand von Beispielnetzen validiert.

Gunter Bolch, Hermann Jung, Malte Gaebell
Correlation Properties of Queueing Networks

Queueing Network applications in modeling, e.g., Flexible Manufacturing Systems usually depend on using “Product-form” models. For open networks the product-form structure means (roughly) that, in equilibrium at a fixed time instant the queue lengths at different nodes behave as if they are independent.

Hans Daduna, Ryszard Szekli
New Generators of Normal and Poisson Deviates Based on the Transformed Rejection Method

Die Transformierte Verwerfung verwendet Inversion um Zufallszahlen aus der “Hutfunktion” eines Verwerfungsalgorithmus zu erzeugen. Anders als bei der gewöhnlichen Verwerfungsmethode genügt es, die inverse Verteilungsfunktion des „Hutes” zu kennen. Verschiedene stetige und diskrete Verteilungen wie Normal-, Cauchy-, Exponential-, Poisson- und Binomial Verteilung können mit dieser Methode erzeugt werden. Die entsprechenden Algorithmen sind kurz, einfach und schnell. Noch wichtiger scheint, daß Ihre Qualität in Kombination mit linearen Kongruenzgeneratoren besser ist als die der Quotientenmethode. Die transformierte Verwerfung eignet sich auch gut, um stark korrelierte Zufallszahlen zu erzeugen.

Wolfgang Hörmann
The Compensation Approach for Three or More Dimensional Random Walks

In this paper we investigate for which random walks with three or more dimensions the compensation approach can be used to determine the equilibrium distribution. As we will see, the compensation approach is not appropriate for the symmetric shortest queue system with three queues, but for the 2 × 3 buffered switch it is. By using this compensation approach, we show that for the 2 × 3 buffered switch the equilibrium distribution can be expressed as a linear combination of six series of binary trees of product-form (geometric) distributions.

G. J. van Houtum, I. J. B. F. Adan, J. Wessels, W. H. M. Zijm
Queueing Systems on a Circle

We consider queueing systems where arriving customers drop at random on a finite graph (e.g. on a circle). This means that, besides service times, traveling times appear. If customers arrive according to a time-homogeneous Poisson process, using a regeneration argument, we show that the usual condition “mean service time less than the mean interarrival time” is sufficient for stability. When customers drop on a circle, we consider the steady-state behaviour of the number and the locations of customers that are waiting for service.

Dirk P. Kroese, Volker Schmidt
Average optimal strategies in stochastic games with complete information

In this contribution Markov games are considered in which the first, player knows the current state but the second player knows the current state and the current action of the first player. Such Markov games are called Markov games with complete information or minimax decision models. By means of a Bellman equation a sufficient condition for the average optimality of a stationary deterministic strategy is given. Furthermore, Howard’s strategy improvement known for Markov decision models is generalized to Markov games.

Heinz-Uwe Küenle
Comparison of Two Approximations for the Loss Probablility in Finite-Buffer Queues

This lecture deals with two related approximations that were recently proposed for the loss probability in finite-buffer queues. The purpose of the lecture is two-fold. First, to provide better insight and more theoretical support for both approximations. Second, to show by an experimental study how well both approximations perform. An interesting empirical finding is that in many cases of practical interest the two approximations provide upper and lower bounds on the exact value of the loss probability. This lecture is based on joined work with professor M. Miyazawa (Science University of Tokyo).

Henk Tijms

Statistik, Datenanalyse, Prognose

Nichtparametrische Regression: Weitere Ansätze zur Kernglättung und Modellspezifikation

In dieser Arbeit werden Fejér-Glätter als Spezifikation für Kern-Schätzer vom Nadaraya-Watson Typ vorgeschlagen. Diese lösen den trade-off zwischen Grad der Glattheit und einem hinreichend guten Ausgleich der Datenextrema besser als die bisher bekannten Kernglätter. Weiterhin werden ultrasphärische Polynome für die Behebung der schlechteren Ausgleichsgüte an den Rändern des Datenbereichs empfohlen. Eine weitere Möglichkeit zur expliziten Bestimmung der Modellspezifikation bei gegebener Datenmenge (univariater Fall) besteht in der Suche nach einer geeigneten Basisdarstellung, die im Rahmen eines Sukzedenzprinzips krümmungsminimal im Sinne dividierter Differenzen zweiter Ordnung ist. Der Suchprozeß ist in einem grafikgestützten Softwaresystem mit Turbo Pascal implementiert worden. Das System erlaubt den komfortablen Zugriff auf die Zeitreihen der VGR, für welche die Spezifikation ihres funktionalen Zusammenhangs zwischen abhängiger und unabhängigen Variablen gewünscht wird.

R. Fahrion
Lastprognose in der Energiewirtschaft mittels Neuronaler Netze

In dieser Arbeit wird das Problem der kurzfristigen Lastprognose bei einem Energieversorgungsunternehmen (EVU) betrachtet. Es soll die Last des jeweils folgenden Tages vorhersagt werden, wobei als Eingangsgrößen der Tagestyp, die Wettervorhersage und die Last der Vortage Verwendung finden. Es wird untersucht, ob durch die Fähigkeit neuronaler Netze, eventuell vorliegende Nichtlinearitäten des Problèmes zu erkennen, die Resultate ähnlich gut sind wie bei klassischen Methoden oder sogar verbessert werden können.Es werden 2 verschiedene Ansätze untersucht wobei bei beiden als Netzwerkarchitektur das Assoziationsnetzwerk (Multi-Layer-Perceptron) gewählt wird. Ohne die Möglichkeiten der Modellierung im Rahmen dieser Topologien voll ausgeschöpft zu haben, liegen damit die Resultate schon in der Nähe jener der klassischen ökonometrischen Methoden. Das Verfahren scheint also grundsätzlich konkurrenzfähig zu sein.

Richard F. Hartl, Thomas Staffelmayr, Gerold Petritsch
Nichtparametrische Maximum-Likelihood-Inferenz Mit A-Priori-Restriktionen

A-priori-Restriktionen P(X∈I j ) = π j (j = l,…,m) für die Verteilung einer reellwertigen Zufallsvariablen X, wobei π = (π1, π2,…, πm) ein Vektor mit π j ≥ 0 (j = 1,…,m) und Σ j π j = 1 ist und (I1,I2,…,Im) eine Zerlegung von ℝ ist, führen zu nichtparametrischen Verteilungsfamilien Θ = {F | P F (X ∈ I j ) = π j (j = l,…,m)}.P F bezeichnet die Wahrscheinlichkeit, falls F die Verteilungsfunktion von X ist. Allgemeinere Formen des Vorwissens über die Verteilung von X können durch nichtparametrische Verteilungsfamilien Θ = Uπ∈∏Θπ modelliert werden, wobei П kann beispielsweise durch ein lineares Ungleichungssystem Aπ ≥ b bestimmt sein; dies ermöglicht die Modellierung vager A-priori-Restriktionen, z. B. π1 ≥ π2 ≥ … ≥ π m oder a j ≤ π j ≤ b j (j = l,…, m).Für unabhängige und identisch verteilte Beobachtungen X i ~ F° ∈ Θ wird der nichtparametrische ML-Schätzer FML für F° bezüglich Θ bestimmt. Asymptotische Eigenschaften von FML und die Schätzung von Momenten von F° werden diskutiert.

Stefan Huschens, Gerhard Stahl
Punkt- und Intervallschätzung bei Anwendung von Doppeltests zur Attributprüfung

Stichprobensysteme zur Attributprüfung, die in MIL-STD-105D, ISO 2859 oder DIN 40080 genormt sind, werden weltweit zur Eingangs- oder Ausgangsprüfung von Losen verwendet. Diese Systeme enthalten neben Einfachtests (einfachen Stichprobenplänen) auch Doppeltests, die bei gleicher Macht einen meist geringeren durchschnittlichen Stichprobenumfang (Average sample number, ASN) aufweisen. Weitere Einsparungen beim Stichprobenumfang sind mit abgebrochener Kontrolle („curtailed sampling“, „truncated sampling“) möglich, bei der die Auswertung beendet wird, sobald eine Entscheidung getroffen werden kann.

Andreas Lamers
Automatische Selektion Optimaler Modellstrukturen für die Identifikation Nichtlinearer Systeme bei Unsicherheit

Im Beitrag wird die „Group Method of Data Handling“ (GMDH) als Methode der automatischen Selektion optimaler Modellstrukturen unter dem speziellen Aspekt einer stark eingeschränkten Verfügbarkeit an gemessenen Daten betrachtet. Dazu werden das Grundschemata des algorithmischen Aufbaus der GMDH vorgestellt, die wichtigsten Aspekte der GMDH-Modellierung kurz umrissen und theoretisch-statistische Probleme angesprochen. Ein neues Strukturselektionskriterium für den Fall des Primärdatenmangels wird vorgeschlagen.

Tatjana Lange
Population Projection Methods and Migration

The objective of this paper is to examine the effect of migration on the size and the age structure of the population in Germany by applying population projection models.

Peter Pflaumer
Zur Wirtschaftlichkeitspüfung von Kassenärzten

Eine wichtige Aufgabe der Kassenärztlichen Vereinigungen und der Krankenkassen stellt die Prüfung der Wirtschaftlichkeit der Behandlungsweise von Kassenärzten dar.Zur statistischen Beschreibung dieser Problematik führen wir ein Ausreißermodell ein. Als Maß für die Wirtschaftlichkeit werden die Fallkosten, d.h. die Arztkosten der Behandlung eines Patienten innerhalb eines Quartales, herangezogen. Das Auffinden von teuer arbeitenden Ärzten ist im Rahmen dieser Modellbildung gleichbedeutend mit dem Erkennen von Ausreißern.Es werden verschiedene Methoden zur Identifikation der Ausreißer vorgestellt, nämlich ein Rückwärtsverfahren und ein Vorwärtsverfahren basierend auf robuster Parameterschätzung.

Wolfgang Schmid, Hans Wolff, Josef Högel, Wilhelm Gaus
Prognosesoftware

In den vergangenen Jahren nahm die Zahl der in der Literatur diskutierten und auch praktisch zum Einsatz gelangenden Prognosemethoden beträchtlich zu. Dies gilt auch für die auf der Zeitreihenanalyse basierenden Methoden, insbesondere die modernen Verfahren der exponentiellen Glättung (mit Dämpfungsfaktoren), die im Anschluß an die Box-Jenkins-Methodologie konzipierten Verfahren sowie die neueren Zeitbereichs- resp. frequenzbereichsorientierten Ansätze.

Karl Weber

Entscheidungstheorie und Mehrzielentscheidungen

Entscheidungskriterien bei Partieller Wahrscheinlichkeitsinformation eine Klassifikatorische Übersicht

Gegenstand dieses Aufsatzes sind Entscheidungskriterien zur Lösung von Entscheidungsproblemen bei partieller Wahrscheinlichkeitsinformation. Derartige Kriterien können je nach Rationalitätskonzept und Behandlung der partiellen Wahrscheinlichkeitsinformation unterschieden werden. Auf der Grundlage dieser Unterscheidung wird eine kurze klassifikatorische Übersicht gegeben.

Hans Wolfgang Brachinger
Interaktive Suchstrategien für diskrete Vectoroptimierungsprobleme auf der Basis von Baumstrukturen

Interaktive Lösungskonzepte für Vektoroptimierungsprobleme sollten in der Lage sein, auf die individuellen Anforderungen der Nutzer einzugehen. Hierzu ist es erforderlich, ein breites Spektrum an Informationen über die Menge effizienter Lösungen bereitzustellen und verschiedene Suchstrategien zu unterstützen.

Walter Habenicht
Kompetenz- und Ambiguitätseffekte in experimentellen Märkten

Kompetenz kann möglicherweise den Einfluß von Ambiguität auf Entscheidungen bei Unsicherheit erklären. In Individualexperimenten haben Heath und Tversky (1991) gezeigt, daß Versuchsteilnehmer eine Präferenz für Lotterien aus Wissensgebieten haben, in denen sie sich kompetent fühlen. Keppe und Weber (1991) haben Paare von komplementären Lotterien gebildet, bei denen jeweils auf ein Ereignis bzw. das Komplementärereignis gesetzt werden konnte. Sowohl die Summe der Sicherheitsäquivalente für ein Paar von Lotterien als auch die Summe der angegebenen Eintrittswahrscheinlichkeiten für beide Ereignisse waren abhängig von der empfundenen Kompetenz. Bei niedriger Kompetenz waren beide Größen kleiner als bei hoher Kompetenz.

Hans-Jürgen Keppe, Martin Weber
Ein Test der Choquet-Erwartungsnutzentheorie

Es werden Entscheidungen unter Ambiguität betrachtet, d.h. Ent-scheidungen, bei denen sich der Entscheider über die Wahrscheinlichkeiten unsicher ist. Eine Möglichkeit der Abbildung solcher Entscheidungen unter Ambiguität besteht darin, auf nicht notwendigerweise additive Wahrscheinlichkeiten, den sogenannten Kapazitäten, zurückzugreifen. Allgemein hat diese Kategorie von Modellen unter dem Namen “Choquet Expected Utility” Eingang in die Literatur gefunden. In der vorgestellten Untersuchung wird die Choquet-Erwartungsnutzentheorie auf ihre empirische Validität hin überprüft.

Lukas Mangelsdorff, Martin Webe
Die Modellierung des Managemententscheidungsprozesses als Grundlage für die Bewertung von entscheidungsunterstützenden Systemen

In den letzten Jahren hat die computerbasierte Entscheidungs unterstützung der Unternehmensführung mit dem Einsatz von marktgängigen Decision Support Systems (DSS) und Prototypen von Expert systems (ES) eine rasante Entwicklung erfahren. Nach der anfänglichen Euphorie bzgl. der damit verbundenen technischen Möglichkeiten stellt sich nun immer mehr die Frage, ob und wann der Einsatz der oben genannten Systeme effizient und effektiv und somit wirtschaftlich ist. Da eine Bewertung allein am Entscheidungsoutput kaum möglich ist und der Komplexität der Problemstellung nicht gerecht würde, muß der Entscheidungsproze/3 einer differenzierten Betrachtungsweise hinsichtlich seiner Effizienz und Effektivität unterzogen werden.

Heinz Walterscheid
Multikriterielle Analysen: Die AHP-Methode

Zur Durchführung multikriterieller Analysen wird in zunehmendem Maße auf den AHP-Ansatz (Analytic Hierarchy Process) zurückgegriffen. AHP läuft mehrstufig ab. Zunächst ist - neben der generellen Zielvorgabe - eine leicht überblickbare Hierarchie der zu untersuchenden Systemmerkmale (attributes) aufzubauen. Dabei ist sicherzustellen, daß die innerhalb einzelner Hierarchiestufen ausgewiesenen Attribute sinnvoll miteinander vergleichbar und mit einem Merkmal der vorgelagerten Stufe verkoppelt sind.

Karl Weber

Decision Support Systems und Expertensysteme

A visual interactive modeling environment for optimization problems

For conceptual modeling of optimization problems, a decision support system should offer means for modeling the objects and their relationships which are considered relevant,specifying which information is needed for solving the problem,formulating constraints which must be satisfied by a solution, andspecifying objectives.

Joachim Geidel
Eine Anwendung des Wissensbasierten Systems Spirit in der Polizeilichen Kriminalitätsanalyse

Im Bereich der Künstlichen Intelligenz gewinnen vor allem Wissensbasierte Systeme, die die Verarbeitung unsicheren Wissens ermöglichen, immer mehr an Bedeutung. Die bislang entwickelten Expertensysteme sind dabei überwiegend auf eine spezielle Problematik zugeschnitten. Mit SPIRIT (Symmetrical Probabilistic Intensional Reasoning in Inference-networks in Transition) wurde das theoretische Konzept für ein wissensbasiertes System entwickelt, das aufgrund von Ereigniskombinationen Wissen induktiv akquiriert und rein probabilistisch für beliebig lokalisierte Aussagen in einem symmetrischen Inferenznetzwerk Schlüsse zieht. Dabei kann SPIRIT verschiedene Themenbereiche bearbeiten.

Albrecht Heinrici, Heinz-Peter Reidmacher
Ein wissensbasiertes Entscheidungsunterstützungssystem für den Bildungsentwicklungsplaner am Beispiel für Indonesien

Ein wichtiges Instrument zur Bevölkerungsplanung in Entwicklungsländern ist Bildung, da durch eine verbesserte Bildung (höheres Bildungsniveau) der Bevölkerungszuwachs vermindert werden kann. Ein höheres Bildungsniveau hat außerdem positive Auswirkungen auf die Wirtschaft und den Lebensstandard.Um ein besseres Bildungsniveau zu erreichen, muß die staatliche Ausbildung gut geplant werden. In diesem Papier wird ein Modell beschrieben, welches zur Bildungsplanung im Entwicklungsland Indonesien dient, indem die dortige Bevölkerungsentwicklung prognostiziert wird und daraufhin auf der Basis eines wissensbasierten Systems Strategien und Maßnahmen zur Bildungsentwicklung generiert werden.

Henry Kartarahardja, Michael Müller-Wünsch
Datenschutz in Kooperierenden Expertensystemen: Das Beispiel einer Bankenapplikation

Eine für die zukünftige Informationsverarbeitung wichtige Basistechnologie ist die Verteilte Künstliche Intelligenz. Dort wird derzeit intensiv daran gearbeitet, intelligente Systeme kooperationsfähig zu machen. Grundsätzlich voneinander unabhängige Systeme sollen dabei flexibel (und transparent für den Benutzer) zusammenarbeiten können. Das ist vor allem dann von Interesse, wenn (wie zum Beispiel im Bankenbereich) bereits verschiedene, in verwandten Domänen eingesetzte Expertensysteme verfügbar sind. Werden diese kooperationsfähig gemacht, dann steigt (wegen tendenziell besserer und vollständigerer Ergebnisse) zunächst der Nutzen für den lokalen Anwender. Weit wichtiger ist jedoch, daß kooperationsfähige Systeme ihr Wissen grundsätzlich auch allen anderen Mitarbeitern eines Unternehmens zur Verfügung stellen können. Das eröffnet interessante Möglichkeiten, (üblicherweise nur lokal genutzte) teure wissensbasierte Systeme schneller zu amortisieren, und auf den Wissenstransfer innerhalb des Unternehmens zu beschleunigen.

Stefan Kirn
Integrierte wissensbasierte Diagnostik zur Unterstützung des Produktionsmanagements

Der wirtschaftliche Betrieb von flexiblen Fertigungssystemen bei hoher Anlagenverfügbarkeit und hoher Kapazitätsauslastung setzt den Einsatz von Diagnosesystemen voraus, um frühzeitig Fehler erkennen und im Störungsfall konkrete Hinweise auf den Fehlerort erhalten zu können. Als Aufgaben eines betrieblichen Diagnosesystems lassen sich maschinennahe Überwachung, on-line und off-line Diagnose, Aufzeigen konstruktiver Schwachstellen und Produktionsprozeß-Diagnose nennen [1]. Die betrieblichen Diagnosesysteme haben Anwendungen in den Bereichen Operative Planung, Strategische Produktionsplanung (z.B. Produktionszielplanung, Produktionsmaßnahmenplanung und Produktionsressourcenplanung) sowie der Unternehmensberatung gefunden. Somit ist die Diagnostik eine wesentliche Komponente von rechnergestützten Produktionsmanagementsystemen für Führungskräfte der Produktion. Mit wissensbasierten Methoden können betriebliche Diagnoseaufgaben des Managements besser erfüllt werden.

Hermann Krallmann, Xu Xiaofei, Norbert Gronau
Spirit: Propagation in Einem Adaptiven Inferenzsystem

Local-Event-Group (LEG)-Netze sind für wissensbasierte Systeme eine gebräuchliche Form der Darstellung und Speicherung von unsicherem Wissen für lokale Gruppen von abhängigen Eigenschaften. In SPIRIT wurde diese Form der Wissensrepräsentation gewählt, da es mit ihr auf einfache Weise möglich ist, vorhandenes mit neuem Wissen zu kombinieren. Der Artikel berichtet nach einer Vorstellung des Gesamtkonzeptes, insbesondere dem Ablauf der Propagation, von ersten Erfahrungen mit diesem lernenden System.

Friedhelm Kulmann, Wilhelm Rödder
Propagation in Inferenznetzen unter Berücksichtigung des Prinzips der minimalen relativen Entropie

In diesem Artikel wird ein Algorithmus angegeben, mit dem die Propagation in einem Inferenznetz unter Ausnutzung des Prinzips der minimalen relativen Entropie effizient durchgeführt werden kann. Hierzu wird auf ein aus der Statistik bekanntes Verfahren zurückgegriffen, das auf die hier behandelte Problemstellung modifiziert angewendet werden kann.

Carl-Heinz Meyer, Wilhelm Rödder
Einsatz von OR-Methoden und Methoden der Wissensverarbeitung in angewandten Projekten am FAW

Der Vortrag geht auf verschiedene angewandte Projekte am FAW ein und beschreibt dabei das spezifische Zusammenspiel von eingesetzten Methoden aus den Bereichen Operations Research und wissensbasierte Systeme. Das betrifft im einzelnen das Projekt GENOA, das eine durchgängige Architektur vom CAD-Bereich über die Arbeitsplanung bis zur Werkstattsteuerung und NC-Programmierung zum Gegenstand hat und unter anderem auf Methoden zur Lösung von Travelling-Salesman-Problemen zurückgreift;das Projekt OSIM, in dem die objektorientierte Berkeley Simulation Library genutzt wird und eine Kopplung von Methoden der objektorientierten Programmierung mit solchen der linearen Optimierung und Graphentheorie erfolgt, und zwar für Analyse- Aufgaben in Fertigungsprozessen. Auf eine laufende Zusammenarbeit mit einem großen Halbzeug-Hersteller wird eingegangen.das Projekt ZEUS, in dessen Rahmen eine Methodik zur Elizitierung mehr-dimensionaler Präferenzstrukturen entwickelt wurde (FAW Preference Elicitation Tool). Anwendungen betreffen den Bereich der Grundwassermeßnetzplanung in Baden-Württemberg;das Projekt MIDA, das auf eine allgemeine Systemarchitektur, inklusive Software- Engineering-Methoden und zentraler Verwaltungskomponente zielt, mit deren Hilfe modellgetrieben Algorithmen auf Daten und Datenbanken angewandt werden. Konkrete Anwendungen erfolgen im Bereich des Scheduling wie der Unternehmenskommunikation (letzteres im Projekt “KIWI 2000”, dem größten Verbundprojekt des Landes Baden-Württemberg).

F. J. Radermacher
Probabilistische Repräsentation logischer Abhängigkeiten und ihre Relevanz in Expertensystemen

Zur Repräsentation unsicheren Wissens im Rahmen von Expertensystemen eignen sich insbesondere probabilistische Darstellungsformen wie Bayes-, Markov- und LEG-Netze. Da hierbei der Benutzer sowohl bei der Eingabe einer Anfrage als auch bei der Auswertung eines Prognoseergebnisses mit einer gemeinsamen Verteilung konfrontiert ist, ist eine Transformation von der probabilistischen Repräsentation in eine für den Benutzer verständliche Darstellung notwendig. In diesem Artikel wird ein Zusammenhang zwischen der probabilistischen und logikorientierten Repräsentation von Abhängigkeiten dargestellt sowie exemplarisch auf Anwendungsmöglichkeiten in Expertensystemen hingewiesen.

Heinz Peter Reidmacher
Spirit
Die Behandlung logischer Funktionen in einer probabilistisehen Wissensbasis

Eine CEG-Complete Event Group ist eine Menge von diskreten Ereignisvariablen mit einer gemeinsamen Wahrscheinlichkeitsverteilung; sie dient in der KI zur Repräsentation unsicheren Wissens. Der Abgleich der Gesamtverteilung bei mimaler relativer Entropie nach Änderung einer oder mehrerer Randverteilungen ist in der W(ahrscheinlichkeits)-Theorie eine bekannte Aufgabe; in einer probabilistischen Wissensbasis wird dieser Vorgang zur Informationseingabe und Prognose verwendet. Die Änderung der Randverteilung ihrerseits wird in der vorliegenden Arbeit so durchgeführt, daß sie einer logischen Funktion über einer evidenten Ereignismenge entspricht. Ebenfalls wird aufgezeigt, wie die Randverteilung auf Hypothesen als logische Funktion interpretierbar ist.

W. Rödder, Xu Longgui
Modularer Aufbau von Expertensystemen - dargestellt an einem Hilfsmittel zur Abwicklung von Gefahrguttransporten

Der praktische Einsatz von Expertensystemen zeigt, daß die Weiterentwicklung und Pflege der Systeme eine außerordentlich schwierige Aufgabenstellung ist, die teilweise dazu führt, daß Projekte mittelfristig eingestellt werden/1/. Dieses trifft speziell für solche Anwendungen zu, bei denen das implementierte Wissen raschen Änderungen oder Erweiterungen unterworfen ist. Dieses mag auch ein Grund dafür sein, daß viele Expertensystem-Projekte über das Prototypstadium nicht hinauskommen.

Matthias Schumann, Jörg Müller
Entscheidungsunterstützungssysteme auf der Basis Neuronaler Netze bei unvollständigem Modell der Anwendungsdomäne

Entscheidungsunterstützende Systeme (EUS) sind aus methodischer Perspektive in der Regel dadurch gekennzeichnet, daß sie ein von Experten erstelltes, mehr oder weniger vollständiges, Modell der Anwendungsdomäne in einer möglichst zweckmäßigen Repräsentationsform enthalten. Ist das Wissen über die Elemente, Relationen und Strukturen der Anwendungsdomäne relativ unvollständig, so scheiden zahlreiche Repräsentationsformen und damit zusammenhängende Prozesse zur Unterstützung des Entscheidungsproblems aus. Insbesondere zeigen sich sehr schnell die Grenzen klassischer OR-Techniken sowie bekannter logik-basierter Verfahren von Expertensystemen.Liegen derartige Problembereiche vor, dann bietet sich der Einsatz künstlich neuronaler Netze an. Die üblichen Black-Box-Ansätze mehrschichtiger Neuronaler Netze zeigen allerdings erhebliche Probleme bei derTransparenz ihres Systemverhaltens. Demgegenüber stellt gerade die Transparenz und Erklärbarkeit der Antworten eines EUS ein wesentliches Akzeptanzkriterium dar. Daran anknüpfend wird gezeigt, wie auf der Basis von Techniken Neuronaler Netze unvollständiges Expertenwissen zur Konstruktion von transparenten “Grobmodellen” genutzt werden kann. Das Grobmodell kann dann mit Hilfe spezieller neuronaler Lernverfahren auf der Basis empirischer Daten vervollständigt werden ohne die vorgegebene Grobstruktur (Modellhypothese) und damit die Modell-Transparenz zu verwischen. Als Beispielanwendung wird ein System zur Kreditwürdigkeitsanalyse gewählt, welches sich leicht einem bestehenden, strukturell ähnlichem, Fuzzy Set- Ansatz gegenüberstellen läßt. Vorteile der künstlich-neuronalen Technik gegenüber dem Fuzzy Set-Ansatz liegen insbesondere darin, daß die schwierige Bestimmung von Zugehörigkeitsfunktionen und kompensatorischen Fuzzy Set-Operatoren - die bei Anwendung dieser Technik und der exemplarisch gewählten Anwendungsdomäne notwendig werden - durch automatisches Lernen ersetzt werden kann.

Rüdiger Wilbert

Wirtschaftsinformatik

Zu einer Theorie der Wirtschaftsinformatik
Die Produktionstheorie als Bestandteil einer Theorie der Wirtschaftsinformatik?

Die Wirtschaftsinformatik befindet sich als junge Disziplin noch auf der Suche nach ihrem Standort im System der Wissenschaften. Ihre stürmische Entwicklung in jüngster Zeit und das Verlangen nach praktisch verwertbaren Ergebnissen hat ihr bisher nur wenig Zeit gelassen, eine geeignete und allgemein akzeptierte metatheoretische Basis zu entwickeln. Von der Existenz einer Theorie der Wirtschaftsinformatik kann — auch in absehbarer Zukunft — keine Rede sein. Dennoch ist die positive Rolle einer fundierten Theorie bei der Suche nach wissenschaftlichen Erkenntnissen in der Wissenschaftstheorie unbestritten (“nichts ist so praktisch wie eine gute Theorie!”)

Jürgen Bode
Das Experton als Instrument zur Konsensfindung bei unterschiedlicher Kriterienbewertung

In dieser Arbeit wird auf der Grundlage einer Intervallskalierung ein Vorgehensprinzip vorgeschlagen, wie Einschätzungen von quantitativen und qualitativen Kriterien durch mehrere Experten zu einer repräsentativen Gesamteinschätzung aller Experten verdichtet werden können. Das methodische Instrument bildet das ‘Experton’, das auf A. Kaufmann (/3/) zurückgeht. Weiterhin wird eine Rangfolge der Kriterien nach dem Grad der Meinungsdivergenz bzw. nach dem Grad der Übereinstimmung erstellt. Eine solche Rangfolge ermöglicht einem Entscheidungsträger, sich auf die ranghöchsten Dissenskriterien zu konzentrieren, um durch eine anschließende Einzelbefragung, oder auch durch erneute Konfrontation mit den bewertungsdivergierenden Kriterien, zu einer entscheidungsrelevanten Kriterienselektion zu gelangen. Es wird ein Software-Prototyp zur Erzeugung von Expertons und der Kriterienrangfolgen vorgestellt. In einer Fallstudie werden für das Problem der Selektion einer bedarfsadäquaten Projektmanagement-Software das Aggregationsproblem für eine sehr große Anzahl von Kriterien gezeigt, sowie verschiedene Auswertungsmöglichkeiten verdeutlicht.

R. Fahrion
Kennzahlendatenmodell (KDM) als Grundlage aktiver Führungsinformationssysteme

Die zunehmende Komplexität und Dynamik der Umwelt führt dazu, daß sich die Versorgung der Führungskräfte mit aktuellen, qualitativ hochwertigen sowie systematisch vollständigen Informationen kaum noch ohne den Einsatz moderner Informationstechniken erreichen läßt. Ergebnisse empirischer Untersuchungen sowie Erfahrungen im Zusammenhang mit ersten Anwendungen zeigen jedoch, daß ein großer Teil des bedarfsgerechten Informationsangebotes herkömmlicher computergestützter Versorgungssysteme verhaltensbedingt ungenutzt bleibt.

Hans-Dieter Groffmann
A Survey of Specification Formalisms

In the field of Information Systems as well as in Operational Research models are made. These models are mainly used for two reasons: to analyze the system under consideration, i.e. to derive or verify properties of the systemto (re-)design the system, i.e. the model is used as an abstract design of the system Often a model is used for both purposes.

Kees M. van Hee
Optimierung organisatorischer Systeme mit Hilfe von Petri-Netsen - diskutiert am Beispiel einer landwirtschaftlichen Beratungsorganisation -

Durch die rapiden Innovationsschritte in der Konmunikations- und Informations- technologie werden die Spitzen im Unternehmen immer häufiger mit Fragen konfrontiert, die deren Einführung und dadurch bedingte organisatorische Unstrukturierungen betreffen. Allzuoft gibt es für das Management bei derartigen Entscheidungen kaum umfassende Kriterien, die es is Entscheidungsprozeß unterstützt. Ein Experimentieren in der Praxis wäre zu kostspielig. Folglich werden Informations- und Kommunikationstechnologien oftmals nur suboptimal eingesetzt, da sie entweder nur bisherige Arbeitsabläufe unterstützen oder nicht optimal in die Organisation integriert sind und Potentiale ungenutzt bleiben.Mit den Petrri-Netzen wird eine Möglichkeit am Beispiel des überbetrieblichen Controlling (Arbeitskreise) in der landwirtschaftlichen Beratung eines Bundeslandes aufgezeigt, wie eine Organisation durch ein Modell im Hinblick auf die Zusammenhange, auf ihr Verhalten und auf die Wirkungen von Ressourcenveränderungen untersucht und optimiert werden kann.Das Modell wurde mittels des Computerprogramms “Design/CPN” (CPN=Coloured Petri Nets) umgesetzt. Die Petri-Netze diente sowohl der Erfassung der kausal-logischen Zusammenhänge des Systems, als auch der Top-Down-Modellierung. Darüberhinaus ist das Modell simulationsfähig. Schwachstellen werden somit sowohl aufgrund der Modellierung, als auch durch das Systemverhalten während der Simulation erkannt. Um dem Management eine Entscheidungsunterstützung zu geben, wird dieses Netzmodell weitgehend parametrisiert, eine ansprechende Oberfläche zur Spezifikation der Parameter generiert und die Simulation animiert, Sodaβ sofort Schwachstellen, wie Engpässe, Leerzeiten bei Personal o.ä. sichtbar werden.Das Modell kann durch die Anzahl der Arbeitskreise und mitglieder, die eingehenden Informationsmengen und die Informationsfrequenzen spezifiziert werden. Durch die Variation der Aufgabenverteilung, des Personal- und des Technologieeinsatzes und der Organisationsstrukturen kann entsprechend der Vorgaben ein Optimum ermittelt werden.

Ralf Heibig
Entwicklung Einer Bibliothek Wiederverwendbarer Softwarebausteine für die Materialwirtschaft Eines Industrieunternehmens

Die Wiederverwendung von Software hat sich als einer der wesentlichen Forschungsschwerpunkte herauskristallisiert, um Produktivität und Qualität von Softwareentwicklungen zu steigern. Dieser Beitrag zeigt, wie die Konzepte objektorientierter Entwicklung eingesetzt werden sollten,.um Wiederverwendung schon auf der Ebene des Designs einer Anwendung zu realisieren. Insbesondere steht die Zielsetzung im Mittelpunkt, nicht nur wie bisher Standarddatentypen und systemnahe Bereiche (Benutzeroberflächen, Datenbankzugriffe) der Wiederverwendung zugänglich zu machen, sondern domänenspezifische Bausteine für die effiziente Realisierung der fachinhaltlichen Zusammenhänge einer Applikation zu entwickeln. Dies wird für den Bereich der betrieblichen Informationssysteme durch die Entwicklung einer objektorientierten Bausteinbibliothek bzw. eines Frameworks für die Materialwirtschaft von Industrieunternehmen veranschaulicht.

Helge Heß, A.-W. Scheer
Kritische Erfolgsfaktoren als Methode für Definition und Entwurf von Management-Informations-Systemen - dargestellt am Beispiel des privaten Landhandels -

Zur Entwicklung und Implementierung computergestützter betriebswirtschaftlicher Informationssysteme sind im Bereich der Wirtschaftsinformatik verschiedenste Entwurfsund Entwicklungsverfahren verfügbar, um die einzelnen Phasen im Lebenszyklus einer Systementwicklung zu unterstützen. Die Planung und Gestaltung benutzeradäquater Systeme hängt insbesondere vom aktiven Einbeziehen der Benutzer in den frühen Phasen des Lebenszyklus ab. In der Phase der Systemdefinition ist dabei eine Festlegung der Anforderungen über die Schnittstelle zum Benutzer von zentraler Bedeutung. Hierbei erfolgt die Ermittlung der Anforderungen über eine Informationsbedarfsanalyse. Deren Ergebnisse bilden eine wesentliche Voraussetzung für den Systementwurf.

Ulrich Hans Kuron
Entwurf eines wissensbasierten Planungssystems zur Gestaltung einer Kanban-gesteuerten Fertigung

KANBAN-gesteuerte Fertigungssysteme zielen darauf ab, durch Dezentralisierung von Auftragsentscheidungsbefugnissen und Implementierung einer verbrauchsorienteirten pull- Steuerung die Fertigungssteuerung erheblich zu vereinfachen und dabei zugleich die Lagerkosten zu senken und die Fertigungsflexibilität zu erhöhen. Hierzu sind allerdings zuvor Rahmenbedingungen zu definieren und sicherzustellen, die die Funktionsfähigkeit einer KANBAN-Steuerung gewährleisten sollen. Die Gestaltungsparameter sind neben der Festlegung des Layouts, der Segmentierung der Fertigung und der Bestimmung von Seriengrößen insbesondere die optimale Anzahl der in den selbststeuernden Regelkreisen zirkulierenden KANBAN-Karten.Zur Unterstutzung dieser Gestaltungsentscheidung existieren heuristische, mathematisch-analytische and simulative Losungsverfahren. Erstere gehen häufig sehr pauschal vor and vernachlässigen zugunsten einer geringen Losungskomplexitat eine Reihe von Einflußparametern. Analytische Verfahren sind zwar in der Lage, die Interdependenzen vollstandig abzubilden, fuhren aber zu hochgradig komplexen and analytisch kaum noch lösbaren Entscheidungsmodellen. Praxisnaher aber aus methodischen Grunden umstritten sind Simulationsverfahren.In diesem Beitrag soll iffier eine kombinierte Verfahrensmethodik berichtet werden, bei der mittels eines Modellgenerators ein formalisiertes EDV-Simulationsmodell erstellt and fiber eine expertensystemahnliche Wissensbasis mit entsprechenden Gestaltungsregeln die Analyse der Simulationsergebnisse durchgeführt and and beurteilt wird. Die Ausgabe besteht dann in Beurteilungen and Vorschlagen zur Verbesserung der Gestaltungsparameter in verbaler benutzerorientierter Sprache. Damit sollte dem Planer eine EDV-implementierte Entscheidungsunterstutzung zur Verfugung gestellt werden, ohne daß er selbst ein komplexes Simulationsmodell formal aufstellen and analysieren muß.

Richard Lackes
Einsatz Eines or-Verfahrens zur Beurteilung der Wirtschaftlichkeit des Einsatzes von Informationssystemen

In vielen Bereichen ist es heute nicht mehr möglich, den Einsatz von Informationstechnik ausschließlich durch direkt realisierbare Kostenreduktionen zu rechtfertigen. Es überwiegen Nutzeffekte qualitativer Art, wie beispielsweise höhere Arbeitsproduktivität sowie Profilverschiebungen hin zu höherwertigen Tätigkeiten. Darüber hinaus wird der Produktionsfaktor ‘Information’ für die Wettbewerbskraft der Unternehmen immer wichtiger. Die klassischen Verfahren der Investirons- und Wirtschaftlichkeitsrechnung setzen die Kenntnis detaillierter Ein- und Auszahlungsströme voraus. Insbesondere die Einzahlungsströme, die ja letztlich den Nutzen der Investition determinieren, sind jedoch häufig nur unter großen Schwierigkeiten quantifizierbar. Im Rahmen des Beitrags wird auf das hedonistische Verfahren zur Bewertung von Produktivitätszuwächsen und Tätigkeitsverschiebungen eingegangen. Dieses Verfahren beruht auf bestimmten vordergründig einleuchtenden Prämissen und führt auf ein nichtlineares Optimierungsproblem, welches allerdings unter plausiblen Annahmen leicht gelöst werden kann. Dieses Verfahren wurde im Rahmen der Erstellung eines Systems zur computerunterstützt en Sachbearbeitung im Kreditgeschäft einer mittleren Sparkasse eingesetzt. Dabei zeigt es sich, daß die Prämissen des Modells zu restriktiv sind, um eine sinnvolle Modellierung der betrieblichen Realität zu gewährleisten. Deshalb wurde das hedonistische Verfahren entsprechend modifiziert und weiterentwickelt. Das so erhaltene Verfahren wurde zwischenzeitlich in konkreten Projekten erfolgreich eingesetzt.

Eberhard Stickel
Reengineering als Ansatz zur Softwareintegration

Die Softwarekrise der Sechziger Jahre erscheint mittlerweile dichotom: als Softwareentwicklungskrise und als Softwarewartungskrise. Die vorliegende Arbeitet soll einen Beitrag zur Integration von Softwarealtsystemen in eine integrierte IS-Architektur der Unternehmung leisten. Neben der technischen Durchführung des Reengineering von Softwarealtsystemen liegt der Fokus der Betrachtung auf dem Ansatz der ökonomischen Durchführbarkeit des Software Reengineering.

Clifford T. Y. Tjiok
Backmatter
Metadaten
Titel
DGOR / ÖGOR
herausgegeben von
Prof. Dr. Karl-Werner Hansmann
Prof. Dr. Achim Bachem
Prof. Dr. Matthias Jarke
Univ.-Lektor Dr. Wolfgang E. Katzenberger
Dr. Alfred Marusev
Copyright-Jahr
1993
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-642-78196-4
Print ISBN
978-3-540-56642-7
DOI
https://doi.org/10.1007/978-3-642-78196-4