Skip to main content
Top

Operations Research Proceedings 2001

Selected Papers of the International Conference on Operations Research (OR 2001) Duisburg, September 3–5, 2001

  • 2002
  • Book
insite
SEARCH

About this book

This volume contains the proceedings of the 200 I International Conference on Operations Research (OR 2(01) held at the Gerhard-Mercator-University Duisburg, September 3-5,2001. OR 200 1 was organized under the auspices of the German Society of Operations Research, Gesellschaft für Operations Research (GOR e. V.). The conference and the annual general meeting were attended by 360 participants from 20 countries. The presentation of 220 papers was organized in 15 sections. According to Duisburg as hosting city for this event OR 200 1 emphasized on contributions of OR in the areas of energy, transport and traftk. The program consisted of2 plenary lectures (Reinhard Selten and Jörg Hennerkes) and 15 invited semiplenary lectures. 97 papers were submitted for publication. Following the advice of the section chairs the program committee decided to accept 59 papers for this volume. The selected manuscripts will be published also in electronic form on the W orld Wide Web at http://www.uni-duisburg.de/or200 1. We want to thank all referees and authors for delivering their final manuscript in due time. We are also grateful to the other members of the local organizing committee and especially to Stefan Krebs, Corinna Schu and David Betge for the perfect conference management. Roland Düsing, Ralph Gollmer and Steffen Stock supported us in editing the abstracts and the final version of this proceeding volume. Last but not least thanks to all the assistants and student assistants for their operations on OR 2001 in Duisburg.

Table of Contents

Frontmatter

Transport and Traffic

Frontmatter
Routing a Fleet of Vehicles for Dynamic Combined Pick-up and Deliveries Services

This work partially reports the results of a study aiming at the design and analysis of the performance of a multi-cab metropolitan transportation system. In our model we investigate a particular multi-vehicle many-to-many dynamic request dial-a-ride problem. We present a heuristic algorithm for this problem and some preliminary results. The algorithm is based on iteratively solving a single-vehicle subproblem at optimality: a pretty efficient dynamic programming routine has been devised for this purpose.This work has been carried out by researchers from both University of Rome “Tor Vergata” and Italian Energy Research Center ENEA as a line of a reasearch program, regarding urban mobility optimization, funded by ENEA and the Italian Ministry of Environment.

Massimiliano Caramia, Giuseppe F. Italiano, Gianpaolo Oriolo, Andrea Pacifici, Alessandro Perugia
Simulating Delays for Realistic Time-Table Optimization

We present a method for the macroscopic simulation of the accumulated delay along a sequence of tracks (“supertrack”) in a railway network. In a naive approach perturbations in tracks or stations would be simulated separately to calculate their accumulation in the presence of slack times. Instead we analyze the delay process using results from queuing theory to approximate the distribution of the net delay on such a “supertrack”. This allows to simulate on a reduced network. Simulating the performance of time-tables becomes faster and can be included in optimization schemes.We compared scheduled and “real” transfer waiting times including delays during the optimization of time-tables. As was to be expected, there is a strong correlation between scheduled and “real” waiting time for time-tables with high waiting times. For time-tables with better scheduled waiting times that appear during the iterative optimization however, the variance of the “real” waiting time increases and time-tables with good scheduled waiting times behave increasingly poor with respect to “real” waiting time.

Ophelia Engelhardt-Funke, Michael Kolonko
Was kann Operations Research für die Verkehrstelematik leisten?

Der Begriff der Verkehrstelematik wird in unterschiedlichem Kontext mit deutlich verschiedenen Bedeutungen unterlegt. Im vorliegenden Beitrag soll unter Verkehrstelematik nicht nur ein Navigationssystem im Auto verstanden werden, und auch nicht nur die Übermittlung von Verkehrsinformationen über Mobilfunk. Das Spektrum für den Sammelbegriff Verkehrstelematik soll hier vielmehr eine ganze Prozesskette umfassen, in der verschiedene Teilbereiche des Verkehrsverhaltens modelliert und zunehmend integriert und durchgängig bearbeitet werden: Ausgehend von der Verkehrserzeugung (wer will wann wohin) mit einer kollektiven Sicht auf den Verkehrsteilnehmer stellt sich in der Verkehrs Verteilung die Frage „mit welchem Verkehrsmittel, wann und auf welchem Weg“. Dynamik gewinnt der Prozess dann mit dem Verkehrsmanagement („wie kann der Verkehr optimal gelenkt werden?“) aus der Sicht eines „Betreibers“ der Verkehrsinfrastruktur und mit den Fragen „wie, wann und auf welchem Weg“ aus der Sicht des einzelnen Verkehrsteilnehmers. Damit schließt sich der Kreis.

Hans Hubschneider
Some Practical Aspects of Periodic Timetabling

We consider the design of periodic timetables for public transportation networks. The used model is a digraph in which temporal restrictions on the arcs relate periodically recurring events. Solution methods are commonly based on an integer programming approach; the number of integer variables equals the cyclomatic number of the digraph.In timetabling, one major question is how to order lines that share a common track. In our paper we show, that in this context we can cut off 2(V) — n! infeasible integer vectors, by adding only polynomially many well-known constraints.Another point of interest is not to construct timetables that pay for short passengers’ waiting times by an exorbitant amount of rolling stock required to perform a timetable. We will show that both routing the rolling stock and periodic timetabling can be modelled within one ILP. Although this leads to a quadratic objective function, we’re able to derive a heuristic permitting good control of the considerable trade-off.

Christian Liebchen, Leon Peeters
Pickup & Delivery-Probleme mit Umlademöglichkeit Ein Tourenplanungsproblem aus der Automobilzulieferindustrie

Grundlage für die Modellierung ist das Pickup & Delivery-Problem. Dieses wird um die Möglichkeit erweitert, zusätzlich bei der Planung von Touren für jedes einzelne Gut die Transportart (Sammelgut, Milkrun) bestimmen zu können. Ein Gut wird als Sammelgut befördert, wenn es zunächst zum Zwischenlager des Spediteurs gebracht wird. Am Zwischenlager findet die Konsolidierung statt, d.h. am Zwischenlager werden einzelne Sendungen für den Weitertransport zu einem Werk zusammengefaßt. Daher muß bei der Beschreibung des Sammelgutverkehrs neben den üblichen Nebenbedingungen noch die zeitliche Reihenfolge von Vor- und Hauptlauf eingehalten werden. Als Milkrun wird ein Gut transportiert, wenn es ohne Umladung auf einer Tour vom Zulieferer zum Werk befördert wird. Zur Lösung des Problems wird ein Spaltenerzeugungsverfahren und ein Lösungsalgorithmus vorgestellt. Die Ergebnisse beruhen auf realen Daten aus der Automobilzulieferindustrie. Die Lösung des Optimierungsproblems besteht somit aus einer Menge von Touren, durch die alle Güter transportiert werden, und aus der Information, ob Güter zwischen Touren umgeladen werden (Sammelgut) oder nicht (Milkrun).

Christopher Mues, Stefan Pickl

Energy and Environment

Frontmatter
Zentrale Datenbasis im Energiehandel

Im Zuge der Liberalisierung der Energiemärkte, insbesondere der Strommärkte, innerhalb der Europäischen Union sahen sich die Vereinigten Elektrizitätswerke Westfalen Energie Aktiengesellschaft (VEW Energie AG) zahlreichen neuen Herausforderungen gegenübergestellt. Die Sicherstellung der Wettbewerbsfähigkeit ist daher zu einem elementaren Unternehmensziel geworden. Die Beschaffungsoptimierung zur Kostenreduzierung umfasst nun nicht mehr nur die Beschaffung von Primärenergien, die in den eigenen Kraftwerken in elektrischen Strom umgewandelt werden, sondern auch die Beschaffung von Strom selbst. Die Möglichkeit des Handels mit Strom führte zu einer großen Vielfalt an neuen Produkten und potenziellen Handelspartnern. Dies alles hatte eine Steigerung der Komplexität des Strommarktes zur Folge. Die VEW Energie AG trug dieser Entwicklung Rechnung, indem sie einen sogenannten Trading Floor einrichtete, dessen Mitarbeiter sich vorwiegend der Aufgabe des Energiehandels widmen. Zu ihrer Unterstützung sollte ein Marktinformationssystem bereitgestellt werden, das allen Mitarbeitern des Handelsbereichs als Datenbank für Marktdaten zur Verfügung steht. Auf Grundlage der Marktdaten können Marktanalysen, statistische Auswertungen und Preisprognosen erstellt werden. Daraus resultiert, dass zu diesem Zweck heterogene Datenformate in der Datenbank zusammen geführt werden müssen, die strukturiert oder unstrukturiert1 aus internen oder externen, z. B. dem World Wide Web (WWW), Quellen stammen.

Carsten Felden, Stefan Florek
Der Einsatz der Clusteranalyse zur Definition von Referenzanlagen

Für die Ableitung und Formulierung von Luftreinhaltestrategien zur Bekämpfung der weitreichenden länderübergreifenden Luftverschmutzung ist eine konsistente Abbildung und Aggregation der technologischen Realität sowie deren technoökonomische Charakterisierung erforderlich. Dabei besteht ein erster Schritt in der Identifizierung der relevanten Emissionsquellen. Insbesondere bei der Schadstoffgruppe flüchtige organische Verbindungen (engl. Volatile Organic Compounds, VOC) ist die technologische Realität durch eine große Anzahl heterogener, teils kleiner Anlagen gekennzeichnet, die sich im einzelnen voneinander durch die eingesetzten Prozesse, die generierten Emissionen, die implementierten Minderungsmaßnahmen und die Emissionsminderungskosten unterscheiden. Die VOC-Problematik besteht darin, dass kleine Anlagen zwar im einzelnen einen geringen Beitrag zu den Gesamtemissionen leisten, jedoch in der Gesamtheit betrachtet keinesfalls vernachlässigbar sind. Im Gegensatz zu SO2-relevanten Emissionsquellen, wie beispielsweise große Feuerungsanlagen, die genehmigungsbedürftig sind, unterliegt die Mehrheit der VOC-relevanten Emissionsquellen nicht der Genehmigungsbedürftigkeit. Daher ist es schwierig, innerhalb der vergleichsweise kurzen Zeit, die für die Erarbeitung von Luftreinhaltestrategien den politischen Entscheidern zur Verfügung steht, jede individuelle Anlage eines Sektors einzeln zu ermitteln.

Sandrine Nunge, Jutta Geldermann, Otto Rentz
MESAP / TIMES — Advanced Decision Support for Energy and Environmental Planning

In view of the requirements for climate and environmental protection and the increased international competition within a deregulated energy market, authorities and energy providers want to improve their competence of strategic planning in order to identify robust decisions for the upcoming threats and opportunities. This paper presents the planning tool MESAP/TIMES which integrates the TIMES optimization model and the MESAP software environment for energy and environmental planning. Questions that may be studied with MESAP/TIMES range e.g. from the planning of a local energy system, over the evaluation of energy technologies on a national scale up to the analysis of carbon permit trading strategies in the international Kyoto protocol discussion.

Uwe Remme, Gary A. Goldstein, Ulrich Schellmann, Christoph Schlenzig
Modellierung und Implementierung von Stammdaten für die Demontageplanung und -steuerung mit ERP-Systemen

Vor dem Hintergrund gestiegener Anforderungen an die Produktverantwortung von Herstellern gewinnen Fragestellungen einer wirtschaftlichen Demontage zunehmend an Bedeutung. Neben der Entwicklung demontagespezifischer Planungssysteme bietet sich grundsätzlich auch die Möglichkeit an, Aufgaben der Demontageplanung und -Steuerung (DPS) mit Enterprise Resource Planning-Systemen (ERP-Systemen) wahrzunehmen. Eine Schlüsselrolle in diesem Zusammenhang spielen Stammdaten als zentrale Daten- und Planungsgrundlage dieser Systeme. Im vorliegenden Beitrag werden daher die demontagespezifischen Anforderungen an Stammdaten für die DPS umrissen. Anhand des ERP-Systems SAP® R/3® wird exemplarisch untersucht, wie diese Anforderungen von ERP-Systemen erfüllt werden können.

Frank Schultmann, Magnus Fröhling, Otto Rentz
Energy/Environmental Modeling with the MARKAL Family of Models

This article presents an overview and a flavour of almost two decades of MARKAL model developments and selected applications. The MARKAL family of models has been contributing to energy/environmental planning since the early J980’s. Under the auspices of the International Energy Agency’s (IEA) Energy Technology Systems Analysis Programme (ETSAP) the model started as a linear programming (LP) application focused strictly on the integrated assessment of energy systems. It was followed by a non-linear programming (NLP) formulation which combines the ‘bottom-up’ technology model with a ‘top-down’ simplified macro-economic model. In recent years, the family was enlarged by members to model material flows, to employ stochastic programming (SP) to address future uncertainties, to model endogenous technology learning using mixed integer programming (MIP) techniques, and to model multiple regions (NLP/LP).

Ad J. Seebregts, Gary A. Goldstein, Koen Smekens

Quantitative Methods in Marketing

Frontmatter
Decision Trees with Parametric Enlarged Local Search

Lately, decision trees became an important tool in marketing research, e.g. to classify potential customers in order to send individual ads to them. In contrast to many other situations here the classification should be done in such a manner that not the inhomogeneity of subsets is minimised but a cost orientated loss function. Unfortunately, split criteria based on cost orientated loss functions have the disadvantage to be too often indifferent between different splits. This is among others due to the local optimality of the split calculations ([1]) and due to the facts that a further improvement of the loss function could be better achieved if the best split in a “class of indifferent or nearly indifferent splits” is chosen. This paper presents a parametric enlargement of the local search for optimal splits using cost orientated loss functions.

Andreas Hilbert, Henning Paul
Acquisition of High-Value Customers for Automotive Banks

Many companies still follow the principle “the more customers the better”. However, the buyers’ contributions to a firm’s profit fluctuate evidently. Therefore, it is reasonable to attract “lucrative” persons. This idea has even been incorporated into a definition of marketing as the “art of attracting and keeping profitable customers” [1]. A powerful tool to assess an account is customer value, which is the sum of a purchaser’s contributions to a company’s well-being [2]. Contributions can be positive (benefits) or negative (costs) and monetary or nonmonetary. Classical evaluations focus on current rather than on prospective accounts, because the prevailing marketing paradigm is the management of customer relations, i.e. it focuses on re-purchase [3]. However, in accordance with Keane and Wang [4] or Shepard [5], we suggest that any evaluation should start with the acquisition, because it is five to seven times as expensive as customer retention [6]. Moreover, a value oriented acquisition brings about two advantages: It empowers a company to spend its limited marketing budget on the “right” prospective purchasers. This will à priori positively bias its customer portfolio.The à priori evaluation enables the firm to segment the market. Each value segment can be addressed according to its supposed contributions to the firm: Low-value purchasers get a standardized treatment, while high-value accounts may enjoy special attention (e.g. face-to-face consultation). Thus, value orientation is the base for the “right” scope of customer orientation.

Stefan Müller, Katja Gelbrich
Quantitative Entscheidungsunterstützung für das Preismanagement von TK-Dienstleistungen

Im wettbewerbsumkämpften Telekommunikationsmarkt stellt für Anbieter von klassischen festnetzbasierten Telefondienstleistungen ein gewinnorientiertes Preismanagement und die zielgruppenspezifische Marktbearbeitung durch attraktive Tarifgestaltung eines der wichtigsten Marketinginstrumente zur Sicherung des langfristigen Markterfolgs dar [9], Dabei müssen alle relevanten Determinanten der Preisbildung im Hinblick auf ihre Gewinnwirkung berücksichtigt werden: Nachfragereaktionen, Kosten- und Konkurrenzaspekte sowie regulatorische Rahmenbedingungen [8]. Zudem erstreckt sich die Preisentscheidung i.a. nicht nur über eine eindimensionale Größe, sondern betrifft eine mehrdimensionale Preisstruktur, die verschiedene Preiskomponenten umfaßt. Mit dem Ziel, modell- und methodenbasierte Entscheidungsunterstützung für die gewinnorientierte Tarifgestaltung von festnetzbasierten TK-Dienstleistungen aus Sicht der Deutschen Telekom (DT) zu leisten, werden im folgenden die wesentlichen Determinanten des TK-Preismanagements diskutiert und Modell- und Lösungsansätze vorgestellt. Die Komplexität der Fragestellung gestattet dabei nur einen kleinen Einblick, der aufgrund des Datengeheimnisses gegenüber der DT stellenweise mehr als Ansatz generischer Natur zu verstehen ist.

Cornelia Schön
The Estimation of Market Volumes

The estimation of market volumes is a crucial point in the business planning process, especially when considering start-up companies. Depending on the industry and/or the type of product and with respect to a product’s position in the life cycle several methods are applicable, starting from common sense based qualitative analysis of consumer behavior up to sophisticated statistical methods. Among them, univariate time series analysis and diffusion models form one group, another consists of expansion procedures. The present paper will give a review of the different approaches, showing which conditions enable the user to apply a certain method and pointing out an algorithm for dealing with biased samples.

Manfred Schwaiger, Matthias Meyer

Production, Logistics and SCM

Frontmatter
Strategies for Capacity Planning in a Complex Production System

We consider a lotsizing problem in a multi-stage production setting with capacity-constrained resources and a general production structure which may change during the planning horizon. Based on an earlier presentation [1], we focus on some novel concepts of capacity planning. We also present computational results for test problems obtained with the most recent version of our planning software.

K. Alicke, T. Hanne, T. Melo
A Simple Queueing Model for the Estimation of Man Machine Interference in Semiconductor Wafer Fabrication

In this paper a simple queueing model to deal with the man machine interference problem in semiconductor manufacturing is developed. The aim is to estimate the cycle time increase at a work center due to the fact that each lot entering a work center brings in not only work for the machines but also for the operators. The complex situation at a work center with forty and more machines brought upon by machine dedication, operator cross training, maintenance schedules etc. is mapped onto a double queue with synchronous arrivals for operators and machines. Modelling all operators as one server and doing alike for all machines requires some basic condition to be fulfilled which is known as resource pooling in queueing literature.

Hermann Gold
Optimal Coordination of Manufacturing and Remanufacturing Decisions in Case of Product Substitution

Due to both economic incentives and legal pressure more and more companies are going to be engaged in the product recovery business which refers to activities for regaining materials and value added of used products. A very important field of product recovery is remanufacturing which refers to those activities that bring used products or major modules back to a condition that remanufactured items are almost or even just as good as new. This is widely found for high-valued industrial products like copiers, computers, vehicle engines, or medical equipment. In many industries original equipment manufactures are active in the remanufacturing business themselves. In this case coordination problems arise.

Karl Inderfurth
Planning Sales Territories — A Facility Location Approach

Planning sales territories may be viewed as the problem of grouping small geographic sales coverage units (e.g. counties, zip code areas, company trading areas) into larger geographic clusters called sales territories in such a way that the latter are acceptable according to managerially relevant criteria (e.g. minimal/maximal/average sales potentials or travel times). In contrast to the currently available set-partitioning oriented models, we propose a facility location approach for planning sales territories. The integer programming formulation we developed for this approach is a discrete capacitated m-median problem with the additional requirement that sales territories have to be connected. As this problem is NP-hard, we devised an efficient, interchange based heuristic procedure for solving large scale problems. The algorithms are embedded in the so-called BusinessManager, a software tool developed by Geomer GmbH, Germany.

Jörg Kalcsics, Teresa Melo, Stefan Nickel, Hartmut Gündra
Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-Modells

Die ganzheitliche Analyse, Planung, Steuerung und Kontrolle Unternehmens-übergreifender Wertschöpfungsprozesse stellt die zentrale Aufgabe des Supply Chain Management dar (vgl. [3], S. 1–2). Im Rahmen der Analyse einer gemeinsamen Bestell- und Produktionspolitik eines Zulieferers und eines Abnehmers entwickelte Banerjee [1] das Joint Economic-Lot-Size Model (JELS-Modell). Banerjee [1] zeigt, dass eine gemeinsame Bestimmung der Bestell-und Produktionspolitik zu einer Minimierung der Summe der entscheidungsrelevanten Kosten führt. Verfügt jedoch einer der Akteure über die Marktmacht, seine individuell optimale Bestell- bzw. Produktionspolitik gegenüber dem anderen durchzusetzen, so besteht für ihn kein Anreiz, von seiner optimalen Politik abzuweichen. Eine gemeinsame Bestell- und Produktionspolitik kann daher nur das Ergebnis von Verhandlungen sein. In diesem Beitrag werden auf Basis des JELS-Modells Verhandlungslösungen zwischen Abnehmer und Zulieferer für den Fall analysiert, dass der Zulieferer nur unvollständig über Ausprägungen relevanter Merkmale des Abnehmers informiert ist.

Eric Sucky

Finance, Banking and Insurance

Frontmatter
Ein bedingtes Mehrfaktorenmodell zur Quantifizierung der Renditen von Bankaktien auf dem deutschen Kapitalmarkt

Das Ziel dieser Studie ist es, die Renditen von Bankaktien auf dem deutschen Kapitalmarkt mit Mehrfaktorenmodellen zu untersuchen. Dazu werden sowohl unbedingte Modelle mit zeitkonstanten als auch bedingte Mehrfaktorenmodelle mit zeitvariablen Betakoeffizienten verwendet. Als Schätzverfahren kommt der klassische OLS-Ansatz sowie die “Generalized Method of Moments” im Rahmen eines Instrumentalvariablenansatzes zum Einsatz. Im Rahmen der Untersuchung finden sich bei beiden Schätzmethoden — für jeweils fünf Modellspezifikationen -Hinweise auf eine Zeitvariabilität der Betakoeffizienten.

Wolfgang Bessler, Heiko Opfer
Optimization of European Double-Barrier Options via Optimal Control of the Black-Scholes-Equation

In comparison to future contracts todays options have advantages and disadvantages. DAX-future contracts, e.g. the EUREX FDAX, have a constant profit/loss per DAX point, whereas the profit/loss per DAX point of common options varies undesirably with the DAX. An advantage of buying options results from the immediate payment of the option premium. There are no further payments during the life of the option. Similarly margin requirements force a FDAX buyer/seller to pay an initial margin plus a safety margin immediately. But in the event of adverse DAX movements the buyer/seller has to meet calls for substantial additional margin and may be forced to liquidate his position prematurely. Optimized European double-barrier options can combine the advantages of futures and options. The option expires if the DAX either hits the upper knock-out barrier DAXmax or the lower knock-out barrier DAXmin or if the option has matured. We present two approaches to optimize the cash settlements at expiration either analytically or numerically.

Michael H. Breitner, Tobias Burmester
How to Incorporate Estimation Risk into Markowitz Optimization

This paper presents a new approach to incorporate estimation risk into mean-variance portfolio selection. The key contribution of our analysis is that we model the estimation risk as a second, independent source of risk. We show that widely used portfolio strategies (naive diversification, global minimum variance investment and classical two-step portfolio optimization) are nested in our model. In the second part of the paper we empirically test these strategies using G7-countries MSCI index return data. Our model leads to substantially superior performance as compared to several benchmark strategies. We find evidence that the estimation risk depends on the inhomogeneity of a market.

Alexander Kempf, Klaus Kreuzberg, Christoph Memmel
Risk-/Return-orientierte Optimierung des Gesamtbank-Portfolios unter Verwendung des Conditional Value at Risk

In einem sich verschärfenden Wettbewerb sind die Banken gezwungen, Rentabilitäts- und Risikomanagement eng miteinander zu verzahnen und die Risi-ko-/Ertrags-Struktur des Gesamtbank-Portfolios zu optimieren. In diesem Beitrag wird ein Überblick über ein Optimierungsmodell gegeben, das den erwarteten Ge-samtbank-Return maximiert und dabei die Verlustrisiken gleichzeitig aus interner und aus aufsichtrechtlicher Sicht begrenzt und dadurch die zur Verfügung stehenden Kapitalressourcen des ökonomischen und des regulatorischen Kapitals bestmöglich nutzt. Die Optimierung basiert auf einem neuen Ansatz der internen Risikomessung mittels des Conditional Value at Risk, der eine integrierte Betrachtung von Marktpreis- und Kreditrisiken erlaubt, ein konvexes Risikomaß darstellt und die Lösbarkeit der betrachteten Portfolio-Optimierungsaufgabe sichert.

Ursula-A. Theiler

Scheduling and Project Planning

Frontmatter
Optimal Properties for Scheduling Deteriorating Jobs for the Total Completion Time Minimization

The paper deals with a problem of scheduling deteriorating jobs on a single machine to minimize the total completion time. Deterioration of a job means that its processing time is a function of its execution start time. We present some optimal properties for three problems, which correspond to three different decreasing linear functions, whose increasing counterparts have been studied in the literature. Based on these properties, two of these problems are solved in O(n log n) time. We present also a comparison between the problems with job processing times being decreasing and increasing linear functions of their start times.

Aleksander Bachman, Adam Janiak, Wieslaw Wajs
Bicriterion Approach to a Single Machine Time-Dependent Scheduling Problem

In the paper a single machine time-dependent scheduling problem with simultaneous minimization of two criteria is considered. Processing time P j of each task is described by a linear function of the starting time t of the task, p j ; = 1 + α j t, where α j > 0 for j = 0, 1, 2,... , n. The criterion of optimality of a schedule is a convex combination of norms ‖·‖i and ‖·‖ in the form of λ‖·‖1+(1 − λ)‖·‖, where λ ∈ [0,1] is an arbitrary real number and ‖ · ‖ p is Hölder’s norm l p , 1 ≤ p ≤ ∞. The main result of the paper is theorem saying that there exist numbers λ1 > λo > 0 such that for all λ ∈ [0, λo] the problem is solvable in O(n log n) time and for all λ ∈ [λ1, 1] the optimal schedule for the problem has V-shape.

Stanisław Gawiejnowicz, Wiesław Kurc, Lidia Pankowska
Multi-machine Scheduling Problem with Optimal Due Interval Assignment Subject to Generalized sum Type Criterion

In this paper, we consider a multi-machine scheduling problem, in which to each job a due interval should be assigned. In the scientific literature of scheduling theory, only an assignment of due date was considered. However in our case, to each job a due interval should be assigned. Due interval is a generalization of classical due date and describes a time interval, in which a job should be finished. For the considered problem, we should find a schedule of jobs and a common due interval such that the sum of: the total tardiness, the total earliness and due interval parameters is minimized. We proved an ordinary NP-completeness of the problem using the well known NP-complete partition problem. A heuristic algorithm solving the problem with its experimental analysis is also presented.

Adam Janiak, Marcin Marek
Storage Problems in Batch Scheduling

This paper is concerned with the modelling of storage configurations for intermediate products in process industries. Those models form the basis of algorithms for scheduling chemical production plants. Different storage capacity settings (unlimited, finite, and no intermediate storage), storage homogeneity settings (dedicated and shared storage), and storage time settings (unlimited, finite, and no wait) are considered. We discuss a classification of storage constraints in batch scheduling and show how those constraints can be integrated into a general production scheduling model that is based on the concept of cumulative resources.

Christoph Schwindt, Norbert Trautmann

OR in the Health Service

Frontmatter
Eine Entscheidung auf Leben und Tod: Decision Support für AIDS-Kontroll-Programme in Ostafrika

Die erworbene Immunschwächekrankheit AIDS (Acquired Immune Deficiency Syndrome) stellt die größte Bedrohung der Gesundheit der Bevölkerung Ostafrikas dar. In manchen Regionen ist diese Krankheit bereits die Haupttodesursache, in vielen Krankenhäusern überfordert die Behandlung der AIDS-Patienten längst die knappen Ressourcen. Die Gesundheitspolitik muss diese Veränderungen antizipieren und entsprechend rechtzeitig planen. Hierzu sind möglichst verlässliche Prognosedaten unentbehrlich. Aus diesem Grunde wurde ein System Dynamics Model der AIDS-Ausbreitung entwickelt und mögliche Interventionsstrategien wurden bewertet.

Steffen Fleßa
Facilities Layout for Social Institutions

Whenever a social institution plans new buildings or a modification of buildings (e.g. a hospital or a nursing home) the question arises how to arrange the rooms and functional units. One criterion is certainly the total walking distance of staff members, patients/clients and visitors.Most of the existing approaches to the facilities layout problem either assume only one objective or they deal with several criteria but end up with only a single solution. Our approach focuses on determining Pareto-solutions which are presented to the decision makers. On that basis, it is possible to make a sound decision about the arrangement — by potentially incorporating those implicit criteria, which exist but have not been formulated before.Furthermore, input data is most often assumed to be completely known which is in general not true. We show how uncertainty could be taken into account such that finally a robust solution is attained.

Horst W. Hamacher, Stefan Nickel, Dagmar Tenfelde-Podehl

Continuous Optimization

Frontmatter
Slice Models in GAMS

We show how to implement the cross-validation technique used in machine learning as a slice model. We describe the formulation in terms of support vector machines and extend the GAMS/DEA interface to allow for efficient solutions of linear, mixed integer and simple quadratic slice models under GAMS.

Michael C. Ferris, Meta M. Voelker
On Optimal Control of Heating Processes

This paper is concerned with investigating the nonlinear time-discrete TEM model for environmental protection within the heating problem of global warming.As the model’s steady states are not attractive, the necessary introduction of control parameters into the TEM model’s dynamics leads to new results. These give new insights for a Joint-Implementation Program and, herewith, they may improve this important economic tool. The steady states of the TEM model can be considered as limiting values mentioned in Kyoto Protocol.In a second step, we regard the determined control parameters as candidates for influencing heating of the earth atmosphere (greenhouse effect). We consider the earth as a ball and look for an optimal control such that the temperature in the stratosphere remains within lower and upper bounds. Here, we utilize scientific experience from [KRABS 1987] and [KAPLAN, TICHATSCHKE 1997] and from the authors on time-minimal control of heating by generalized semi-infinite optimization theory. We present a iteration procedure and first numerical results.

Stefan W. Pickl, Gerhard-W. Weber
On the Relations Between Different Dual Problems in Convex Mathematical Programming

Using the Fenchel-Rockafellar approach for the convex mathematical programming problem with inequality constraints different dual optimization problems by means of distinct perturbations of the primal problem are derived and studied. The classical Lagrange dual problem is one of those dual problems obtained by the perturbation of the right hand side of the inequality constraints. For the various dual problems equality/inequality relations between the optimum values are verified under appropriate assumptions. Moreover, the duality relations to the primal problem are considered, in particular strong duality. Using the dual problems some optimality conditions are established.The results are illustrated by some examples.The application and usefulness for the construction of general multiobjective dual problems to the general multiobjective convex optimization problem is mentioned.

Gert Wanka, Radu-Ioan Boţ

Discrete and Combinatorial Optimization

Frontmatter
Total Weighted Completion Time Minimization in a Problem of Scheduling Deteriorating Jobs

The paper deals with a single machine scheduling problem with start time dependent job processing times. The problem is to find a schedule for which the total weighted completion time is minimized. It is proved that the problem is ordinary NP-hard, if the processing time of one additional job is given by decreasing linear function dependent on its start time. Based on the optimal properties found for some special cases of the general problem, three heuristic algorithms have been constructed and experimentally compared.

Aleksander Bachman, Adam Janiak
Sensitive Analysis of a Vector Quadratic Lexicographic Boolean Programming Problem

The problem of lexicographic optimization is considered. We study several types of stability understood as preservation of certain invariance by the efficient solution set under “small” changes of input data. Borders of such changes are ascertain. Necessary and sufficient conditions of stability are specified.

Yury Nikulin
Some Relations Between Consecutive Ones and Betweenness Polytopes

Both the consecutive ones and the betweenness problem deal with the ordering of objects such that certain conditions are satisfied. In the first case certain associated matrices have to have the consecutive ones property and in the second case a set of betweenness conditions has to be satisfied. In this paper we point out some relations between these problems, in particular, some relations between facets of associated polytopes.

Marcus Oswald, Gerhard Reinelt
Solving One-Dimensional Cutting Stock Problems with Multiple Stock Material Lengths Using Cutting Plane Approach

For exactly solving the one-dimensional cutting stock problem (CSP) with several stock material lengths, a cutting plane approach (CPA) is proposed. This work is a continuation of [12] where firstly column generation technique and CPA have been combined for the CSP with identical stock material pieces. In order to ensure efficient implementation of the generation problems in case of no and of additional cutting planes, some modifications of known methods have been performed. The efficiency of the algorithm is demonstrated by extensive numerical results.

Guntram Scheithauer, Gleb Belov
Computational Problems that can be Solved Without Computation

The paper discusses various optimization problems that look fairly difficult at first sight, but in fact are trivial to solve. Here the word ‘trivial’ means that there exist primitive computer programs for these problems whose behavior hardly depends on the input data.Among the discussed problems are: Minimizing the failure probability in a cyclic double-loop system; the travelling salesman problem under specially structured distances; the arrangement of data records in a linear storage array so as to minimize the average access time; balancing the blades of a turbine wheel.

Gerhard J. Woeginger

Stochastic Optimization and Simulation

Frontmatter
Partitions-requirements-matrices

Partitions-requirements-matrices (P-R-Ms) are Markov kernels of certain stochastic dynamic programming problems with distance properties (see [5], [7] and [9]). They express optimal decisions or are used as approximate optimal kernels. P-R-Ms have an interesting mathematical structure. For the time being no representation of the elements by a formula is known. (P-R-Ms are computed by means of enumeration.) Beside other things formulas for limits of P-R-Ms in the cases of “sparse” partitions and “non-curtailed heavy” partitions are given. Further on “kernel-equations” with P-R-Ms are considered. A monotonicity of their solutions (that includes an optimality criterion) is shown in certain cases. The solutions with regard to limits of P-R-Ms have a nice structure in contrast to the formulas of the limits of P-R-Ms.

Regina Hildenbrandt
On-Line Simulation of Large Scale Networks

In this contribution a micro-simulator for freeway traffic in large scale networks is presented. Based on a cellular automaton traffic flow model the simulation, which is coupled with measured data from induction loops etc., can provide network-wide information about the current traffic state. The simulation of the whole network is performed in multiple real-time. The framework is applied to the freeway network of North Rhine-Westphalia (NRW), where traffic data from about 3,500 inductive loops are available and provided on-line minute by minute. Technical aspects of the simulation, e.g., the network structure and the incorporation of the on-line data, are illustrated. This is followed by a discussion of the efficiency of the simulator. Furthermore, the results of the on-line simulation, i.e., daily traffic demands and the traffic state of NRW are given.

Andreas Pottmeier, Roland Chrobok, Joachim Wahle, Michael Schreckenberg

Econometrics, Statistics and Mathematical Economics

Frontmatter
Process-Identification and Optimization of Technical Investments with TEMΠ Bubbles, Quelros and Environmental Management

The economic analysis of technical investments with the aid of time-discrete dynamical systems and game-theoretical methods can lead to new insights in the area of climate-protection activities and resource-management. Many models in the area of environmental management concentrate themselves either on technical or on economical aspects. There is a lack of dynamical models, which consider both. The TEMΠ approach simulates the technical-economical relationships within joint operations (so called Bubbles) and their influence on quantified CO 2 -reduction programs (QUELROS — Quantified Emissions Limitation and Reduction Objectives). Several trend scenarios are compared and analyzed. The TEMΠ tool will be presented, and related theoretical results as well, which exploit the discrete combinatorial structures determining the trajectories of such a time-discrete system.

Stefan Pickl
Economic Growth, Emission Reduction and the Choice of Energy Technology in a Dynamic-Game Framework

To assess options in energy policy, the relationship between energy technology, economic output and emissions is analyzed in a dynamic-game framework which describes the interaction between players aiming at economic output and emission reduction. The players allocate investment to various energy technologies, differing in costs, economic output and emissions per energy unit. Control variables for each player are the amount of investment and its allocation. Game-theoretic analysis is used to discuss conditions under which players would change behavior and select energy technologies to pursue their objectives more cooperatively. Policy instruments are compared with regard to the different energy paths and the compatibility of economic and environmental objectives.

Jürgen Scheffran
Measuring Credit Risk: Can we Benefit from Sequential Nonparametric Control?

Financial risk measures have to rely on both empirical data and econometric methods to be economically relevant and statistically meaningful. When concerned with credit risk data, credit risk measures are computed and analyzed based on data as spreads, interest rates, ratings, account movements, etc. At least a part of this information, in particular spreads, are available as a sequential stream of data. Consequently, sequential methods to control for credit risk are useful, since they enable a risk manager to react immediately after risk measures have changed significantly.In this article we briefly review some established approaches to analyze credit risk and explain how nonparametric sequential change-point procedures can be applied to detect credit risk changes as soon as possible. From a practical point of view the method proposed here is attractive, because it is easy to handle if appropriate risk measures are available. Essentially, it is based on a weighted average of past observations. In order to evaluate the quality of such a decision rule, it is reasonable to analyze how the delay of the procedure behaves asymptotically, if the number of observations increases. We report about a mathematical result of the author which analyzes the asymptotic delay for a completely arbitrary local pattern defining the structural change of the mean of the risk process underlying the detection procedure. It is demonstrated how the result can be applied to optimize the procedure when certain a priori knowledge about the structural change is available. We analyze a real data set of credit spreads. It turns out that the empirical findings concerning the choice of the kernel are in perfect agreement with the implications of the theory.

Ansgar Steland

Decision Theory

Frontmatter
Die rationale Marketing-Mix Entscheidung bei vager Kenntnis einzelner Instrumentwirkungen

In dieser Arbeit wird ein quantitativer Zugang zur Wirkungsprognose eines Marketing-Mix mittels probabilistischer Konditionallogik vorgestellt. Als Regeln formuliertes vages, d.h. mit Unsicherheit behaftetes Teilwissen über die Absatzwirkung einzelner oder einiger weniger Instrumenteneinsätze bildet die Wissensbasis, welche nach einem Lernprozeß informationstreu eine gemeinsame Verteilung über alle Modellvariable bereitstellt und somit künstlich die vollständige Risikosituation als Grundlage der rationalen Entscheidungsfindung schafft. Nun fuhren Anfragen an die Wissensbasis zu Prognosen über die Wirkung eines ganzen Maßnahmen-Bündels. Die hier in der probabilistischen Expertensystemsheil Spirit aufgebaute Wissensbasis besteht aus 20 Variablen und 143 Regeln. Zwei Szenarien führen die Identifikation von Synergie- beziehungsweise Kompensationseffekten sowie die Ableitung des zieladäquaten Instrumenteneinsatzes mit Hilfe von Spirit vor.

André Ahuja, Quirin Spreiter, Wilhelm Rödder
Investitionsentscheidungen bei mehrfachen Zielsetzungen und künstliche Ameisen

Die Auswahl des attraktivsten Portfolios von Investitionsprojekten zählt zu den kritischen Managementaufgaben. Angesichts mehrfacher Zielsetzungen und komplexer Projektabhängigkeiten bietet sich dazu ein zweistufiges Vorgehen an, das zunächst effiziente Portfolios identifiziert und den Entscheidungsträger anschließend bei der Suche in diesem Lösungsraum unterstützt. Bei einer großen Zahl an Vorschlägen können die möglichen Projektkombinationen aber nicht mehr in akzeptabler Zeit vollständig enumeriert werden. Adaptierte Meta-Heuristiken bieten hier einen Kompromiß zwischen dem Wunsch nach exakter Bestimmung aller Pareto-optimalen Investitionsprogramme und dem dazu nötigen Rechenaufwand. Dieser Beitrag beschreibt den entsprechenden Einsatz künstlicher Ameisen und diskutiert erste numerische Ergebnisse.

Karl Doerner, Walter J. Gutjahr, Richard F. Hartl, Christine Strauss, Christian Stummer
Experience-Based Decision Making and Learning from Examples

We introduce a decision model which takes practically relevant aspects such as limited information and bounded computation time into account. This model, called satisficing decision trees, combines the ideas of experience-based decision making and compiled decision models. In experience-based decision making, the decision maker’s information consists of experiences in the form of decision problems encountered in the past. Compiled decision models skip the estimation of a utility function and prescribe an action for each problem directly. The combination of these two ideas yields a practically useful decision model which appears to be particularly interesting for real-time decision making.

Eyke Hüllermeier
Vektoroptimierung bei korrelierten Zielen

Ansätze der Vektoroptimierung zur Lösung von Entscheidungsproblemen bei mehrfacher Zielsetzung — wie etwa die Zielgewichtung oder das Goal Programming — unterstellen in der Regel mehrere unabhängige Ziele. Häufig bestehen zwischen Zielen jedoch Abhängigkeiten, die nicht im Prozess der Entscheidungsfindung berücksichtigt werden. Wie Abhängigkeiten zwischen korrelierten, aber nicht redundanten Zielen auf Grundlage einer nichtadditiven Gewichtung in ein Kompromissmodell einfließen können, ist Gegenstand dieses Beitrags. Durch die Berücksichtigung von zusätzlichen Interaktionsgewichten, d.h. durch eine nichtadditive Gewichtung, lässt sich eine kompromissoptimale Lösung auf Basis eines Choquet Integrals ermitteln. Die Formulierung des entsprechenden Kompromissmodells als gemischt ganzzahliges Programms verdeutlicht, dass dieser Ansatz für zahlreiche betriebswirtschaftliche Anwendungen — wie etwa für eine Investitionsprogrammplanung mit konfliktären Zielen — unmittelbar anwendbar ist.

Andreas Kleine
Relevanz von Information in konditionalen Entscheidungsmodellen

Die Lösung von Entscheidungsproblemen unter unvollständiger Information ist aufgrund der praktischen Relevanz ein in der Literatur oft diskutierter Forschungsgegenstand. Dem Informationsbeschaffungsprozeß, der den Handlungsentscheidungen zeitlich vorgelagert ist, kommt dabei eine äußerst wichtige Bedeutung zu. Ziel ist es hierbei, unvollständiges Wissen durch Zusatzinformation weiter zu verdichten, um somit Entscheidungssituationen verbessern zu können. Aufgrund zeitlicher und finanzieller Restriktionen ist man dabei jedoch gezwungen, eine effiziente Auswahl aus einer Menge verfügbarer Informationsangebote zu treffen. Basierend auf der entropieoptimalen Verarbeitung unvollständigen Wissens wird in diesem Beitrag ein Bewertungskriterium für alternative Informationsangebote mit dem Ziel der Reduktion verbleibender Ungewißheit hinsichtlich des Erwartungsnutzens vorgestellt. Anhand eines abschließenden Beispiels, das unter Anwendung der Expertensystem-Shell SPIRIT verarbeitet wird, findet das entwickelte Bewertungskonzept seine praktische Anwendung.

Elmar Reucher, Wilhelm Rödder

Artificial Intelligence and Fuzzy Logic

Frontmatter
Bestimmung der Gewichte bei Mehrzielentscheidungen. Eine vergleichende Analyse ausgewählter Verfahren

Sowohl in der betrieblichen Praxis als auch bei privaten Entscheidungen hat man es zumeist mit Problemen zu tun, die sich wegen ihrer Komplexität nur durch eine Vielzahl unterschiedlichster Kriterien in ihrer ökonomischen Bedeutung voll erfassen lassen. Um dem Wunsch der Praktiker nach realistischeren und anwendbaren Entscheidungsunterstützungsmethoden zu entsprechen und die beschränkte Informationsverarbeitungskapazität bzw. die eingeschränkte Rationalität eines Entscheiders zu berücksichtigen, wird häufig vorgeschlagen, bei Vorliegen sehr vieler Ziele diese in einem hierarchisch aufgebauten Zielsystem zu strukturieren.

Susanne Eickemeier
Wissen ist meßbar

Der Abgleich von a priori-Wissen auf neue relevante Sachverhalte und die Verwendung des so erworbenen Wissens zur Beantwortung einer Anfrage sind das zentrale Thema dieses Aufsatzes. Hierbei wird der gesamte Wissensverarbeitungsprozeß in einem probabilistischen Modell konditionaler Struktur informationstreu umgesetzt. Er ist meßbar: Wissen(sumfänge), Schlußstärken und Relevanz sind ebenso quantifizierbar wie die verbleibende Unsicherheit in erlernten Zusammenhängen und die Ungewißheit über die Korrektheit gegebener Antworten. Die Expertensystemshell SPIRIT unterstützt diese Form der Wissensverarbeitung.

Wilhelm Rödder
Constraint Satisfaction by Means of Dynamic Polyhedra

Nowadays, many real problems in the Artificial Intelligence environments, can be efficiently modelled as Constraint Satisfaction Problems (CSP’s) and can be solved by means of Operational Research techniques. It is well known that any non-binary CSP can be transformed into an equivalent binary one, using some of the current techniques. However, this transformation may not be practical in problems with certain properties. Therefore, it is necessary to manage these non-binary constraints directly. In this paper, we propose an algorithm called “HSA≠” that solves non-binary constraint satisfaction problems in a natural way as an incremental and non-binary CSP solver. This non-binary CSP solver carries out the search through a polyhedron that maintains in its vertices those solutions that satisfy all non-binary constraints.

Miguel A. Salido, Adriana Giret, Federico Barber
Multi-Agent FX-Market Modeling by Neural Networks

A market is basically driven by a superposition of agents decisions. The price dynamic results of the excess demand / supply created on the micro level. The behavior of a few agents is well understood by game theory. In case of a large number of agents one may refer to the assumption of an atomic market structure, which allows the aggregation of agents by statistics. We can omit the latter assumption, if we model the market by a multi-agent approach.This paper deals with the explicit and implicit dynamics of the market price, and their implementation into neural networks. Neural networks allow the fitting of high dimensional nonlinear models, which is often utilized in econometrics. Furthermore, there is a close relationship to economics because a neuron can be interpreted as a decision making model. Thus, a neural network models the interaction of many decisions and, hence, can be interpreted as a market mechanism.

H.-G. Zimmermann, R. Grothmann, R. Neuneier

Informations and Decision Support Systems / OR in Internet

Frontmatter
Zeitoptimierte Assoziationsanalyse durch Stichprobenauswahl dargestellt am Beispiel aus der Telekommunikationsbranche

Der vorliegende Artikel zeigt die Anwendbarkeit der Stichprobentheorie zur schnelleren Berechnung von Assoziationsregeln in großen Datenbeständen. Assoziationsregeln beschreiben Zusammenhänge zwischen Attributwerten von Datensätzen einer Datei. Statt diese Regeln durch Analyse des gesamten Datenbestandes zu generieren reicht es aus, eine Stichprobe aus diesem Datenbestand zu analysieren und die hier erhaltenen Maßzahlen für die Regeln als Schätzer für die im Datenbestand tatsächlich vorliegenden Maßzahlen anzusehen. Es werden Formeln angegeben, mit denen Stichprobengrößen bestimmt werden können, so dass die in der Stichprobe gefundenen Maßzahlen der Regeln hinreichend genau die tatsächlich vorliegenden Maßzahlen der Regeln darstellen. Durch dieses Vorgehen lässt sich die Gesamtdauer des zugehörigen Prozesses des „Knowledge Discovery in Databases “ erheblich verringern. Dazu werden die Ergebnisse einiger Tests angegeben. Die praktische Anwendbarkeit dieses Ansatzes der Assoziationsanalyse wird durch eine Analyse von Telekommunikationsdaten zur Ermittlung von Fehlroutings sowie Bündelver-tauschungen dargestellt.

Frank Beekmann, Andreas Rudolph
A Metaheuristic-based DSS for Portfolio Optimization

In this paper we present a framework, i.e. a concept and design as well as results with a prototypical implementation of a metaheuristic-based decision support system PM-DSS© for portfolio optimization and managing investment guidelines. PM- DSS© can be used for active as well as passive fund management.

Ulrich Derigs, Nils-H. Nickel

Didactics of OR / Public Understanding

Frontmatter
Kritische Erfolgsfaktoren für die Erstellung universitärer Multimediakurse — mit einem Beispiel aus dem Bereich des OR —

Die Ziele des Einsatzes multimedialer Lehre an Hochschulen sind erweiterte Möglichkeiten beim Transport abstrakter Inhalte, Zukunftsorientierung, langfristige Personalkostensenkung in der Kursberatung sowie die Antizipation möglicher Umstrukturierungen in der Hochschullandschaft. Damit verbietet sich eine strikte Orientierung an Multimediaprodukten für den industriellen Einsatz und deren Erstellungsprozessen. Vielmehr sind die kritischen Erfolgsfaktoren für die Erstellung universitärer Multimediakurse zum einen die Anwendung von Pro-jektmanagement, und hier insbesondere die Aufstellung des relevanten Zielsystems, welches hier auch als verbales Optimierungsmodell angegeben wird, die Zeitplanung sowie die geeignete Personalwahl, und zum anderen die geeignete Wahl der technischen Plattform, des Front-Ends sowie der einzusetzenden Medien. Gerade die Wahl der einzusetzenden Medien ist entscheidend für an Studierende der Wirtschaftswissenschaften gerichtete Inhalte des Operations Research. Weiter lassen sich wichtige Hinweise zwecks Projektrisikoverkleinerung aussprechen.Jene kritischen Erfolgsfaktoren dienen als Maßstab zur Beurteilung der Durchfuhrungsqualität eines Multimedia-Projekts des Lehrstuhls für Operations Research der FernUniversität in Hagen.

André Ahuja, Wilhelm Rödder
Integration von OR-Modellen in die Logistikausbildung: Bearbeitung von Fallbeispielen mit einem Softwarepaket für Studenten

Operations Research (OR) ist eine anwendungsorientierte Wissenschaftsdisziplin. OR ist auf die Verbesserung von Managemententscheidungen gerichtet und gehört deshalb in den betriebswirtschaftlichen Studienrichtungen zum Pflichtprogramm. Dennoch haben die akademisch gebildeten Betriebswirte in der Praxis oft große Schwierigkeiten, das Gelernte anzuwenden. Die Fähigkeit, mit modellbasierten Methoden neuartige und nicht vorstrukturierte Realprobleme zu bearbeiten, ist meist nicht ausgeprägt. Diese Fähigkeit muss durch Training erworben werden. Ein Ansatz in dieser Richtung ist die Integration modellbasierter Übungen mit realitätsnahen Fallbeispielen in die Fachausbildung. Für die Bearbeitung dieser Problemstellungen wurde, angelehnt an professionelle Entscheidungsunterstützungssysteme (EUS), ein Lehrsoftwarepaket entwickelt.

Dieter Feige
A Survey of Educational Resources on the Internet

Today the Internet is a rich source of information on almost every topic. Unfortunately when looking for information on a specific topic the relevant documents are often hard to find because for most documents in the Internet there is not enough standardized classifying metadata available which would provide a possibility to index and query the information in a systematic way. Therefore in this article a survey of Internet resources is given especially about teaching materials for operations research. The selected web sites are classified into information portals, content providers, and application providers.

Ralph Scheubrein
Internet-based Exercises and Mini-exams for Production and Operations Management

The purpose of the internet-based teachware mySCM is that students of economics, informatics and industrial engineering get familiar with quantitative methods for supply chain management. Input-output-relationships of various optimization methods can be detected by sampling input values, parameters, and alternative methods for the same problem. Students can gain extra benefits by passing so-called mini-exams that motivate active learning. mySCM can be used for free, round-the-clock, and any place where access to the Internet is available.

Norbert Trautmann

GOR Diploma Prize

Frontmatter
Mathematische Optimierung zur Unterstützung kundenorientierter Disposition im Schienenverkehr

Der vorliegende Beitrag befaßt sich mit der Konzeption und Implementierung eines mathematischen Modells, das die Dispositionsaufgabe im fahrplangebundenen Schienenverkehr beschreibt. Im Rahmen der Arbeit werden Methoden der exakten mathematischen Optimierung auf unterschiedlich komplexe Instanzen des Dispositionsproblems angewandt, um zu im Sinne der Kundenorientierung optimalen Lösungen zu gelangen. Das Ergebnis der Optimierung ist keine einzelne Entscheidungsempfehlung, sondern ein Dispositionsplan für einen kompletten Entscheidungszeitraum. Ein weiterer Aspekt der Untersuchung ist die Frage nach der Anwendbarkeit der mathematischen Optimierung bei der Unterstützung des Disponenten im täglichen Bahnbetrieb. Außerdem kann das Optimierungssystem die Entscheidungen im Schulungsbetrieb bewerten sowie die Qualität von Heuristiken beurteilen. Durchgeführte Experimente zur Verifikation des Modells basieren auf realen Fahrplan- und Topologiedaten der Deutschen Bahn AG.

Natalia Kliewer

GOR Dissertation Prize

Frontmatter
Anlagenbelegungsplanung in der Prozeßindustrie

Bei der Anlagenbelegungsplanung in der Prozeßindustrie muß eine im Vergleich zur Situation in der Fertigungsindustrie erheblich schwierigere Optimierungsaufgabe gelöst werden. Restriktionen wie Mindestbestände und begrenzte Kapazitäten von Lagern für Zwischenprodukte, reihenfolgeabhängige Um-rüstzeiten von Apparaten, Nachliege- und Verfallszeiten, variable Chargengrößen oder zyklische Materialflüsse bestimmen die Komplexität des Problems. Wir stellen einen Dekompositionsansatz zur Optimierung der Chargenproduktion auf Mehrzweckanlagen vor, der eine Belegungsplanung mit Hilfe von Modellen und Methoden zur ressourcenbeschränkten Projektplanung sowie Standardsoftware zur nichtlinearen Optimierung ermöglicht. Die in einer experimentellen Performanceanalyse nachgewiesene Planungsqualität bei kurzer Rechenzeit erlaubt die Einbindung der Modelle und Methoden in Advanced-Planning-Systeme zum Supply Chain Management wie SAP APO.

Norbert Trautmann
Backmatter
Title
Operations Research Proceedings 2001
Editors
Professor Dr. Peter Chamoni
Professor Dr. Rainer Leisten
Professor Dr. Alexander Martin
Dr. Joachim Minnemann
Professor Dr. Hartmut Stadtler
Copyright Year
2002
Publisher
Springer Berlin Heidelberg
Electronic ISBN
978-3-642-50282-8
Print ISBN
978-3-540-43344-6
DOI
https://doi.org/10.1007/978-3-642-50282-8

PDF files of this book are not accessible. They are based on scanned pages and do not support features such as screen reader compatibility or described non-text content (images, graphs etc). However, they likely support searchable and selectable text based on OCR (Optical Character Recognition). Users with accessibility needs may not be able to use this content effectively. Please contact us at accessibilitysupport@springernature.com if you require assistance or an alternative format.