Skip to main content

1993 | Buch

Informationswirtschaft

Aktuelle Entwicklungen und Perspektiven. Symposion, Wien, 29./30. September 1993

herausgegeben von: Mag. Dr. Walter Frisch, Mag. Dr. Alfred Taudes

Verlag: Physica-Verlag HD

insite
SUCHEN

Über dieses Buch

Der Produktionsfaktor "Information" nimmt kontinuierlich an Bedeutung zu. Daneben werden heute EDV-technische Probleme ohne große Schwierigkeiten gelöst. Es tritt jetzt die Beschäftigung mit der Bewirtschaftung von Information als "Informationswirtschaft" in den Blickpunkt des Interesses von Praxis und Forschung im Überschneidungsbereich Wirtschaftswissenschaften und Informatik. Dabei geht es um Antworten auf die Frage: "Welche Daten sollen in welcher Form zu welchem Zeitpunkt zur Verfügung gestellt werden, um Probleme und anstehende Entscheidungen möglichst wirtschaftlich zu unterstützen?" Der Übergang zu dieser Fragestellung kennzeichnet die veränderte Folle der Informatik und den Übergang von der Datenverarbeitung zur Informationswirtschaft. Dies sind Entwicklungen, denen sich weltweit Lehrer, Forscher und Praktiker nicht entziehen können. Die 31 Autoren aus 11 Universitäten gehen in ihren Beiträgen auf die veränderte Rolle der Informatik in der Wirtschaft ein. Sie beschreiben die aktuellen Entwicklungen und Perspektiven ihrer Fachbereiche in den Sektionen: Informationsbeschaffung, Informationsmanagement und -organisation sowie Informationsverwertung.

Inhaltsverzeichnis

Frontmatter

Einführungsvorträge

Frontmatter
Informationsmessung und Beziehungen zur Messung von Streuung, Risiko, Entropie, Konzentration und Ungleichheit
Zusammenfassung
Manfred Nermuth (1982), (1988) hat wohl als erster bei den meisten der im folgenden angesprochenen Probleme der Messung eine gemeinsame Grundstruktur erkannt. Eine solche Grundstruktur findet man beispielsweise bei der Messung der
  • Streuung (Beispiele: Diversifikation in der Biologie, Verteilung der Meßergebnisse bei Experimenten),
  • Risiko (Beispiel: Vergleich von Lotterien),
  • Information (Beispiel: Vergleich und Wert von Informationsstrukturen),
  • Entropie (Beispiel: Shannon-Entropie),
  • Konzentration (Beispiel: Vergleich der Umsätze der Unternehmen eines Marktes),
  • Ungleichheit (Beispiel: Einkommensverteilung).
Wolfgang Eichhorn, Manfred Krtscha
Kommunikation und Kooperation — Die Brücke zwischen Informationswirtschaft und Wissenschaft
Zusammenfassung
“Unsere wirtschaftliche Zukunft ist von der Qualität der Zusammenarbeit zwischen Forschung und Wirtschaft in großem Maße abhängig”. So und ähnlich tönt es seit eh und je in mahnenden Erklärungen wichtiger Persönlichkeiten, wenn es darum geht eine gute Zukunft für unser Land zu beschwören. Dieses Beispiel stammt vom früheren Minister und ausübenden Wissenschaftler Prof. Tupy aus dem Jahre 1988.
Peter Kotauczek
Die veränderte Rolle der Informatik in der Wirtschaft
Abstract
Der nachfolgende Text geht auf die veränderte Rolle der Informatik in der Wirtschaft ein. Dies betrifft u. a. die Beobachtung, daß sich die EDV, von einzelnen Insellösungen, zu einer breiten Durchgängigkeit entwickelt. Dies hat große Veränderungen unterschiedlicher Art zur Folge. Im Hinblick auf die Internationalisierung beinhaltet das die weitgehende Verfügbarkeit von Information bei immer geringeren Schnittstellenproblemen. Im Bereich der Wirtschaft ergeben sich erhebliche Veränderungen hinsichtlich der Wertschöpfungskette. In bezug auf die Arbeit resultieren hieraus ganz neue Formen, wobei diese Entwicklung mit einer Vielzahl von Vor- und Nachteilen verbunden ist. Im Sinne eines globalen Trends kommt dieser Prozeß auf Personen wie Unternehmen fast unausweichlich und mit immer höherem Gewicht zu. Unter diesem Aspekt stellen sich auch Fragen der Investition in die Informationsverarbeitung und deren Bewertung in veränderter Form dar.
Franz Josef Radermacher

Informationsbeschaffung

Frontmatter
Die Architektur- und Werteinstellungsproblematik der Parameter Neuronaler Netze
Zusammenfassung
Seit Ende der achtziger Jahre werden Neuronale Netze verstärkt zur Lösung ökonomischer Probleme eingesetzt. Der vorhegende Überblick diskutiert den Charakter der Parameter in der Architektur und der Werteinstellung Neuronaler Netze und gibt einen Überblick über bereits bestehende Verfahren zur günstigen Voreinstellung und Konfigurierung.
Walter Frisch
Zur Beschleunigung des Lernens genetischer Algorithmen mittels unscharfer Regelsprachen
Zusammenfassung
Unscharfe Classifiersysteme sind evolutionsgesteuerte Ma-schinenlernsysteme, die eine unscharfe Regelbasis, einen genetischen Algorithmus und eine Bewertungsfunktion integrieren. In diesem Beitrag wird gezeigt, daß die Rechenkomplexität eines Classifiersystems durch die syntaktische Struktur der vom Produktionsregelinterpreter verwendeten formalen Sprache L bestimmt wird. Von besonderem Interesse ist dabei, die Rechenkomplexität eines unscharfen Classifiersystems mit der entsprechenden Version eines klassischen Classifiersystems zu vergleichen. Mittels eines solchen Vergleichs kann dann gezeigt werden, daß unscharfe Classifiersysteme theoretisch einen unendlichen Speed-Up im Vergleich zu klassischen Classifiersystemen Hefern. Sogar praktische Rechnerimplementierungen unscharfer Classifiersysteme, die ja unscharfe Classifiersysteme nur approximieren, lernen beträchtlich schneller als klassische Classifiersysteme.
Andreas Geyer-Schulz
Computergestützte Informationsgewinnungsentscheidungen
Zusammenfassung
Der Informationsbegriff ist einer der schillerndsten Begriffe, die in der Betriebswirtschaftslehre und Wirtschaftsinformatik verwendet werden. Sein aktueller plakativer Gebrauch — “Information als neuer Produktionsfaktor”, “Information als strategische Waffe” — ist wissenschaftlich unbefriedigend. Als theoretisch fundiert dürfte dagegen die aus der Entscheidungslehre stammende Definition anzusehen sein, Information sei zweckorientiertes Wissen1. Aber auch diese traditionsreiche Terminologie befindet sich im Wandel. In neueren Veröffentlichungen wird vorgeschlagen, Wissen als Bestandsgröße und Information als Bewegungsgröße aufzufassen. Bei einer derartigen auch in anderen wirtschaftswissenschaftlichen Bereichen2 üblichen “Stock-and-Flow-Betrachtung” ist Information als zusätzliches zweckorientiertes Wissen anzusehen. Information ist also als Wissenszuwachs definierbar, der das Kriterium der Relevanz erfüllen muß.3 Ob einer Information das Attribut Relevanz zugesprochen werden kann, hängt von ihrer Zweckerfüllung ab. Zur Unterstützung von Management-Funktionen sind Kontroll- und Entscheidungszwecke zu unterscheiden. Eine Information ist dann entscheidungsrelevant, wenn eine andere als die ursprünglich für günstig gehaltene Entscheidung aufgrund des Wissenszuwachses gefällt werden kann. Sie ist als kontrollrelevant anzusehen, wenn aufgrund ihrer Kenntnis eine Reaktion auf das Kontrollergebnis erwartet werden kann.
Heinz Lothar Grob
Unterstützung von Gruppenentscheidungsprozessen durch die Negotiationware VNSS
Zusammenfassung
Die Negotiationware VNSS unterstützt das Zustandekommen/Aushandeln einer Kompromißlösung durch die Visualisierung des Verhandlungsprozesses. Hierbei wird davon ausgegangen, daß ein Entscheidungsproblem mit einer unüberschaubaren Alternativenmenge (endlich oder unendlich) vorliegt und die Gruppenmitglieder sich auf eine Bewertung jeder Alternative bezüglich verschiedener quantitativer und qualitativer Kriterien geeinigt haben. Die Ermittlung eines Lösungsvorschlags von jedem Gruppenmitglied wird vorausgesetzt.
Die Negotiationware VNSS liefert in einem iterativen Prozeß eine dynamische Darstellung der Verhandlungspositionen, bzw. der Lösungsvorschläge der einzelnen Gruppenmitglieder. Auf diese Art und Weise lassen sich Veränderungen in den einzelnen Verhandlungspositionen, Außenseiterpositionen und Kompromißbereitschaft grafisch darstellen. Die Unterstützung der einzelnen Gruppenmitglieder geschieht durch das Vorgeben einer Richtung, in die sich der Entscheidungsträger bewegen muß, wenn er auf die Position der anderen Gruppenmitglieder zugehen will.
Jürgen Hansohm, Michael Hänle
Computergestützte Koordination von Referaten eines Kongresses unter Verwendung von OR-Methoden
Zusammenfassung
Es wird die optimale Aufteilung der Vorträge eines Kongresses auf die einzelnen Tage ermittelt, wobei verschiedene Ziele verfolgt werden, wie möglichst wenig Überschneidungen ähnlicher Themenkreise, möglichst gleichmäßige Aufteilung auf alle Tage etc. Zunächst wird die Analogie zur Klasse der Verschnitt- und Verpackungsprobleme aufgezeigt. Sodann wird eine zweistufige Heuristik zur Lösung des Problems entwickelt. Der erste Schritt besteht in einem Eröffnungsverfahren, das eine zulässige Lösung ermittelt. Diese wird dann im zweiten Schritt einem Verbesserungsverfahren unterworfen.
Michael M. Freitter, Richard F. Hartl
Approximatives Schließen: Verarbeitung unscharfer Information
Zusammenfassung
Fuzzy Mengen (im Deutschen etwa: unscharfe Mengen) wurden von ZADEH [1965] eingeführt. Ziel seiner bahnbrechenden Überlegungen war es, eine Beschreibung realer Situationen zu ermöglichen, die der menschlichen Denkweise näher kommt als die klassische Cantor’sche Mengenlehre. Letztere geht bekanntlich davon aus, daß von jedem Objekt x des vorgegebenen Universums U eindeutig gesagt werden kann, ob es in der betrachteten Menge liegt, also deren definierende Eigenschaft erfüllt. Dies trifft sicherlich zu, solange man es mit so scharf begrenzten Mengen zu tun hat wie zum Beispiel bei der
Menge aller Lösungen der Gleichung x2 = 4.
Erich Peter Klement
Informationsangebote im Rahmen der Bilanzanalyse — ein Rückblick auf 20 Jahre Bilanzentwicklung —
Zusammenfassung
Wie liest man eine Bilanz? Von links nach rechts etwa, so jedenfalls die Empfehlung von Chenaux-Repond.1 Eine andere Vorgehensweise erzählt Thomas Mann, wenn er in seinem Roman die Buddenbrocks den alten Konsul eine Bilanz Zeile für Zeile durchlesen läßt und dieser danach sagt “Grünlich, Sie sind pleite”.
Harald Krehl
Probleme des optimalen Stoppens mit Nebenbedingungen
Zusammenfassung
Bei vielen stochastischen Modellen des OR bzw. der Statistik erfolgt die Gewinnung und die Auswertung von Information sequentiell. Dies ist typischerweise dann der Fall, wenn a priori nicht festgelegt werden kann, welche Anzahl von Beobachtungen notwendig ist, um mit hinreichender Sicherheit eine Entscheidung zu treffen. Es ist dann ein — in zu präzisierendem Sinne — bester Zeitpunkt zu bestimmen, zu dem die Datenbeschaffung bzw. der ihr zugrundehegende Prozea abzubrechen ist. Für derartige Fragestellungen (in diskreter Zeit) wurde als methodisches Instrumentarium die Theorie des „Optimalen Stoppens“ entwickelt, wie sie etwa in den beiden Standardlehrbüchern von Y.S. Chow, H. Robbins und D. Siegmund (1971) bzw. A. Shiryayev (1978) dargestellt wurde. Die beiden Erscheinungsjahre machen deutlich, daß diese Methodik schon lange etabliert ist. Trotzdem ist sie in einigen Aspekten lange unvollständig gebheben. Dies betraf einmal die Möglichkeit, Daten nicht nur einzeln oder in Blöcken fester (deterministischer) Dimension erheben zu können, sondern auch gruppensequentiell, d.h. in Datenblöcken zufallsabhängig variabler Länge. Die hierbei in den letzten Jahren erzielten Fortschritte lassen sich an der Monographie von N. Schmitz (1992) ablesen. Ein anderer, nicht nur in der eingangs zitierten Literatur fast nicht behandelter Aspekt betrifft die Berücksichtigung allgemeiner Restriktionen bei der Suche nach optimalen Stopp-Regeln.
Ulrich Müller-Funk
Flexible Fertigungssysteme und ihr Einfluß auf das Marktverhalten und den Wettbewerb
Zusammenfassung
Jede Veränderung der Produktionstechnik führt auch zu einer Veränderung der Wettbewerbsbedingungen, die sich in geänderten Reaktionsweisen von Anbietern und Nachfragern niederschlagen. Ganz besonders gilt dies für den Paradigmenwechsel im Bereich der Fertigungstechnologie. In diesem Beitrag werden zunächst die Wechselwirkungen zwischen technischem Fortschritt und Marktverhalten von Anbietern und Nachfragern skizziert. Anschließend wird auf die Rolle des Computer Integrated Manufacturing (CIM) im Rahmen flexibler Fertigungssysteme (FFS) eingegangen und marktverändernde Potentiale dargestellt. Abschließend werden empirische Arbeiten zur Diffusion von FFS diskutiert.
Adolf Stepan

Informationsmanagement & -organisation

Frontmatter
Outsourcing von Informationsverarbeitungsleistungen unter Risikoaspekten
Zusammenfassung
In den siebziger und achtziger Jahren herrschte eine verbreitete Euphorie über Diversifikationsstrategien, vertikale und horizontale Integration, wenn auch die damit verbundenen Konzentrationstendenzen in der Öffentlichkeit nicht unkritisch verfolgt wurden. Insbesondere seit Beginn der neunziger Jahre ist dagegen eine neue Bescheidenheit zu beobachten. Mit Schlagworten wie Lean Production / Lean Management und Outsourcing wird ähnlich, wie in den achtziger Jahren Just-in-Time-Konzepte vertreten wurden, sehr pauschal diskutiert: Dabei wird — insbesondere in der populärwissenschaftlichen Literatur — die These aufgestellt, daß die Konzentration auf Kernkompetenzen und damit verbunden die Verringerung der Leistungstiefe in den Unternehmungen in jedem Fall wirtschaftlich vorteilhaft sei.
Hans Ulrich Buhl, Andrea Wirth
Leistungsbewertung von Datenbank-Server-Systemen
Zusammenfassung
Es wird über die Ergebnisse einer Laborstudie berichtet, deren Ziel die Bewertung der Leistung von Datenbank-Server-Systemen war. Ausgegangen wird von der Forderung, daß moderne Informatik-Strategien auch Aussagen darüber enthalten sollten, wie die bestehenden, vorwiegend zentralisierten Mehrplatzsysteme durch dezentrale Informationsinseln verteilt werden können (Downsizing). Daran anschließend werden Bewertungsaufgabe, Bewertungsmodell und Werkzeugunterstützung für die Laborstudie erläutert. Für zwei Datenbank-Server-Systeme werden die Bewertungsbefunde dargestellt und diskutiert.
Lutz J. Heinrich, Manfred Reindl
Gestaltung der Verteilung betrieblicher Daten
Zusammenfassung
Auch wenn die Begriffe Verteilung und Integration von Daten und Funktionen in Informationssystemen und Anwendungsumgebungen zunächst gegensätzlich erscheinen, beschreiben sie Verteilte Informationssysteme (VIS) und die mit diesen verbundenen Hard- und Softwarekonzepte lediglich aus unterschiedlichen Blickwinkeln. Die mit der Verteilung von Daten in betrieblichen Informationssystemen entstehenden konzeptuellen Probleme und Methoden zu ihrer Lösung weiden in diesem Beitrag vorgestellt.
Hermann Locarek
Vernetzt-Verteilt-Parallel: Die Rolle moderner DV-Architekturen in Organisationen
Zusammenfassung
Die Unzufriedenheit mit DV-Abteilungen ist notorisch. Man findet sie in einschlägigen Lehrbüchern (vgl. [10, S. 15]) ebenso beschrieben, wie in Artikeln der DV-Fachpresse (vgl. [1]). An Ratschlägen für die unter Beschuß stehenden Abteilungen mangelt es gleichfalls nicht: Die DV hat sich verstärkt ihrer Identität als Dienstleistungabteilung zu besinnen. Sie soll die Unternehmenstätigkeit, das eigentliche “Geschäft”, unterstützen und dem Unternehmen helfen, Wettbewerbsvorteile zu erzielen (vgl. [11]).
Josef Matulka
Client-Server Computing mit SQL2
Zusammenfassung
SQL2, der 1992 erschienene neue SQL-Standard, enthält erstmals eine Reihe von Konstrukten, die eine Realisierung von datenbankbasierten Client-Server-Anwendungen unter alleiniger Verwendung von normierten Sprachelementen möglich machen. Insbesondere sind Anweisungen zum Verbindungsaufbau zwischen Client und Server vorgesehen, die Fehlerbehandlung in Embedded SQL wird erweitert und von Produktspezifika unabhängig gemacht und dynamisches SQL wird normiert. Wir stellen diese neuen Sprachkonstrukte vor, diskutieren deren Semantik und zeigen die dadurch gegebenen neuen Möglichkeiten auf.
Wolfgang Panny, Alfred Taudes
Software Engineering — Auf dem Wege vom Handwerk zur industriellen Fertigung von Softwareprodukten?
Zusammenfassung
Software ist zu einem wichtigen Wirtschaftsfaktor geworden, und die Softwareindustrie ist eine aus unserem Wirtschaftsleben nicht mehr wegzudenkende Wachstumsbranche. Softwareprodukte werden immer häufiger zentrale Bestandteile komplexer Systeme, die technische oder betriebswirtschaftliche Prozesse steuern oder unterstützen. Aber auch im täglichen Leben werden wir immer stärker — meist unbemerkt — von funktionierender Software abhängig. In einzelnen Bereichen, wie z.B. in der Flugsicherung oder in der Energietechnik, hängen Sicherheit und Leben vom richtigen Funktionieren der dort eingesetzten Software ab. Die Funktionsfahig-keit und Zuverlässigkeit von Software ist Voraussetzung für die Funktionsfähigkeit des Gesamtsystems, dessen Bestandteil sie ist.
Gustav Pomberger
ProMISE — ein rechnergestütztes Vorgehensmodell zur evolutionären Entwicklung von Informationssystemen
Zusammenfassung
Daß die Entwicklung großer Software-Systems eine komplexe Aufgabe darstellt, ist in der Fachliteratur ebenso wie in Erfahrungsberichten aus der Praxis vielfach dokumentiert. Um den gesamten Systemlebenszyklus überschaubar zu gestalten und sinnvoll zeitlich planen und kalkulieren zu können, werden Vorgehensmodelle eingesetzt.
Der vorliegende Beitrag setzt sich zunächst kritisch mit existierenden Vorgehensmodellen auseinander und beschreibt dann ProMISE (Process Model for Information System Evolution) — ein Vorgehensmodell zur evolutionären Entwicklung von Informationssystemen. ProMISE ist Bestandteil von INCOME/ STAR, einer Entwicklungs- und Wartungsumgebung für verteilte betriebliche Informationssysteme. Ziel von INCOME/STAR ist unter anderem die Bereitstellung von Konzepten zum rechnergestützten Einsatz von Vorgehensmodellen innerhalb einer Entwicklungsumgebung.
Andreas Oberweis, Gabriele Scherrer, Wolffried Stucky
Die Rolle der Datenbanken in Informationssystemen — Eine Analyse der aktuellen Entwicklung
Zusammenfassung
In den letzten zehn Jahren ist eine Entwicklung innerhalb der Wirtschaftsinformatik von besonderer Bedeutung, nämlich die Entwicklung von der Anwendung von Informationssystemen (hier: gleichbedeutend mit Datenbanken und Retrievalsystemen) in den Betrieben zu der Betrachtung von Betrieben als Informationssysteme. Die ganzheitliche Betrachtung von Organisationseinheiten wie Betrieben als Informationssysteme impliziert naturgemäß viel höhere Anforderungen an den Träger der persistenten Information, nämlich das Datenbanksystem. War noch bei der Einführung der Theorie des Relationenmodells durch Codd /Codd70/ die Erreichung der logischen und physischen Datenunabhängigkeit mit dazugehöriger Zugriffspfadunabhängigkeit das vorrangige Ziel, so muß für eine adäquate Beschreibung eines Betriebes als Informationssystem die Datenbank viele weitere Aufgaben erfüllen, die sich nicht in der datenunabhängigen Persistenz erschöpfen können. Dieser Aufsatz befaßt sich vor allem mit den Anforderungen an Datenbanksysteme, die über die Funktionalität kommerziell erhältlicher relationaler Datenbanken hinausgehen, um möglichst viele relevante Aspekte eines Informationssystemes im obigen Sinne beschreiben und erfüllen zu können. Damit ist dieser Artikel in gewisser Weise spekulativ; er beschreibt Anforderungen, die ein “ideales” Datenbanksystem (mit dazugehöriger Umgebung) erfüllen sollte, für die bis jetzt kein einziges Exemplar existiert.
A. Min Tjoa, Richard R. Wagner

Informationsverwertung

Frontmatter
CIM aus der Sicht der Informationswirtschaft: Der Beitrag von Betriebswirtschaftslehre und Wirtschaftsinformatik zur Gestaltung des Integrationsansatzes
Jörg Becker
Integrationskonzepte im Industriebetrieb
Zusammenfassung
Die Entwicklungen in der Fertigungs- und in der Informationstechnik, gekoppelt mit steigendem Wettbewerbsdruck auf den Absatzmärkten, haben den Fertigungsbetrieb in ein Netzwerk von komplexen, voneinander abhängigen Systemen eingebettet. Die Konsequenz war in vielen Bereichen die Abkehr von Konzepten der Massenfertigung (economies of scale) und die Orientierung an kundenorientierten Fertigungs-konzepten. Der Aspekt der Kundenorientierung wird ganz wesentlich durch zwei Faktoren zum Ausdruck gebracht: Zum einen durch eine kundengerechte Produkt-gestaltung und damit zusammenhängend durch eine variantenreiche Fertigung (economies of scope). Zum anderen gewinnt der Faktor Zeit große Bedeutung (economies of speed, time-based competition). Die Einhaltung von Terminen wird nicht nur durch kürzere Durchlaufzeiten in der Fertigung, sondern auch durch kürzere Produktentwicklungszeiten erreicht.
Werner Jammernegg
Dezentrale Informationsverarbeitung als Dienstleistungsservice im Rahmen der öffentlichen Verwaltung
Zusammenfassung
Die Situation der Datenverarbeitung des BRZ ist noch immer stark gekennzeichnet durch eine Host-Orientierung der ADV-Verfahren. Trotz eines flächendeckenden, vermaschten Netzwerkes und weitgehender Ausstattung der Dienststellen mit Terminals und großteils auch schon PC ist noch verhältnismäßig wenig “IT-Intelligenz” dezentralisiert. Client/Server-Lösungen beispielsweise sind derzeit nur konzeptiv vorhanden, die praktische Umsetzung hat erst zu erfolgen. Daher spielt das Rechenzentrum im Dienstleistungsangebot der IT-Organisation noch eine zentrale Rolle. Die technischen bzw. infrastrukturellen Voraussetzungen für eine stärkere Dezentralisierung des Dienstleistungsservice sind jedoch bereits großteils vorhanden.
Arthur Winter
Backmatter
Metadaten
Titel
Informationswirtschaft
herausgegeben von
Mag. Dr. Walter Frisch
Mag. Dr. Alfred Taudes
Copyright-Jahr
1993
Verlag
Physica-Verlag HD
Electronic ISBN
978-3-642-87094-1
Print ISBN
978-3-7908-0727-1
DOI
https://doi.org/10.1007/978-3-642-87094-1