Produktions- und Informationsmanagement
Festschrift für Prof. Dr. Stephan Zelewski
- 2024
- Buch
- Herausgegeben von
- Reinhard Schütte
- Susanne Hohmann
- Bianca Krol
- Malte L. Peters
- Verlag
- Springer Fachmedien Wiesbaden
Über dieses Buch
In dem Buch werden Beiträge von Hochschullehrer*innen und promovierten Praktikern veröffentlicht, die sich mit wichtigen und aktuellen produktionswirtschaftlichen Problemstellungen oder Wirtschaftsinformatik-Fragestellungen beschäftigen.
Inhaltsverzeichnis
-
Frontmatter
-
Betriebswirtschaftslehre aus einer vorrangig produktions- und logistikzentrierten (Optimierungs-)Perspektive
-
Frontmatter
-
Kapitel 1. Nachhaltige Produktionseffizienz in Lieferketten durch Digitalisierung
Myriam JahnDas Kapitel untersucht die nachhaltige Produktionseffizienz in Lieferketten durch Digitalisierung und die Optimierung des Energieverbrauchs in Produktionsnetzwerken. Es wird die Entwicklung von der klassischen Produktionsplanung und -steuerung (PPS) bis hin zu den modernen Ansätzen der Industrie 4.0 beleuchtet. Besonderes Augenmerk liegt auf der Integration von cyber-physikalischen Produktionssystemen (CPPS) und der Traceability, die eine vollständige Rückverfolgbarkeit und Transparenz der Produktionsprozesse ermöglicht. Diese Technologien sollen nicht nur die Effizienz steigern, sondern auch den CO2-Fußabdruck reduzieren. Der Beitrag analysiert die Herausforderungen und Potenziale der digitalen Transformation in der Produktion und zeigt auf, wie durch eine durchgängige Systematik und die Nutzung von KI-gestützten Algorithmen eine nachhaltigere und energieeffizientere Produktion erreicht werden kann. Die Einbindung von Energiemanagementsystemen und die Berücksichtigung von Scope 3-Emissionen in der Optimierung sind zentrale Aspekte des Textes. Insgesamt bietet der Beitrag eine umfassende und tiefgehende Analyse der Möglichkeiten und Grenzen der Digitalisierung für eine nachhaltige Produktion in Lieferketten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
-
Kapitel 2. Existiert eine optimale Betriebsgröße für Universitäten? Eine theoretische Synopse und empirische Fallstudienuntersuchung
Matthias KlumppDas Kapitel befasst sich mit der Frage nach einer optimalen Betriebsgröße für Universitäten, indem es theoretische Überlegungen mit empirischen Fallstudien verknüpft. Es wird untersucht, ob es eine optimale Größe für Universitäten gibt und welche Faktoren diese beeinflussen könnten. Dabei werden verschiedene Hypothesen aufgestellt und mittels Daten aus der Exzellenzinitiative des Bundes und der Länder überprüft. Die Studie zeigt, dass es keine eindeutige optimale Betriebsgröße gibt, aber bestimmte Faktoren wie die disziplinäre Verfasstheit einer Universität und die geographische Verteilung der Studierenden einen Einfluss haben könnten. Die Ergebnisse bieten Ansatzpunkte für weiterführende Forschungen und Diskussionen zur Effizienz von Universitäten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungAn der Schnittfläche produktionstheoretischer Forschungsfragen und spezifischer Anwendungsfelder ist die hier aufgeworfene Titel- und Forschungsfrage positioniert. Die Frage einer optimalen Betriebsgröße von Universitäten verbindet dabei zwei ganz wesentliche Merkmale der Forschungsarbeiten und Interessensfelder von Stephan Zelewski. Auf der einen Seite waren wissenschafts- und produktionstheoretische Fragestellungen und Forschungsvorgaben („optimale Betriebsgröße“) originär im zentralen Fokus der von ihm betrachteten – und wohl auch als wesentlich erachteten – Themenfelder, nicht zuletzt sichtbar in den umfangreichen Ausarbeitungen im Rahmen der verfassten Qualifizierungsarbeiten und darüber hinaus. -
Kapitel 3. (Kausale) Schlussfolgerungen aus Daten – Überlegungen im Kontext von Data Literacy
Bianca Krol, Karsten LübkeDer Beitrag beleuchtet die Herausforderungen bei der Interpretation von Daten im Kontext von Kausalität und Data Literacy. Es wird betont, dass die Fähigkeit, korrekte Schlussfolgerungen aus komplexen Beobachtungsdaten zu ziehen, von zentraler Bedeutung ist. Beispiele wie die Covid-19-Pandemie und das Simpson-Paradoxon verdeutlichen die Gefahren von Verzerrungen wie dem Confirmation Bias und der fehlerhaften Interpretation von Daten. Die Verwendung von gerichteten azyklischen Graphen (DAGs) wird als effektive Methode zur Visualisierung von Ursache-Wirkungszusammenhängen vorgestellt. Eine Studie mit Studierenden zeigt, dass die Darstellung von Ursache-Wirkungszusammenhängen und die Bestätigung von stereotypen Annahmen die Interpretation von kausalen Modellen beeinflussen können. Die Ergebnisse weisen auf die Notwendigkeit hin, die zugrunde liegenden Annahmen bei der Datenanalyse transparent zu machen und die Ausbildung in Statistik zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDatenkompetenz erfordert die Fähigkeit, Schlussfolgerungen auch aus komplexen Beobachtungsdaten zu ziehen. Diese Kompetenz hat in den letzten Jahren nicht nur immer mehr Bedeutung, sondern auch immer mehr Beachtung erfahren. Die Vergangenheit hat gezeigt, dass die Kompetenz, aus Daten die richtigen Schlussfolgerungen zu ziehen, nicht flächendeckend verbreitet ist. Die Gefahr, einem Confirmation Bias zu unterliegen, ist groß. Stereotypen und Vorurteile führen dazu, dass aus Daten häufig nur das herausgelesen wird, was zu den eigenen Einstellungen und Überzeugungen passt. Die nachfolgend gezeigte Studie untermauert diese Annahme. Umso wichtiger ist es, in der statistischen Ausbildung an Hochschulen ein Bewusstsein bei den Studierenden dafür zu schaffen, wie allgegenwärtig Attributionsfehler sind und wo auch Grenzen in der eindeutigen Entscheidungsfindung auf der Grundlage von Daten existieren. -
Kapitel 4. Erweiterung der Efficiency Analysis Technique With Input and Output Satisficing (EATWIOS) um die Berücksichtigung von Sanktionen
Malte L. PetersDieser Fachbeitrag behandelt die Erweiterung der Efficiency Analysis Technique With Input and Output Satisficing (EATWIOS) um die Berücksichtigung von Sanktionen. Die traditionelle EATWIOS-Methode wird durch die Einführung von Interventionsniveaus und Sanktionen erweitert, um Anreize für Entscheidungseinheiten zu schaffen, Effizienzsteigerungen zu erzielen. Durch die Anwendung von oberen und unteren Interventionsniveaus und entsprechenden Sanktionen können Entscheidungseinheiten belohnt oder bestraft werden, je nachdem, ob sie bestimmte Output- oder Input-Schwellenwerte überschreiten oder unterschreiten. Das Datentransformationsmodell spielt eine zentrale Rolle dabei, die Faktorquantitäten entsprechend den neuen Anreizen zu transformieren. Die Berechnung der transformierten Faktorquantitäten und die Ermittlung der Effizienzwerte werden detailliert erläutert, wobei auch auf die Bedeutung der Wahl der Interventionsniveaus und Sanktionen eingegangen wird. Der Beitrag schließt mit einem Fazit, das die Vorteile der erweiterten Methode hervorhebt und auf zukünftige Forschungsansätze hinweist.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Efficiency Analysis Technique With Input and Output Satisficing (EATWIOS) ermöglicht die Berücksichtigung von oberen und unteren Satisfizierungsgrenzen für Inputfaktoren und für Outputfaktoren. Wenn eine untere (obere) Satisfizierungsgrenze auf einen Inputfaktor oder auf einen Outputfaktor angewandt wird, werden die Faktorquantitäten, die kleiner (größer) sind als die untere (obere) Satisfizierungsgrenze auf diese untere (obere) Satisfizierungsgrenze „heraufgesetzt“ („hinuntergesetzt“). Im vorliegenden Beitrag wird EATWIOS erweitert, um zusätzlich zum einen die Überschreitung eines sogenannten oberen Interventionsniveaus und zum anderen die Unterschreitung eines sogenannten unteren Interventionsniveaus durch eine Faktorquantität jeweils mit einer Prämie als positiver Sanktion belohnen oder mit einer Strafe als negativer Sanktion ahnden zu können. -
Kapitel 5. Untersuchung der Resilienz einer Supply Chain durch transparentes und rationales Verhalten der Lieferkettenteilnehmer
Susanne HohmannDas Kapitel untersucht die Resilienz einer Supply Chain durch transparente und rationale Verhaltensweisen der Lieferkettenteilnehmer. Es wird eine quantitative Modellierung verwendet, um zu erörtern, wie Transparenz und rationales Verhalten die Fähigkeit der Lieferkette beeinflussen, Störungen zu überwinden. Die Modellierung basiert auf einer einfachen Lieferkette mit vier Teilnehmern und einer Zielfunktion zur Minimierung der Gesamtkosten. Die Ergebnisse zeigen, dass rationale Verhaltensweisen zu einer stabilen und effizienten Lieferkette führen können, während irrationale Verhaltensweisen zu erheblichen Kostensteigerungen und Störungen führen. Die Untersuchung umfasst auch verschiedene Szenarien von Störungen, wie Verlängerungen der Produktionszeit und unregelmäßige Störungen, um die Resilienz der Lieferkette zu testen. Die Ergebnisse werden abschließend zusammengefasst und für weiterführende Untersuchungen ausgewertet.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Resilienz in Lieferketten, also die Fähigkeit, eine aufgetretene Störung zu überwinden und wieder in den Ursprungszustand zurückzukehren, ist besonders in Zeiten globaler Krisen von großer Bedeutung, da von dieser Fähigkeit das Funktionieren und Überleben der Lieferkette abhängig ist. Im vorliegenden Beitrag wird die Resilienz näher anhand einer quantitativen Modellierung untersucht, mithilfe derer die Frage erörtert wird, inwiefern Transparenz und rationales Verhalten der Teilnehmer zu einer resilienten Lieferkette beitragen können. -
Kapitel 6. Ermittlung der optimalen Rundreise im Kontext der Tourenplanung – ein exemplarischer Anwendungsfall
Adina Silvia KuhlmannDer Beitrag behandelt die Optimierung der Rundreise im Kontext der Tourenplanung und stellt einen exemplarischen Anwendungsfall eines mittelständischen Unternehmens der Baubranche vor. Das Ziel ist es, die Gesamtfahrtstrecke eines Außendienstmitarbeiters zu minimieren, der verschiedene Baustellen in einer bestimmten Region anfahren muss. Dabei werden theoretische Grundlagen der Tourenplanung und des Traveling Salesman Problems erläutert. Der Excel-Solver wird als Werkzeug zur Optimierung der Route verwendet, um die Fahrtstrecke zu minimieren und gleichzeitig die definierten Nebenbedingungen zu erfüllen. Die Anwendung des Solvers zeigt, wie durch eine optimierte Reihenfolge der Besuche die Gesamtfahrtstrecke erheblich reduziert werden kann. Die praktische Umsetzung und die Ergebnisse der Optimierung werden detailliert dargestellt und analysiert.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungZur Erhaltung der Wettbewerbsfähigkeit sind Unternehmen u. a. gezwungen logistische Ziele, wie Lieferzeiten, Lieferservice und Bestände zu optimieren, sowie mit den verfügbaren personellen und sachlichen Kapazitäten einen maximalen Output zu generieren. -
Kapitel 7. Lineare Optimierung – Eleganz und Elend einer „Produktionstheorie“ der Energiewirtschaft
Christoph WeberDas Kapitel untersucht die lineare Optimierung als Standardmodell zur Beschreibung von Produktionsaktivitäten in der Energiewirtschaft, insbesondere der Elektrizitätswirtschaft. Es wird die theoretische Konsistenz und praktische Relevanz dieser Modelle analysiert und deren Anwendung in verschiedenen Szenarien beleuchtet. Dabei werden operative Entscheidungen wie die Kraftwerkseinsatzplanung und die Speicherbewirtschaftung detailliert betrachtet. Zudem wird die Herausforderung der Anwendung linearer Optimierungsansätze für klimaneutrale Energiesysteme thematisiert und mögliche Entwicklungslinien für die Modellierung diskutiert. Das Kapitel hebt die Notwendigkeit einer empirischen Überprüfung und Anpassung der Modelle hervor, um deren Validität zu gewährleisten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungLineare Optimierung ist keine Produktionstheorie sondern eine mathematische Problemklasse mit wohldefinierten theoretischen Eigenschaften, für die effiziente Lösungsalgorithmen verfügbar sind (vgl. etwa Dantzig, 1951; Klotz & Newman, 2013). Und dennoch sind lineare Optimierungsmodelle über die letzten Jahrzehnte hinweg zu Standardmodellen zur Beschreibung von Produktionsaktivitäten in der Energiewirtschaft – und dort vor allem der Elektrizitätswirtschaft – geworden (vgl. -
Kapitel 8. Kooperative Petri-Netze mit Shapley-Auszahlungen
Harald WieseDer Fachtext beschäftigt sich mit der Anwendung von kooperativen Petri-Netzen in Kombination mit Shapley-Auszahlungen zur Modellierung und Analyse von Kooperationssituationen. Petri-Netze sind ein mächtiges Werkzeug zur Beschreibung von Systemen mit diskreten Ereignissen und werden hier genutzt, um die Dynamik von Kooperationen zwischen Spielern zu modellieren. Die Shapley-Auszahlungen bieten eine faire Verteilung der Kooperationsgewinne und berücksichtigen die marginalen Beiträge der Spieler. Der Beitrag geht detailliert auf die Definition und Anwendung kooperativer Petri-Netze ein und zeigt, wie diese Modelle zur Beschreibung von Kooperationssituationen in verschiedenen Perioden genutzt werden können. Besonders interessant ist die Berücksichtigung von Anbahnungs- und Trennungskosten, die in der Shapley-Lösung integriert werden. Das Modell wird anhand eines Zwei-Spieler- und Zwei-Perioden-Beispiels illustriert, das zeigt, wie sich unterschiedliche Parameter auf die Kooperationsentscheidungen der Spieler auswirken. Die Analyse der Shapley-Auszahlungen und die Bestimmung des gleichgewichtigen kooperativen Petri-Netzes mittels des nicht-kooperativen Lösungskonzepts der Teilspielperfektheit bieten tiefgehende Einblicke in die Dynamik von Kooperationen und deren wirtschaftliche Implikationen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDieser Artikel knüpft an zwei Forschungsinteressen des Jubilars an, Petri-Netze einerseits und kooperative Spieltheorie andererseits. Im Zentrum des Beitrags stehen kooperative Petri-Netze, bei denen Spieler Kooperationen eingehen oder aufkündigen können. Mit Hilfe der Shapley-Lösung werden unterschiedlichen Kooperations-Trajektorien Auszahlungen zugeordnet. In Abhängigkeit von einer Vielzahl von Parametern kann dann theoretisch bestimmt werden, welche Ko-operationen sich in einem Modell mit nur zwei Spielern und nur zwei Perioden ergeben. -
Kapitel 9. Notwendigkeit konzeptioneller Kompromisse und Reduzierung der Modellierungskomplexität in kooperativen Spielen zur Lösung betriebswirtschaftlicher Aufteilungsprobleme
Bastian FromenDas Kapitel untersucht die Herausforderungen bei der Lösung betriebswirtschaftlicher Aufteilungsprobleme durch kooperative Spieltheorie. Es wird die Notwendigkeit von konzeptionellen Kompromissen beleuchtet, da die perfekte Fairness oft mathematisch unmöglich ist. Der Text stellt drei Lösungskonzepte vor: den Shapley-Wert, den Nucleolus und den -Wert, und diskutiert ihre Vor- und Nachteile. Ein besonderer Fokus liegt auf der Reduzierung der Modellierungskomplexität durch innovative Ansätze wie das Dominanzkriterium und die konvexe Erweiterung, die die praktische Anwendbarkeit der Spieltheorie in der Betriebswirtschaft erheblich verbessern. Diese Ansätze ermöglichen es, die Komplexität zu reduzieren, ohne strukturgebende Faktoren zu ignorieren, und machen die Lösung von Aufteilungsproblemen effizienter und zugänglicher.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungFür die Lösung betriebswirtschaftlicher Aufteilungsprobleme, die sich ergeben, wenn Akteure kooperieren und gemeinsam Kooperationserfolge erzielen, bietet die kooperative Spieltheorie ein umfangreiches Instrumentarium. Ein allgemein als Standard anerkanntes Lösungskonzept existiert indes nicht. Zum einen sind bei der Wahl des Lösungskonzepts konzeptionelle Kompromisse einzugehen, da sich wünschenswerte Eigenschaften einer Lösung in der Regel mathematisch widersprechen. Zum zweiten stellt die mit der Modellierung eines Aufteilungsproblems als kooperatives Spiel einhergehende Komplexität eine oft unterschätzte Herausforderung dar. Im vorliegenden Beitrag wird aus dem spieltheoretischen Modell heraus ein Ansatz entwickelt, mit dem für das Lösungskonzept des Nucleolus die Modellierungskomplexität reduziert werden kann, ohne dabei die strukturgebenden Faktoren des zugrunde liegenden Aufteilungsproblems außer Acht zu lassen. Da dieser Ansatz auf die Klasse der konvexen Spiele beschränkt ist, wir das Konzept der konvexen Erweiterung eines Spiels vorgestellt, mit Hilfe dessen der Ansatz heuristisch auf für nicht konvexe Spiele angewendet werden kann. -
Kapitel 10. Spieltheorie als Schlüssel wirtschaftlichen Handelns in Investitionsprojekten – Modellierung des Projekt(spiel-)Ergebnisses als Kapitalwertmaximum in Abhängigkeit der Projekt-Meilensteine & Implementierung des PASOR-Grundkonzeptes auf das Investitionsprojekt „Digital Jetzt“
Naciye AkcaDas Kapitel behandelt die Anwendung der Spieltheorie in Investitionsprojekten, insbesondere die Modellierung des Projekt(spiel-)Ergebnisses als Kapitalwertmaximum in Abhängigkeit von Projekt-Meilensteinen. Es wird das PASOR-Grundkonzept auf das Investitionsprojekt 'Digital Jetzt' angewendet und die Implementierung in 2-Orga-(Investitions-)Projektspielen untersucht. Die Spieltheorie und spieltheoretische Lösungsansätze werden genutzt, um finanzwirksame Maßnahmen in Investitionsprojekten zu tätigen und Ressourcen projektzielorientiert zu binden. Das PASOR-Grundkonzept ermöglicht eine formalsprachige Beschreibung der Grundelemente eines jeden Spiels und wird auf das Investitionsprojekt 'Digital Jetzt' angewendet. Die nicht-kooperative spieltheoretische Modellierung der Kapitalwertmethode in Kombination mit der Meilensteinmethode zur Ressourcenallokation stellt das Formalproblem des Beitrages dar. Die Projektpartner nehmen unterschiedliche Rollen ein und können konfliktäre Präferenzen haben. Das Projekt(spiel-)Ergebnis kann eindimensional oder multidimensional sein und wird gemäß der SMART-Formel formuliert. Die Kapitalwertmethode in Kombination mit der Meilensteinmethode wird als Hybrid-Methode eingesetzt, um den Kapitalwert der projektbasierten Einzahlungen zu ermitteln. Die Implementierung des PASOR-Grundkonzeptes lässt sich in vielerlei Hinsicht ausbauen und modifizieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Spieltheorie und spieltheoretische Lösungsansätze können in Projekten – im Folgenden beispielsweise in Investitionsprojekten – mit diversen Akteuren im Sinne von Organisationen [Orga] eingesetzt werden. Des Öfteren stellen sich Organisationen die Frage, ob und wie eine finanzwirksame Maßnahme – ein Investitionsprojekt – zu tätigen ist, um (finanzielle und personelle) Ressourcen projektzielorientiert zu binden. Der Begriff des Investitionsprojektes wird in Anlehnung an Slaghuis definiert als. -
Kapitel 11. Manufacturing Supply Chains in East Asia: Advantages, Drawbacks and Perspectives
Martin HemmertDer Beitrag beleuchtet die Organisation und Koordination von Lieferketten in der Fertigungsindustrie in Ostasien, insbesondere in Japan, Korea und China. Es wird untersucht, wie die unterschiedlichen Lieferkettenkonfigurationen und -koordinationen die Wettbewerbsfähigkeit der Unternehmen beeinflussen. Japanische Lieferketten sind durch eine hohe Vertikalsegmentierung und langfristige, interdependent Beziehungen gekennzeichnet, während koreanische Lieferketten durch eine starke Kontrolle durch chaebols und eine Mischung aus interdependenten und marktbasierten Beziehungen geprägt sind. Chinesische Lieferketten hingegen zeichnen sich durch eine hohe Standardisierung und flexible, marktbasierte Beziehungen aus. Der Beitrag analysiert die historischen und kulturellen Hintergründe dieser Unterschiede und bewertet die Vorteile und Nachteile jeder Lieferkettenstrategie. Darüber hinaus wird untersucht, wie globale Trends wie Standardisierung, Globalisierung und technologische Disruption die Wettbewerbsfähigkeit der Lieferketten in den drei Ländern beeinflussen. Diese detaillierte Analyse bietet wertvolle Einblicke für Experten, die die Dynamik und Herausforderungen der globalen Lieferketten verstehen wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe organization of supply chains in manufacturing industries has attracted strong attention by researchers and business practitioners, as it is perceived to influence the competitiveness not only of individual firms, but of entire supply chains and even of entire industries across countries . Supply chain organization broadly consists of two aspects: supply chain configuration and supply chain coordination. Supply chain configuration addresses the division of labor across supply chain participants, which is closely related to the degree of individual firms’ vertical integration and thereby to the question of what are efficient boundaries of firms. -
Kapitel 12. Wenn Berater und Journalisten Pippi Langstrumpf spielen oder: Ich mache mir die Welt, wie sie mir gefällt
Hendrik SchröderDas Kapitel beleuchtet die Methoden, die Berater und Journalisten verwenden, um durch die Überschreitung von Kommunikationsgrenzen Aufmerksamkeit und Wirkung zu erzielen. Es wird diskutiert, wie rechtliche und ethische Normen diese Grenzüberschreitungen regulieren und welche Konsequenzen sie für die Empfänger haben. Die Schematheorie wird als theoretisches Werkzeug eingesetzt, um zu verstehen, wie Menschen Informationen verarbeiten und wie Schema-konsistente und -inkonsistente Informationen unterschiedliche Aufmerksamkeit erzeugen. Besondere Beispiele aus der Praxis, wie die Berichterstattung über die Deutsche Bank und die Studie 'Category Killer', verdeutlichen die Mechanismen und Herausforderungen der effektiven Kommunikation. Der Text hebt hervor, dass die bewusste Überschreitung von Grenzen zwar Aufmerksamkeit erzeugen kann, aber auch ethische und rechtliche Risiken birgt. Es wird betont, dass eine verantwortungsvolle Kommunikation notwendig ist, um die Glaubwürdigkeit und Integrität der Berichterstattung zu wahren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn unserer Gesellschaft, die sich eine freiheitlich demokratische Grundordnung gegeben hat, hat jeder Mensch grundsätzlich das Recht, mit jedem anderen Menschen über jedes Thema zu kommunizieren. Kommunikation lässt sich als Übertragung von Informationen begreifen, ein Merkmal sei die Beeinflussung des Empfängers durch den Sender.
-
-
Informationsmanagement in Zeiten Künstlicher Intelligenz
-
Frontmatter
-
Kapitel 13. Braucht die Wirtschaftsinformatik eine neue Identitätsdiskussion?
Franz LehnerDas Kapitel untersucht die Notwendigkeit einer neuen Identitätsdiskussion in der Wirtschaftsinformatik, um die Eigenständigkeit und Relevanz der Disziplin in Zeiten rasanter technologischer und gesellschaftlicher Veränderungen zu sichern. Es analysiert die historische Entwicklung der Wirtschaftsinformatik, beginnend mit der ersten Identitätsdiskussion nach der Jahrtausendwende, und beleuchtet die aktuellen Herausforderungen und Chancen. Besondere Aufmerksamkeit wird der interdisziplinären Natur der Wirtschaftsinformatik geschenkt, die sowohl Vorteile als auch Herausforderungen mit sich bringt. Das Kapitel schlägt Maßnahmen zur Stärkung der Identität vor, um die Wirtschaftsinformatik als eigenständige Disziplin zu festigen und ihre Relevanz in der wissenschaftlichen Gemeinschaft zu erhöhen. Dabei wird auch die Bedeutung der Zusammenarbeit mit anderen Fachgebieten und die Notwendigkeit einer kontinuierlichen Reflexion und Anpassung der Identität hervorgehoben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm Jahr 2007 haben Stephan Zelewski und ich gemeinsam einen Sammelband mit dem Titel „Wissenschaftstheoretische Fundierung und wissenschaftliche Orientierung der Wirtschaftsinformatik“ herausgegeben. Im vorangestellten Vorwort dieses Bandes finden sich folgende Gedanken: „An den Anfang dieses Bandes sei ein Gedanke Gutenbergs gestellt, der bereits zu Beginn der 60er Jahre die Bedeutung der Informations- und Kommunikationstechnik für die Unternehmensführung erkannte. Gutenberg weist im Vorwort darauf hin, dass es seiner Meinung nach keine wissenschaftliche Lehre von der Unternehmensführung geben kann, dass aber viele Fragen der Unternehmensführung der wissenschaftlichen Behandlung zugänglich sind. -
Kapitel 14. Wissenschaft als Beruf – Anmerkungen eines hadernden Idealisten
Ulrich FrankDer Beitrag untersucht die Karriere und Kritik von Max Weber, insbesondere seine Vortragsreihe 'Wissenschaft als Beruf'. Weber analysierte die akademische Karriere und die Idealisierung des Universitätsprofessors, wobei er die Mythen um den Beruf entzauberte und die Notwendigkeit einer kritischen Reflexion betonte. Der Text beleuchtet die aktuellen Herausforderungen der Universität, wie die zunehmende Kommerzialisierung und die Einflüsse von externen Faktoren. Er diskutiert die Spannung zwischen der Idee der Wissenschaft und der realen Praxis an Universitäten, insbesondere die Rolle von Forschung und Lehre. Die Einführung von Kennzahlen und das Peer Reviewing werden als zentrale Themen behandelt, wobei die negativen Auswirkungen auf die Wissenschaftler und die Qualität der Forschung kritisch hinterfragt werden. Der Text hebt die Bedeutung der Freiheit und der Selbstverantwortung der Wissenschaftler hervor und plädiert für eine kritische Reflexion der Rahmenbedingungen. Schließlich wird die Rolle neuer Technologien wie der künstlichen Intelligenz (KI) in der Wissenschaft und die damit verbundenen Chancen und Herausforderungen diskutiert. Der Beitrag endet mit einer Reihe von Thesen, die die Notwendigkeit einer kritischen Auseinandersetzung und die Chancen für eine Reform der Universität betonen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungInspiriert durch den historischen Aufsatz von Max Weber zur Lage von Universität und Wissenschaft werden in diesem Beitrag Facetten einer kritischen Bestandsaufnahme der aktuellen Situation der Universität diskutiert. Ausgehend von einem Idealbild der Universität als dem Ort in der Gesellschaft, an dem Vernunft und Erkenntnisgewinn eine herausragende Bedeutung zukommt, werden Herausforderungen, Irrwege und Zielkonflikte betrachtet, denen sich Forschung und Lehre gegenübersehen. Dabei wird auch auf aktuelle Entwicklungen im Kontext generativer KI eingegangen. Vor diesem Hintergrund werden abschließend Thesen für den Umgang mit diesen Herausforderungen präsentiert. -
Kapitel 15. Zum Erkenntnispotenzial kardiovaskulärer Messungen in der Wirtschaftsinformatik: Grundlagen und Ergebnisse empirischer Forschung
Fabian J. Stangl, René RiedlDer Fachtext beleuchtet das epistemologische Potenzial kardiovaskulärer Messungen in der Wirtschaftsinformatik. Es wird die Bedeutung dieser Messungen für das Verständnis der physiologischen Reaktionen auf Digitaltechnologien hervorgehoben. Die Untersuchung konzentriert sich auf die Möglichkeiten zur Erforschung der Aktivität des menschlichen Nervensystems und die Integration dieser Daten in die Wirtschaftsinformatik. Besonders interessant sind die exemplarischen Studien, die zeigen, wie HR und HRV in Kombination mit Befragungs- und Beobachtungsdaten tiefgehende Einblicke in kognitive und emotionale Prozesse ermöglichen. Diese Erkenntnisse sind entscheidend für die Gestaltung benutzerfreundlicher IT-Systeme und die Förderung positiver Nutzererfahrungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungSeit langer Zeit spielen epistemologische Fragen in der Wissenschaftsdisziplin Wirtschaftsinformatik eine wichtige Rolle. In welcher Form in der Wirtschaftsinformatik wissenschaftliche Erkenntnisse erzielt werden können, wird dabei aus unterschiedlichen Perspektiven diskutiert, insbesondere aus gestaltungsorientierter Sicht und aus Sicht der empirischen Forschung. Die Behandlung von erkenntnistheoretischen Fragen ist nicht zuletzt deshalb wichtig, weil dadurch ein besseres Verständnis für den Erwerb von Wissen sowie die Gültigkeit von Erkenntnissen geschaffen wird. -
Kapitel 16. Das Leistungspotential der Künstlichen Intelligenz im 21. Jahrhundert – eine Analyse unter Berücksichtigung von Machine Learning und seinem Einsatz in modernen ERP-Systemen
Reinhard Schütte, Mohamed KariDer Beitrag untersucht das Leistungspotenzial der Künstlichen Intelligenz im 21. Jahrhundert, wobei der Fokus auf die Analyse von Machine Learning und dessen Einsatz in modernen ERP-Systemen liegt. Die Diskussion beginnt mit einer historischen Perspektive, die die Relevanz der KI-Forschung von Stephan Zelewski aus dem Jahr 1986 hervorhebt. Zelewski forderte bereits damals eine wissenschaftlich-seriöse Abgrenzung der KI-Diskussion und kritisierte die Übertreibungen in der öffentlichen Wahrnehmung. Der Beitrag vergleicht diese historischen Sichtweisen mit aktuellen Entwicklungen und zeigt, dass viele der damaligen Fragen und Herausforderungen heute noch relevant sind. Besonders hervorgehoben wird die Rolle von Machine Learning in der KI-Forschung und die Diskussion um die Definition und Anwendung von Künstlicher Intelligenz. Der Text betont die Notwendigkeit einer klaren Abgrenzung und Definition von KI-Begriffen und -Kategorien, um eine sinnvolle Diskussion und Anwendung in der Praxis zu ermöglichen. Weiterhin wird die Bedeutung von Machine Learning in modernen ERP-Systemen beleuchtet und die technischen und theoretischen Grundlagen des Machine Learnings erläutert. Der Beitrag schließt mit einer Analyse der marktwirtschaftlichen Perspektiven und der Herausforderungen bei der Implementierung von Machine Learning in Unternehmen und Plattformen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
Zusammenfassung„Der Begriff ‚Künstliche Intelligenz‘ findet in der betriebswirtschaftlichen Diskussion zunehmende Beachtung […] Das Interesse an dieser Thematik spannt einen weiten Bogen: Er beginnt bei der technischen, insbesondere informatikorientierten Euphorie, der zufolge von der Schließung der Intelligenzlücke zwischen Menschen und Automaten ausgegangen wird. Er endet bei der […] Skepsis, ob das technisch Mögliche unreflektiert mit dem zivilisatorisch Wünschenswerten gleichgesetzt werden solle“. Mit diesen brandaktuellen Worten beginnt das erste Kapitel der 1986 vorgelegten Dissertation des Laureats dieses Liber Amicorums. -
Kapitel 17. Das Leistungspotenzial Künstlicher Intelligenz für Unternehmen
Yilmaz AlanDas Leistungspotenzial Künstlicher Intelligenz für Unternehmen wird in diesem Kapitel umfassend untersucht. Unternehmen stehen vor der Herausforderung, Chancen zur Differenzierung im Wettbewerb zu nutzen und gleichzeitig Risiken zu managen. Die KI spielt dabei eine entscheidende Rolle, da sie sowohl im Wettbewerbspotenzial als auch im Risikomanagement eine zentrale Stellung einnimmt. Die Bedeutung der KI wird anhand des stark gestiegenen Investitionsvolumens und der wachsenden Integration in Geschäftsprozesse beleuchtet. Der Beitrag analysiert verschiedene KI-Systeme und deren Anwendungsbereiche, um Strategien für den effektiven Einsatz von KI in Unternehmen aufzuzeigen. Besonders hervorgehoben wird die Bedeutung von KI-Systemen, die menschenähnliche Denkprozesse simulieren und in der Lage sind, Handlungen zu vollziehen. Die Analyse umfasst auch die Herausforderungen und Risiken, die mit dem Einsatz von KI verbunden sind, und gibt Empfehlungen für eine strategische KI-Strategie in Unternehmen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungUnternehmen stehen vor zwei wesentlichen Herausforderungen. Einerseits ist es eine unternehmerische Aufgabe, Chancen zur Differenzierung im Wettbewerb auszuschöpfen. Potenziale hierfür ergeben sich in der eigenen (Weiter)entwicklung von Geschäftsmodellen, der Optimierung von Leistungserbringungsprozessen und der Umsetzung alternativer Produktions- und Liefermodelle. -
Kapitel 18. Der Einfluss von Datenkompetenz, Feintuning und Transparenz auf Conversational Business Analytics
Adem AlparslanDer Beitrag untersucht die Rolle von Datenkompetenz, Feintuning und Transparenz bei der Nutzung von Conversational Business Analytics. Es wird gezeigt, wie diese Faktoren die Entscheidung beeinflussen, ob Endanwender selbstständig Informationen gewinnen oder die IT-Abteilung konsultieren. Die Erwartungsnutzentheorie wird verwendet, um die Vor- und Nachteile der beiden Optionen zu modellieren. Besonderes Augenmerk wird auf die Herausforderungen gelegt, die durch mangelnde Datenkompetenz und Misstrauen gegenüber KI-generierten Informationen entstehen. Die Studie zeigt, dass Transparenz und Feintuning entscheidend sind, um den Erwartungsnutzen für Endanwender zu maximieren. Die Ergebnisse unterstreichen die Notwendigkeit, Transparenz in die Informationsgewinnung zu integrieren, um das Vertrauen der Endanwender zu stärken und die Effizienz von Conversational Business Analytics zu erhöhen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungBusiness Analytics beschäftigt sich mit der Umwandlung von Daten in handlungsrelevante Informationen zur Entscheidungsunterstützung. Ein zentrales Konzept in diesem Bereich ist Self-Service Analytics, das es Endanwendern ermöglicht, eigenständig Informationen zu generieren und flexibel auf sich verändernde Informationsbedarfe zu reagieren. Fortschritte in der Künstlichen Intelligenz, insbesondere im Bereich der natürlichen Sprachverarbeitung, leiten eine neue Ära der eigenständigen Informationsgenerierung ein. Mit Conversational Business Analytics (CBA) wird die Möglichkeit eröffnet, dass Endanwender in natürlicher Sprache Fragen stellen, Analysen anfordern oder Berichte erhalten, ohne tiefgehendes technisches Wissen zu besitzen. Diese Studie untersucht das Potenzial und die Grenzen von CBA, wobei der Fokus auf dem Spannungsfeld zwischen der Datenkompetenz der Endanwender, dem Feintuning großer Sprachmodelle (als ein möglicher Ansatz zur Leistungssteigerung von Künstlicher Intelligenz) und der Notwendigkeit zur Schaffung von Transparenz liegt. Es wird gezeigt, dass neben der Effektivität der Informationsgenerierung auch die Schaffung von Transparenz eine zentrale Rolle spielt. Nur so können valide Informationen identifiziert und in der Entscheidungsunterstützung genutzt werden. -
Kapitel 19. Der Interdisziplinarität auf der Spur – eine KL-basierte Rekonstruktion mit dem Algorithm of Neighborhood Generating (ANG)
Christina KlüverDer Beitrag befasst sich mit der interdisziplinären Forschung und der Anwendung des Algorithm of Neighborhood Generating (ANG) zur Analyse der Publikationen von Zelewski. Durch die Verwendung von ANG wird eine strukturierte Betrachtung der Beziehungen zwischen den Publikationen ermöglicht, wobei die Entwicklung interdisziplinärer Themen über drei Jahrzehnte hinweg nachvollzogen wird. Die Analyse deckt Methoden wie Expertensysteme, Petrinetze und Multiagentensysteme auf und zeigt, wie diese in betriebswirtschaftlichen und wissenschaftstheoretischen Kontexten eingesetzt wurden. Besonders hervorzuheben ist die Verwendung von ANG zur Generierung topologischer Strukturen und die detaillierte Untersuchung der Zusammenhänge zwischen den Publikationen. Dies ermöglicht eine tiefgehende Einblicke in die interdisziplinäre Forschung und deren praktische Anwendungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn Zeiten von Digitalisierung, Big Data und dem Einsatz von KI-Methoden in vielen Lebensbereichen wird interdisziplinäre Forschung geradezu vorausgesetzt. Doch was bedeutet Interdisziplinarität konkret und lässt sie sich rekonstruieren? In diesem Beitrag wird diesen Fragen mit einem „Algorithm of Neighborhood Generating“ (ANG), einer Methode des Artificial Life, nachgegangen, indem eine jahrzehntelange wissenschaftliche Arbeit exemplarisch nachgezeichnet und strukturiert wird. -
Kapitel 20. Wertgenerierung in Plattformökonomien und Determinanten zur Werteerstellung und -erfassung
Stefan Eicker, Robert Woroch, Gero StrobelDas Kapitel beleuchtet die zentrale Rolle von Plattformökonomien in der digitalen Transformation und wie Unternehmen durch den Einsatz digitaler Plattformen maßgebliche Wettbewerbsvorteile erzielen können. Es diskutiert die verschiedenen Perspektiven auf Unternehmensökosysteme, wie Marktplätze, Technologieplattformen und Dienstleistungsökosysteme, und erläutert die Mechanismen zur Steuerung der Wertgenerierung. Besondere Aufmerksamkeit wird der Wertschöpfung, ihrer Erfassung und der Offenheit der Plattform geschenkt. Der Beitrag schließt mit einer Schlussbetrachtung und einem Ausblick auf zukünftige Forschungsthemen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDigitale Plattformen haben sich dank ihres disruptiven Potenzials als führende Geschäftsmodelle in einer Vielzahl von Branchen etabliert. Dieser Beitrag beleuchtet die Entwicklung der Ökosystem-Metapher von ihren Ursprüngen bis zu ihrer Anpassung an den digitalen Wandel und diskutiert drei unterschiedliche Perspektiven auf moderne Unternehmensökosysteme. Darüber hinaus werden zentrale Treiber der Wertschöpfung in der Plattformökonomie vorgestellt, die als Instrumente zur Steuerung der Wertgenerierung dienen. Abschließend wird ein Ausblick auf zukünftige Forschungsfelder zur Wertschöpfung in plattformbasierten Ökosystemen gegeben.
-
- Titel
- Produktions- und Informationsmanagement
- Herausgegeben von
-
Reinhard Schütte
Susanne Hohmann
Bianca Krol
Malte L. Peters
- Copyright-Jahr
- 2024
- Electronic ISBN
- 978-3-658-46113-3
- Print ISBN
- 978-3-658-46112-6
- DOI
- https://doi.org/10.1007/978-3-658-46113-3
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.