Skip to main content
Top
Published in: Wirtschaftsinformatik & Management 3/2023

Open Access 15-06-2023 | Spektrum

Metaverse als Business-Chance – Perspektiven aus der Wirtschaftsinformatik

Authors: Tobias Dreesbach, Sergey Krutikov, Dr. Jannis Vogel, Prof. Dr. Oliver Thomas

Published in: Wirtschaftsinformatik & Management | Issue 3/2023

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Durch das Metaverse können im betrieblichen Bereich vollständig neue Arbeitswelten entstehen und die Zusammenarbeit von Mitarbeitenden sowie die Informationsbereitstellung verändern. Das Metaverse hat das Potenzial, sich als Innovation durch veränderte Prozesse, Produkte und Geschäftsmodelle in Unternehmen zu etablieren. Hierfür sind technische und wirtschaftliche Entwicklungen erforderlich, die dieser Beitrag aus der Perspektive der Wirtschaftsinformatik vorstellt. Die Entwicklungen verweisen auf aktuelle Trends bei der Entstehung des Metaverse, die derzeit einen geringen Reifegrad besitzen. Aus Sicht des Autorenteams ist das Festhalten an diesen Entwicklungen und deren zukünftige Adressierung bei der Entstehung des Metaverse entscheidend, damit das Metaverse eine echte Business-Chance für Unternehmen wird.

Einleitung

Das Metaverse ist eine Multiuser-Umgebung, die physische und digitale Welten durch Interaktionen mit virtuellen Umgebungen, digitalen Objekten und Menschen persistent zusammenführt [1]. Umgesetzt wird der Zugang zum Metaverse mit den Technologien Virtual Reality (VR) oder Augmented Reality (AR) oder der Kombination der beiden: Mixed Reality (MR) [1]. Die entsprechende Hardware, AR-, VR- oder MR-Brillen, dient der Visualisierung solcher virtuellen Umgebungen. Während AR die in Echtzeit stattfindende, visuelle Einblendung bzw. Überblendung von Objekten oder Inhalten in die physische Umgebung beschreibt, stellt VR eine rein computergenerierte, virtuelle Umgebung dar [2]. MR-Endgeräte, wie die Meta Quest Pro (Meta Platforms, Inc., Menlo Park, Kalifornien, USA), die Lynx R‑1 (Lynx Mixed Reality, Paris, Frankreich) oder die Pico 4 (ByteDance Ltd., Beijing, China), zielen darauf ab, die Eigenschaften von AR- und VR-Hardware zu vereinen. Besonders für Unternehmen erschließen diese Technologien immer mehr Möglichkeiten, Zeit und Ressourcen zu sparen, indem sie ihre Prozesse in virtuelle Umgebungen übertragen, um diese dort innovativer und interaktiver zu gestalten. Das Metaverse bietet eine Umgebung in der neue Anwendungsfälle entstehen. Zudem können bestehende betriebliche Aktivitäten innerhalb des Metaverse virtuell stattfinden. Für Unternehmen besteht die Frage, inwieweit aktuelle Trends und die Entwicklungen rund um die Entstehung des Metaverse verfolgt werden sollen. Denn einige Trends und Entwicklungen weisen derzeit noch einen geringen Reifegrad auf. Um AR-/VR-Technologien im Unternehmen einzusetzen und das Metaverse als Business-Chance zu nutzen, wird im Folgenden eine Einordnung von sechs Entwicklungsbereichen über Hard- und Software als auch über die Auswirkungen für Unternehmen zum Metaverse aus Sicht der Wirtschaftsinformatik aufgezeigt.

Mixed-Reality-Endgeräte bringen AR und VR in Einklang

Während sich das Aussehen von MR- und VR-Endgeräten ähnelt, beinhalten MR-Endgeräte durch Kameras und Sensoren zusätzlich die Möglichkeit eines Passthrough-Modus. Dieser ermöglicht die Projektion der physischen Umgebung in die virtuelle Realität. Abhängig von dem beabsichtigten Verhältnis zwischen physischen zu virtuellen Inhalten auf dem Bildschirm, können entweder durch eine manuelle Verortung virtuelle Objekte im physischen Raum platziert oder einzelne physische Objekte, zum Beispiel eine Tastatur, in die virtuelle Realität integriert werden. Das Verhältnis zwischen physischen und virtuellen Objekten wird durch die Anwendungen selbst festgelegt. Der Passthrough-Modus der Meta Quest Pro ermöglicht im Vergleich zu anderen verfügbaren Endgeräten einen farbigen Bildschirm-Stream der physischen Umgebung, in dem durch eine Tiefenwahrnehmung auch 3‑D-Effekte von virtuellen Objekten möglich sind. Objekte oder Oberflächen aus dem physischen Raum können mit virtuellen Inhalten kombiniert werden. In überwiegend virtuellen Umgebungen können physische Objekte und Oberflächen, wie Wände oder Tische, in das VR-Szenario eingebracht und auch für ein haptisches Feedback genutzt werden. Eine Limitation des Passthrough-Modus bleibt zurzeit jedoch noch eine geringe Auflösung.
Die Herausforderungen bei der Nutzung von AR-, VR- und MR-Geräten in Unternehmen weisen Überschneidungen auf. So lassen sich die Herausforderungen von AR-Endgeräten in die drei Bereiche Technik, Ergonomie und Organisation einordnen [3] und sich gut mit den Herausforderungen von VR- und MR-Geräten vergleichen. Bei allen Endgerätekategorien umfassen die technischen Beschränkungen eine begrenzte Rechenleistung und Visualisierungsqualität. Außerdem ist eine Raumverortung nur bei ausreichend hellen Lichtverhältnissen möglich. Ergonomisch führt die Nutzung aller Endgerätekategorien vereinzelt, und insbesondere bei mangelhaft umgesetzten Anwendungen, zu Schwindel, Kopfschmerzen und einer hohen physischen Belastung. Haben Unternehmen erste Anwendungsfälle identifiziert, ist im organisatorischen Bereich ein zeit- und kostenintensives Anfangsinvestment notwendig, um interne Kompetenzen aufzubauen, Akzeptanz zu schaffen und die Endgeräte in die IT-Infrastruktur einzubinden. Da MR-Endgeräte die Eigenschaften von AR- und VR-Brillen vereinen, könnten sie mit zukünftig zunehmender Auflösung AR- und VR-Brillen in einigen Anwendungsgebieten ablösen. Aufgrund der Vielzahl an frei verfügbaren AR-, VR- und MR-Geräten und des Mangels an Fachwissen sind Anschaffungen jedoch aktuell noch häufig mit Unsicherheit behaftet. Unternehmen sollten sich daher zunächst überlegen, welche Endgerätekategorie für sie als Einstieg den größtmöglichen Nutzen je nach Kunde, Produkt und Dienstleistung verspricht [4].

Interoperabilität und standardisierte Schnittstellen als Treiber

Die Digitalisierung hält seit Jahren immer weiter Einzug in Unternehmen und betrifft unterschiedliche Systeme, unter anderem Anlagen, Maschinen und Fahrzeuge. Die Interoperabilität von Daten innerhalb der vernetzten Systeme bedeutet, dass Informationen aller Systeme in einem einheitlichen Datenformat verarbeitet werden. Werden Daten von Anwendungen zusammengeführt und verarbeitet, sind somit keine Konvertierungsprozesse notwendig. Ebenso erleichtert es die Standardisierung von Schnittstellen, weitere Systeme in einen Informationsverbund einzugliedern. Denn standardisierte Schnittstellen beinhalten festgelegte Datentypen und -strukturen. Während einheitliche Datenaustauschformate und standardisierte Schnittstellen in Bereichen wie der Produktion oder Logistik bereits nach und nach in der Praxis etabliert werden, befinden sie sich für AR- und VR-Umgebungen noch in der Aufbauphase. Dennoch gibt es bereits erste Schnittstellen, die eine Kompatibilität von virtuellen Inhalten unabhängig vom Gerätetyp oder dem Betriebssystem ermöglichen. OpenXR ist zum Beispiel eine lizenzfreie und offene Schnittstelle, die den Zugriff auf unterschiedliche AR- und VR-Geräte standardisiert [5]. Weiterhin bietet das Mixed-Reality-Toolkit (MRTK) von Microsoft vorgefertigte virtuelle Inhalte und Funktionalitäten für die Entwicklung, um diese beliebig in AR- und VR-Anwendungen zu integrieren [6]. Das von Pixar entwickelte Universal Scene Description (USD) ermöglicht ein gemeinsames Arbeiten an 3‑D-Szenen über mehrere 3‑D-Programme hinweg. Ähnlich wie der HTML-Standard bei Webanwendungen, bietet USD ein einfach erweiterbares Open-Source-Framework für den Austausch von 3‑D-Grafikdaten [7]. Durch die damit verbundene Wiederverwendbarkeit von entwickelten Inhalten ergeben sich zahlreiche neue Anwendungsfälle. Beispielsweise könnten in einer VR-Lernumgebung im Rahmen der betrieblichen Aus- und Fortbildung (Corporate Learning) Arbeitsaufgaben an Anlagen und Maschinen vorab trainiert werden, bevor eine AR-Lernanwendung weiterführende Inhalte zur Unterstützung der Arbeitsausführung situationsbedingt an der physischen Maschine bereitstellt. Mögliche weiterführende Inhalte umfassen Maschinenzustände sowie Programm- und Prozessinformationen. In einer Endstufe der Entwicklung ergeben sich für VR- und AR-Anwendungen keine zwei getrennten Anwendungen, sondern eine gemeinsame Welt im Metaverse [1]. Ähnlich dem Gedanken von digitalen Zwillingen entsteht ein zeitgleicher Datenübergang in der physischen, erweiterten und virtuellen Realität. Werden Herausforderungen hinsichtlich der Interoperabilität und standardisierter Schnittstellen zukünftig erfüllt, bildet das Metaverse entsprechend eine Basis für neue Dienste und Geschäftsmodelle. Es eröffnet kooperatives Zusammenarbeiten mit echten Daten trotz räumlicher Trennung. Im Remote-Support können spezialisierte Fachkräfte entfernte Orte erreichen und zeitnah Unterstützung leisten. Unter anderem können sie eine Anleitung zur Reparatur oder Ansteuerung von Maschinen, Anlagen und Fahrzeugen geben oder die Steuerung aus der Ferne vollständig selbst übernehmen. Durch kurzzeitige Teleportationen in der virtuellen Realität können virtuelle Trainingszentren eine Vielzahl von Umgebungen und Systemen bereitstellen, um einen ersten Eindruck von Unternehmen und deren Prozessen über die gesamte Wertschöpfungskette hinweg zu vermitteln. Für Logistikprozesse eröffnet das Metaverse neue Möglichkeiten, Routenplanungen in der virtuellen Realität bereitzustellen, die Positionen von Gütern und Fahrzeugen nachzuhalten oder AR-Inhalte an Be- und Entladepunkten bereitzustellen. Im Dienstleistungssektor können Produktvorführungen ergänzend zu Veranstaltungen im Unternehmen auch ins Metaverse übertragen werden. Dies ist bereits in einem frühen Produktstadium möglich, da lediglich die digitalen Daten eines Produkts benötigt werden.

Augmented-Reality-Cloud als Momentum für Unternehmen

Der Begriff AR-Cloud bezieht sich auf eine digitale Ebene, die über die physische Realität gelegt und mit persistenten AR-Inhalten anwendungs- und geräteübergreifend angereichert wird. Entscheidend dabei ist, dass die AR-Inhalte, unabhängig von der aktuellen Ausrichtung bzw. dem internen Koordinatensystem des Geräts, für alle an der gleichen physischen Position visualisiert werden (Abb. 1). Google und Microsoft sind unter den ersten Anbietern, die mit ihren Cloud Anchors bzw. Azure Spatial Anchors physische Orte mit AR-Inhalten verbinden, indem über die Gerätekamera eine 3‑D-Karte der Umgebung als wiedererkennbarer Anker mit eindeutiger ID erstellt wird und AR-Inhalte innerhalb dieser Umgebung platziert werden [8]. Die Anker definieren jedoch nur die Position der AR-Inhalte, nicht die AR-Inhalte selbst. Weitere Geräte, die sich innerhalb der Umgebung befinden, erkennen die Umgebung beim Abgleich mit der Cloud und visualisieren die in der Umgebung verfügbaren AR-Inhalte analog dazu innerhalb der Umgebung [8]. Bezogen auf das Metaverse ist abzuwarten, ob die etablierten AR-Cloud-Anbieter zukünftig ein standardisiertes Format für diese räumlichen Anker entwickeln, um eine persistente und gemeinsam genutzte Welt zu schaffen, in der die virtuelle, erweiterte und physische Realität zusammengeführt wird.

Multiuser- und Co-Location-Anwendungen im Arbeitsalltag und in vielen Lernbereichen

Die kurze Historie konsumentenorientierter AR-/VR-Endgeräte startet maßgeblich mit der Konsumentenversion der Oculus Rift im Jahr 2016. Im Zeitraum 2016 bis 2019 wurden AR-/VR-Anwendungen primär als Einzelanwendung im betrieblichen Bereich umgesetzt. Ursächlich hierfür waren hohe Anschaffungskosten der Endgeräte und eine deutliche Immobilität, bedingt durch die Notwendigkeit eines leistungsfähigen Rechners beziehungsweise Laptops, Trackingsysteme und einen in der Regel festen Absteckungsbereich von mindestens 2 × 2 Metern. Dies führte dazu, dass Unternehmen lediglich in eine geringe Anzahl an AR-/VR-Systemen investierten und sich eine zusätzliche Entwicklung für ein Mehrbenutzersystem nicht lohnte.
Den Wendepunkt kennzeichnet die Verfügbarkeit günstiger Standalone-VR-Endgeräte im Jahr 2019, die unter anderem mit der Oculus Quest (heute Meta Quest) eine hohe Verbreitung erreichten. Folglich wurden hohe Anschaffungskosten sowie Immobilität als Hindernisse überwunden. Weitere zusätzliche Funktionalitäten wie Handtracking, Facetracking und Eyetracking ermöglichen mit Gesten, Gesichtsausdrücken und Blickrichtungen soziale Interaktionen in der virtuellen Welt. Zusätzlich wird die hohe Verbreitung durch verschiedenste softwareseitige Anbieter in einem sich entwickelndem AR-VR-Ökosystem [9] unterstützt. Beispielsweise kann die Erstellung individueller Avatare mit verschiedenen Software Development Kits (SDKs), wie beispielsweise dem Meta Avatars SDK, realisiert werden, sodass ein „digitaler Zwilling“ der eigenen Person entsteht. Die individuellen Avatare bieten eine neue Form der Kommunikation. Anwendungsbereiche entstehen überall dort, wo Menschen kollaborieren (vgl. Abb. 2). Beispielsweise ermöglicht Microsoft Mesh die ortsverteilte Kollaboration im virtuellen Raum mit AR-, VR-, desktopbasierten oder mobilen Endgeräten. Mögliche Einsatzszenarien umfassen das gemeinsame Lernen oder das gemeinsame Gestalten von 3‑D-Entwürfen im Engineering [10]. Zur Unterstützung der Zusammenarbeit können digitale Whiteboards oder kreativitätsfördernde Techniken, wie Design Thinking [11], in virtuellen Veranstaltungs- und Meetingräumen bereitgestellt werden.
Neben der zunehmenden Verbreitung ortsverteilter AR-/VR-Anwendungen werden sogenannte Co-Location-Anwendungen den Nutzen von Multiusersystemen voraussichtlich vorantreiben. Co-Location bezeichnet dabei die gemeinsame Verwendung von AR-/VR-Inhalten an einem physikalischen Ort. Beispielsweise befinden sich zwei VR-Nutzende in einem Büro und entwerfen gemeinsam einen Bebauungsplan auf dem Bürotisch. Durch die Interoperabilität und die AR-Cloud kann dieser Bebauungsplan ebenso in eine AR-Anwendung überführt und dauerhaft auf dem Tisch persistiert werden.

Synergien zwischen virtuellen Welten und künstlicher Intelligenz

Ein großer Bereich der KI-Lösungen basiert auf maschinellem Lernen, das große Datenmengen für das Training und die Ausführung von Modellen benötigt. Je nach Geschäftsbereich sind große Datenbestände für Unternehmen jedoch schwer bis unmöglich zu beschaffen. Virtuelle Welten bieten die Möglichkeit, solche Datenbestände innerhalb der virtuellen Umgebung zu erzeugen, indem physische Prozesse simuliert werden (vgl. Abb. 3). Die Verwendung synthetischer Datensätze aus virtuellen Umgebungen wurde bereits in Feldversuchen getestet, unter anderem mit halbautonomen Fahrzeugen oder der sozialen Distanzierung in Arbeitsbereichen [12]. Die Gestaltung und der simulierte Betrieb einer Umgebung ist zum Beispiel durch NVIDIA Omniverse möglich, einer Plattform zum Erstellen und Betreiben von Metaverse-Anwendungen [7]: Hier können unter anderem unterschiedliche Varianten einer Roboteranlage in einem Betrieb generiert und mittels KI die optimale Variante ausgewählt werden. Das Bestimmen des optimalen Verhaltens einzelner Akteure innerhalb einer virtuellen Umgebung, wie etwa einem Roboter in Produktionsanlagen oder einem selbstfahrenden Transportfahrzeug in der Logistik, ermöglicht beispielsweise das Unity ML-Agents Toolkit [13], welches Akteure durch Agenten repräsentiert und mit den Methoden des maschinellen Lernens direkt in einer virtuellen Umgebung trainiert.
In AR-, VR- und MR-Anwendungen kann KI dabei unterstützen, Flächen und Kanten der physischen Umgebung zu erkennen, damit die Maße von physischen Gegenständen in die virtuelle Umgebung übertragen werden. Das erlaubt nicht nur eine Platzierung virtueller Gegenstände mit hoher räumlicher Genauigkeit, sondern auch das Erstellen eines kompletten Abbilds der echten Umgebung, sodass diese mit anderen Nutzenden geteilt werden kann. Ein Beispiel einer solchen Implementierung ist die Anwendung SyncReality [14].
Im Bereich der Aus- und Weiterbildung können AR-, VR- und MR-Anwendungen Lernpfade aufzeichnen, damit sie anschließend mithilfe von KI-Methoden analysiert werden und ein optimaler Lernablauf bestimmt werden kann. Im medizinischen Bereich können außerdem kognitive Fähigkeiten mithilfe von AR oder VR erfasst und anschließend mit einem KI-System ausgewertet werden. Moderne AR- und VR-Geräte bieten durch Eyetracking die Möglichkeit, die Blickrichtung zu verfolgen. Diese Daten können beispielsweise dazu dienen zu bestimmen, wie gut das Gelernte verstanden wurde.

Authoring-Tools für akzeptierte und skalierbare Anwendungen

Um neue AR- und VR-Anwendungen zu entwickeln, sind in der Regel Software- und Programmierkenntnisse sowie einschlägige AR- oder VR-Erfahrungen notwendig. Die Generierung von AR- und VR-Inhalten benötigt jedoch nicht zwangsläufig eine grundsätzliche Neuentwicklung bis hin zu einer individuell bereitgestellten Anwendung. Sogenannte Authoring-Tools (deutsch: Autorenwerkzeuge) bieten die Möglichkeit, innerhalb eines vordefinierten Funktionsumfangs schnell und ohne Programmierkenntnisse akzeptierte und skalierbare Anwendungen zu erschaffen. Authoring-Tools sind Entwicklungsumgebungen, die Domänenanwendende ohne Implementierungskenntnisse dabei unterstützen, Softwareinhalte selbst zu gestalten. Je nach Anwendung und Bereich wird häufig auch von Low-Code-Anwendungen gesprochen, mit denen die Generierung der Inhalte, genau wie bei Authoring-Tools, anhand verständlicher und überwiegend grafischer Modellierung erfolgt. Ein Vorteil von Authoring-Tools ist die flexible und schnelle Anpassung der erstellten Inhalte an veränderte Prozesse oder Gegebenheiten. Durch die vom Authoring-Tool bereitgestellte Infrastruktur können Anwendungen innerhalb kurzer Zeit bereitgestellt und auch skaliert werden.
Authoring-Tools für AR-Anwendungen stellen bereits vorgefertigte AR-Inhalte bereit, die in ihrer Form, ihrem Design und den zu vermittelnden Inhalten angepasst werden können [15]. AR-Inhalte sind unterschiedliche zwei- und dreidimensionale virtuelle Objekte wie Pfeile, Modelle, Bauteildaten, Texte oder Bilder. In didaktisch aufbereiteten Lernszenarien werden auch Avatare oder geschlossene Aufgabenformate (beispielsweise Multiple-Choice-Aufgaben) eingesetzt, die individuell ausgestaltet und anschließend in der physischen Umgebung platziert werden können [15]. Durch die Auswahl, Anpassung und Anordnung der AR-Inhalte in einem Low-Code-Authoring-Tool entstehen innerhalb kurzer Zeit ausführbare und domänenspezifische AR-basierte Prozesse. Auch für VR-basierte Anwendungen können Domänenanwendende über entsprechende Authoring-Tools VR-basierte Lerneinheiten erschaffen, eigene VR-Workshops kreieren oder als kreativitätsfördernde Maßnahme auch VR-Umgebungen dynamisch innerhalb eines Teams gestalten [11]. Die Generierung und Anpassung der AR-/VR-Inhalte erfolgt entweder separat in einer webbasierten Anwendung [15] oder direkt auf dem AR-/VR-Endgerät [11].

Fazit

Das Metaverse vereint die physische, erweiterte und virtuelle Realität. Für Unternehmen bietet das Metaverse die Möglichkeit, interne Prozesse in unterschiedlichen Unternehmensbereichen zu verbessern, aber auch Chancen für neue Produkte, Dienstleistungen und Geschäftsmodelle. Beispielsweise können Unternehmen durch die AR-Cloud lokal platzierte Informationen zukünftig über AR-Endgeräte bereitstellen. Low-Code-Authoring-Tools können dabei helfen, domänenspezifische Anwendungen zu entwickeln und zu skalieren. KI-Lösungen unterstützen dabei, virtuelle Welten aufzubauen und Datenbestände zu erzeugen, durch die wiederum physische Prozesse optimiert werden können. Für den breitenwirksamen Aufbau des Metaverse muss jedoch die Interoperabilität zwischen den Realitäten verbessert werden, um einen nahtlosen Informationsübergang zu gewährleisten. Trotz bestehender Herausforderungen, die physische, erweiterte und virtuelle Realität in Unternehmensprozesse zu integrieren, zeigt dieser Beitrag durch sechs Entwicklungsbereiche die Potenziale des Metaverse auf.
Kernthesen
  • Kernthese 1: Durch Mixed-Reality-Endgeräte mit Passthrough-Modus, die die Eigenschaften von AR- und VR-Brillen vereinen, entstehen neue Anwendungsszenarien, die ein direktes Wechseln zwischen erweiterten und virtuellen Arbeitswelten ermöglichen.
  • Kernthese 2: Interoperabilität und standardisierte Schnittstellen verbessern den Informationsaustausch zwischen der physischen, erweiterten und virtuellen Realität.
  • Kernthese 3: Zur Überwindung einmaliger, betrieblicher AR-/VR-Insellösungen ist der Einsatz von Authoring-Tools für akzeptierte und skalierbare Anwendungen entscheidend.
Handlungsempfehlungen
  • Trends und Entwicklung des Metaverse für das eigene Unternehmen bewerten
  • Forschungs- und Netzwerkpartnerschaften aufbauen
  • Anwendungsfälle identifizieren und interne Kompetenzen aufbauen
Zusammenfassung
  • Das Metaverse ermöglicht eine persistente Informationsbereitstellung zeitgleich in der physischen, erweiterten und virtuellen Realität.
  • Das Metaverse eröffnet neue Möglichkeiten für interne Prozessverbesserungen, neue Produkte, Dienstleistungen und Geschäftsmodelle.
  • Aktuelle Trends bei der Entstehung des Metaverse haben derzeit noch einen geringen Reifegrad, eröffnen zukünftig jedoch neue Business-Chancen.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Our product recommendations

WIRTSCHAFTSINFORMATIK

WI – WIRTSCHAFTSINFORMATIK – ist das Kommunikations-, Präsentations- und Diskussionsforum für alle Wirtschaftsinformatiker im deutschsprachigen Raum. Über 30 Herausgeber garantieren das hohe redaktionelle Niveau und den praktischen Nutzen für den Leser.

Business & Information Systems Engineering

BISE (Business & Information Systems Engineering) is an international scholarly and double-blind peer-reviewed journal that publishes scientific research on the effective and efficient design and utilization of information systems by individuals, groups, enterprises, and society for the improvement of social welfare.

Wirtschaftsinformatik & Management

Texte auf dem Stand der wissenschaftlichen Forschung, für Praktiker verständlich aufbereitet. Diese Idee ist die Basis von „Wirtschaftsinformatik & Management“ kurz WuM. So soll der Wissenstransfer von Universität zu Unternehmen gefördert werden.

Literature
2.
go back to reference Vogel, J., Koßmann, C., Schuir, J., Kleine, N., & Sievering, J. (2020). Virtual- und Augmented-Reality-Definitionen im interdisziplinären Vergleich. In O. Thomas & I. Ickerott (Hrsg.), Smart Glas. Augment. Real. zur Unterstützung von Logistikdienstleistungen (S. 19–50). Berlin, Heidelberg: Springer. https://doi.org/10.1007/978-3-662-62153-0_2.CrossRef Vogel, J., Koßmann, C., Schuir, J., Kleine, N., & Sievering, J. (2020). Virtual- und Augmented-Reality-Definitionen im interdisziplinären Vergleich. In O. Thomas & I. Ickerott (Hrsg.), Smart Glas. Augment. Real. zur Unterstützung von Logistikdienstleistungen (S. 19–50). Berlin, Heidelberg: Springer. https://​doi.​org/​10.​1007/​978-3-662-62153-0_​2.CrossRef
9.
go back to reference Schuir, J., Vogel, J., Teuteberg, F., & Thomas, O. (2020). Understanding the augmented and virtual reality business ecosystem: an e3-value approach BT—business modeling and software design. In B. Shishkov (Hrsg.), (S. 240–256). Cham: Springer.CrossRef Schuir, J., Vogel, J., Teuteberg, F., & Thomas, O. (2020). Understanding the augmented and virtual reality business ecosystem: an e3-value approach BT—business modeling and software design. In B. Shishkov (Hrsg.), (S. 240–256). Cham: Springer.CrossRef
11.
go back to reference Vogel, J., Schuir, J., Koßmann, C., Thomas, O., Teuteberg, F., & Hamborg, K.-C. (2021). Let’s do design thinking virtually. ECIS 2021. Vogel, J., Schuir, J., Koßmann, C., Thomas, O., Teuteberg, F., & Hamborg, K.-C. (2021). Let’s do design thinking virtually. ECIS 2021.
12.
go back to reference Mukhopadhyay, A., Rajshekar Reddy, G. S., Mukherjee, I., Gopa, K. G., Pena-Rios, A., & Biswas, P. (2021). Generating synthetic data for deep learning using VR digital twin. Proc. 2021. 5th Int. Conf. Cloud Big Data Comput., New York, NY, USA. (S. 52–56). Association for Computing Machinery. https://doi.org/10.1145/3481646.3481655.CrossRef Mukhopadhyay, A., Rajshekar Reddy, G. S., Mukherjee, I., Gopa, K. G., Pena-Rios, A., & Biswas, P. (2021). Generating synthetic data for deep learning using VR digital twin. Proc. 2021. 5th Int. Conf. Cloud Big Data Comput., New York, NY, USA. (S. 52–56). Association for Computing Machinery. https://​doi.​org/​10.​1145/​3481646.​3481655.CrossRef
Metadata
Title
Metaverse als Business-Chance – Perspektiven aus der Wirtschaftsinformatik
Authors
Tobias Dreesbach
Sergey Krutikov
Dr. Jannis Vogel
Prof. Dr. Oliver Thomas
Publication date
15-06-2023
Publisher
Springer Fachmedien Wiesbaden
Published in
Wirtschaftsinformatik & Management / Issue 3/2023
Print ISSN: 1867-5905
Electronic ISSN: 1867-5913
DOI
https://doi.org/10.1365/s35764-023-00469-z

Other articles of this Issue 3/2023

Wirtschaftsinformatik & Management 3/2023 Go to the issue

Premium Partner