Zum Inhalt

Big Data in Economics and Management

  • Open Access
  • 2026
  • Open Access
  • Buch

Über dieses Buch

Mit der raschen Entwicklung von Big Data ergeben sich drei große Herausforderungen im Bereich Wirtschaft und Management. Die erste Herausforderung besteht darin, dass die traditionellen korrelationsbasierten Methoden nicht im Wesentlichen die wahre Philosophie unter den wirtschaftlichen Aktivitäten offenbaren können. Die Modellierung und Schlussfolgerung der kausalen Beziehung ist von entscheidender Bedeutung, um die wesentlichen Auswirkungen bestimmter Wirtschafts- und Managementstrategien zu entdecken. Die zweite ist, dass die Rechenlast extrem hoch wird und die Schätzgenauigkeit verloren geht, wenn die Datenskala groß ist. Die dritte ist, dass Finanzinstitute normalerweise zehntausende von Vermögenswerten halten, was die Risikobewertung von Portfolios sehr rechenintensiv macht. Dieses Buch diskutiert drei fortgeschrittene Themen der modernen Ökonomie und des Managements: kausale Folgerungen, Berechnung und Entscheidungen von Finanzmodellen und finanzielles Risikomanagement. Der erste Teil des Buches stellt den kontrafaktischen Rahmen für kausale Folgerungen in Beobachtungsstudien vor und definiert wichtige kausale Parameter sowohl unter diskreten als auch unter kontinuierlichen Behandlungen. Der zweite Teil konzentriert sich auf die Berechnungen, die mit dem Finanzmodell und seiner daraus resultierenden Entscheidungsfindung verbunden sind. Der dritte Teil untersucht die verschachtelte Simulationsmethode zur Portfoliorisikomessung und führt die neuronale Netzwerkmethodik für Marktrisikoprognosen ein. Das Ziel dieses Buches ist die Bereitstellung innovativer Methoden und rigoroser Theorie zur Lösung fortgeschrittener Probleme in Wirtschaft und Management, wie etwa der Programm- / Politikbewertung, der effizienten Berechnung ökonometrischer Modelle und des Finanzrisikomanagements. Dieses Buch wird akademische Forscher und Doktoranden ansprechen. Praktiker könnten dieses Buch ebenfalls hilfreich finden. Dies ist ein Open-Access-Buch.

Inhaltsverzeichnis

  1. Causal Inference in Economics

    1. Frontmatter

    2. Chapter 1. Causal Inference for a Discrete Treatment

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Dieses Kapitel untersucht das grundlegende Rahmenwerk kausaler Folgerungen und konzentriert sich auf den potenziellen Outcome-Ansatz zur Bewertung von Behandlungseffekten sowohl in randomisierten als auch in Beobachtungsstudien. Es beginnt mit der Einführung der Kernkonzepte potenzieller Ergebnisse, Konsistenz und der Annahme stabiler Behandlungswerte (SUTVA), die für die Definition kausaler Effekte wie des durchschnittlichen Behandlungseffekts (ATE) unverzichtbar sind. Der Text hebt die Grenzen randomisierter kontrollierter Studien (RCTs) hervor, einschließlich ethischer Bedenken und Fragen der Repräsentativität von Stichproben, und betont die wachsende Bedeutung von Beobachtungsstudien im Zeitalter von Big Data. Ein wesentlicher Teil des Kapitels widmet sich der Behebung verwirrender Verzerrungen in Beobachtungsdaten durch die Unverwechselbarkeits- und Positivitätsbedingungen, die die Identifizierung kausaler Effekte ermöglichen. Anschließend vertieft er sich in fortgeschrittene Schätztechniken, darunter Kalibrierungsgewichtungsmethoden, die Kovariaten ausgleichen, um Voreingenommenheit zu reduzieren, und den Einsatz neuronaler Netzwerke, um hochdimensionale Verwirrer ohne den Fluch der Dimensionalität zu handhaben. Das Kapitel führt auch semi-überwachte Lernansätze ein, die ungekennzeichnete Daten nutzen, um die Schätzeffizienz zu verbessern, insbesondere wenn gekennzeichnete Daten knapp sind. Praktische Anwendungen und Simulationsstudien belegen die Wirksamkeit dieser Methoden und zeigen ihre Robustheit und Effizienz im Vergleich zu herkömmlichen Schätzern. Das Kapitel schließt mit einer Fallstudie über die kausalen Auswirkungen des Rauchens auf den BMI, die die praktischen Herausforderungen des Verwechselns und die Bedeutung fortgeschrittener kausaler Folgerungstechniken für die Schlüsse aus Beobachtungsdaten veranschaulicht.
      PDF-Version jetzt herunterladen
    3. Chapter 2. Causal Inference for a Continuous Treatment

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Dieses Kapitel vertieft die Komplexität kausaler Schlussfolgerungen, wenn die Behandlungsvariable kontinuierlich und nicht binär ist, ein Szenario, das in der realen Welt häufig ist. Zunächst werden die Grenzen traditioneller diskreter Behandlungsmodelle skizziert, bei denen die Behandlungsintensität ignoriert wird, und die Bedeutung der Berücksichtigung der Intensität in Bereichen wie Gesundheit, Finanzen und öffentlicher Ordnung betont. Das Kapitel stellt eine parametrische Kausaleffektfunktion vor und diskutiert ihre Identifikationsherausforderungen, insbesondere den Selektionsbias, der entsteht, wenn die Behandlungszuweisung von beobachteten Kovarianten abhängt. Um diesem Problem zu begegnen, wird ein einheitliches Rahmenwerk auf der Grundlage stabilisierter Gewichte und kovarianter Ausgewogenheit präsentiert, das zeigt, wie diese Gewichte Selektionsverzerrungen korrigieren und die Identifizierung kausaler Effekte aus beobachteten Daten ermöglichen können. Der Text untersucht dann semiparametrische Effizienzgrenzen und bietet eine theoretische Grundlage für die Abschätzung kausaler Effekte mit minimaler Varianz. Eine Schlüsselinnovation ist die Einführung der maximalen Entropiegewichtung, die Beschränkungen für stabilisierte Gewichte zur Effizienzverbesserung umfasst, zusammen mit Siebanpassungen, um die unendliche Dimension des Problems zu bewältigen. Das Kapitel behandelt auch Modellspezifikationstests, um die Validität parametrischer Annahmen sicherzustellen, und erweitert den Rahmen auf nichtparametrische Schätzungen von Dosis-Wirkungskurven, durchschnittlichen Behandlungseffekten und Verteilungseffekten. Praktische Anwendungen werden durch eine empirische Studie über den Einfluss politischer Werbung auf Wahlkampfspenden veranschaulicht, in der binäre und kontinuierliche Behandlungsmodelle verglichen werden. Die Ergebnisse unterstreichen, wie wichtig es ist, die Behandlungsintensität zu berücksichtigen und die potenziellen Fallstricke einer zu starken Vereinfachung kontinuierlicher Behandlungen in binäre Kategorien. Dieses Kapitel bietet einen umfassenden und theoretisch rigorosen Ansatz und stattet die Leser mit den Werkzeugen aus, um kausale Folgerungsprobleme in Umgebungen anzugehen, in denen die Behandlungsintensität eine entscheidende Rolle spielt.
      PDF-Version jetzt herunterladen
    4. Chapter 3. Causal Inference with Measurement Errors

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Dieses Kapitel befasst sich mit dem weit verbreiteten Problem der Messfehler in empirischen Studien, wo beobachtete Daten aufgrund zufälliger Fehler oft nicht das wahre Behandlungsniveau widerspiegeln. Sie führt ein nichtparametrisches Rahmenwerk zur Schätzung der durchschnittlichen Dosis-Wirkungsfunktion (ADRF) ein, wenn die Behandlung mit klassischem Fehler gemessen wird, was bedeutet, dass Forscher nur eine kontaminierte Version der wahren Behandlung beobachten. Der Kern des Kapitels dreht sich um den Dekonvolution-Kernel-Ansatz, der diese Fehler korrigiert, indem er das Fourier-Inversionstheorem nutzt, um die Dichte der nicht beobachtbaren wahren Behandlung abzuschätzen. Der Autor untersucht die Identifizierung des ADRF unter üblichen kausalen Folgerungsannahmen wie Unverwechselbarkeit und Fehlerfreiheit, während er sich den praktischen Herausforderungen unbekannter Messfehlerverteilungen widmet. Eine Schlüsselinnovation liegt in der Verwendung von Siebannäherungen zur Schätzung von Gewichtsfunktionen, wodurch die Ableitung konsistenter Schätzer auch dann möglich ist, wenn die wahre Behandlung nicht beobachtet werden kann. Das Kapitel geht auch auf die asymptotischen Eigenschaften dieser Schätzer ein, unterscheidet zwischen gewöhnlichen Messfehlern bei glatten und superglatten Messungen und gibt Hinweise zur Auswahl von Glättungsparametern, um die Leistung zu optimieren. Praktische Anwendungen werden anhand eines Beispiels aus realen Daten anhand von NHANES-I-Daten veranschaulicht, in denen die kausale Wirkung der Aufnahme gesättigter Fettsäuren auf das Brustkrebsrisiko unter verschiedenen Fehlervarianzszenarien geschätzt wird. Die Ergebnisse zeigen einen konsistenten Trend: Mit zunehmender Aufnahme gesättigter Fettsäuren verringert sich das geschätzte Brustkrebsrisiko, wobei man sich an frühere Befunde anlehnt, aber durch Berücksichtigung von Messfehlern ein differenzierteres Verständnis bietet. Das Kapitel schließt mit einer Diskussion der Beschränkungen und potenziellen Verzerrungen in den Daten, wobei die Bedeutung einer vorsichtigen Interpretation betont wird. Für Fachleute, die ihre kausalen Folgerungsmethoden verfeinern möchten, bietet dieses Kapitel ein umfassendes Toolkit, das Theorie und Praxis verbindet und es zu einer unverzichtbaren Lektüre für alle macht, die in der Forschung oder Politikanalyse mit fehleranfälligen Daten arbeiten.
      PDF-Version jetzt herunterladen
  2. Financial Model Computing and Decisions

    1. Frontmatter

    2. Chapter 4. Efficient Computing for High-Dimensional Econometric Models

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Dieses Kapitel vertieft sich in die Feinheiten der Entwicklung effizienter Rechenalgorithmen für hochdimensionale ökonometrische Modelle, wobei der Schwerpunkt auf Portfoliooptimierung und Quantilregression liegt. Es beginnt mit der Erforschung der Grenzen traditioneller Methoden, wie der Theorie der mittleren Varianz des Portfolios, die häufig aufgrund von Schätzfehlern und Rechenineffizienzen unter hochdimensionalen Bedingungen ins Wanken geraten. Der Text stellt den Schätzer Linear Programming Optimal (LPO) und seine Anwendung bei der Portfolioallokation vor und hebt die Herausforderungen durch ultrahochdimensionale Daten und die Notwendigkeit eingeschränkter Optimierungstechniken hervor. Es wird ein neuartiger Asset-Splitting-Algorithmus vorgestellt, der auf der Drei-Block-Methode Alternating Direction Method of Multiplikators (ADMM) basiert, der parallele Berechnungen ermöglicht und die Verarbeitungszeit deutlich reduziert, während Konvergenzgarantien eingehalten werden. Das Kapitel befasst sich auch mit der Komplexität der bestraften Quantilregression (PQR), insbesondere in ultrahochdimensionalen Kontexten, in denen Unglätte und Nichtkonvexität die Optimierung erschweren. Um diesen Herausforderungen zu begegnen, werden Feature-Splitting-Algorithmen vorgeschlagen, die skalierbare Lösungen anbieten, die bestehende Methoden sowohl hinsichtlich Recheneffizienz als auch Modellgenauigkeit übertreffen. Die Algorithmen werden anhand umfangreicher Simulationsstudien und realer Datenbeispiele demonstriert und zeigen ihre Fähigkeit, mit riesigen Datensätzen mühelos umzugehen. Zu den zentralen Schwerpunkten zählen die theoretischen Grundlagen der vorgeschlagenen Methoden, ihre praktische Umsetzung und die empirische Validierung ihrer Leistung. Das Kapitel schließt mit einer Diskussion über die umfassenderen Auswirkungen dieser Algorithmen auf die ökonometrische Forschung, wobei ihr Potenzial hervorgehoben wird, die Finanzmodellierung und statistische Analyse zu revolutionieren, indem Werkzeuge bereitgestellt werden, die sowohl leistungsstark als auch zugänglich sind.
      PDF-Version jetzt herunterladen
  3. Financial Risk Management

    1. Frontmatter

    2. Chapter 5. Bootstrap-Based Budget Allocation for Nested Simulation

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Die verschachtelte Simulation ist ein entscheidendes Werkzeug in der Betriebsforschung und finanziellen Risikobewertung und ermöglicht die Abschätzung komplexer Risikokennzahlen wie Value-at-Risk (VaR) und Conditional Value-at-Risk (CVaR). Herkömmliche verschachtelte Simulationsmethoden haben jedoch häufig mit ineffizienter Budgetallokation zwischen äußerer und innerer Simulationsebene zu kämpfen, was zu suboptimaler Genauigkeit oder übermäßigem Rechenaufwand führt. Dieses Kapitel stellt eine bahnbrechende Lösung vor: eine stichprobengestützte Budgetzuweisungsregel, die die Stichprobengrößen auf Außen- und Innenebene dynamisch anpasst, basierend auf Bootstrap-Sampling und der Regression der kleinsten Quadrate. Die Methode beginnt mit der Generierung erster Stichproben von Risikofaktoren und Verlusten und nutzt dann Bootstrap-Techniken, um unbekannte Parameter abzuschätzen, die die optimale Allokation beeinflussen. Durch die Anpassung von Regressionsmodellen an Bootstrap-Schätzungen werden Konstanten abgeleitet, die den Allokationsprozess leiten, wodurch ein minimaler asymptotischer Mittelwert im Quadrat (MSE) für den Schätzer gewährleistet wird. Der Ansatz ist vielseitig, er berücksichtigt verschiedene Formen von Risikokennzahlen - von quadratischen Verfolgungsfehlern bis hin zur Wahrscheinlichkeit großer Verluste - und ist über verschiedene Verteilungen von Risikofaktoren und Verlusten anwendbar. Das Kapitel befasst sich auch mit der Herausforderung, Konfidenzintervalle in verschachtelten Simulationen zu konstruieren, und bietet einen Rahmen, der asymptotische Voreingenommenheit berücksichtigt. Die praktischen Umsetzungsdetails werden skizziert, darunter die Auswahl der ersten Stichprobengrößen und rechnerische Überlegungen, was diese Methode sowohl theoretisch robust als auch rechnerisch effizient macht. Für Fachleute, die die Präzision und Effizienz verschachtelter Simulationen in der Risikobewertung verbessern wollen, bietet dieses Kapitel einen transformativen Ansatz, der Theorie und Praxis verbindet.
      PDF-Version jetzt herunterladen
    3. Chapter 6. Constructing Confidence Intervals for Nested Simulation

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Dieses Kapitel untersucht systematisch die Konstruktion von Konfidenzintervallen (CIs) für verschachtelte Simulationen, einer kritischen Technik für Risikobewertung, Finanzmodellierung und Entscheidungsfindung unter Unsicherheit. Es beginnt mit der Einführung der fünf Schlüsselformulierungen verschachtelter Simulationsschätzer, die jeweils auf unterschiedliche quantilbasierte Metriken zugeschnitten sind - wie Value-at-Risk (VaR) und Conditional Value-at-Risk (CVaR) - und untersucht ihre Konvergenzeigenschaften anhand detaillierter Lemmata. Der Kern der Diskussion dreht sich um Zentrale Grenzwerttheoreme (CLTs), die das optimale asymptotische Verhalten dieser Schätzer bestimmen und aufzeigen, wie Voreingenommenheit und Varianzkompromisse ausgeglichen werden können, um einen minimalen mittleren Quadratfehler (MSE) zu erreichen. Anschließend wird ein einheitliches Konfidenzintervall-Framework (UCI) eingeführt, das nicht nur die Schätzung von Bias-Konstanten vereinfacht, sondern auch sicherstellt, dass die resultierenden Intervalle die bestmöglichen Konvergenzraten für ihre Breite erreichen. In diesem Kapitel wird die praktische Umsetzung dieses Rahmenwerks näher beschrieben, einschließlich schrittweiser Algorithmen zur Schätzung von Bias-Korrekturen mittels Bootstrap-Methoden und stichprobengetriebener Haushaltszuweisungsregeln. Insbesondere wird hervorgehoben, wie der Ansatz der UCI herkömmliche Methoden übertrifft, indem er die Notwendigkeit von Ad-hoc-Bias-Korrekturen eliminiert und asymptotisch gültige Intervalle selbst in komplexen Szenarien bereitstellt. Für Fachleute, die mit verschachtelten Simulationen arbeiten, bietet dieses Kapitel ein leistungsstarkes Werkzeugset, um die Zuverlässigkeit und Präzision ihrer statistischen Schätzungen zu verbessern und theoretische Strenge mit umsetzbaren Erkenntnissen zu verbinden.
      PDF-Version jetzt herunterladen
    4. Chapter 7. Deep Probabilistic Forecasting for Market Risks

      • Open Access
      Zheng Zhang, Kun Zhang, Xing Yan, Songshan Yang, Yuqian Zhang
      Dieses Kapitel untersucht die entscheidende Herausforderung, extreme Marktrisiken vorherzusagen - Ereignisse, die zwar selten sind, aber die Finanzsysteme destabilisieren können. Traditionelle Modelle wie GARCH tun sich schwer, den asymmetrischen, schwerfälligen Charakter der Vermögensrenditen zu erfassen, insbesondere in ihren linken Schwänzen, wo systemische Risiken lauern. Der Text führt einen bahnbrechenden semiparametrischen Ansatz ein, der die Flexibilität rezidivierender neuronaler Netzwerke (LSTMs) mit einer neuartigen Heavy-Tail-Quantile-Funktion (HTQF) verbindet. Dieses Hybridmodell erlernt komplexe, nichtlineare Abhängigkeiten in historischen Daten, während es Schweifverhalten ermöglicht, sich im Laufe der Zeit dynamisch zu entwickeln. Zu den Schlüsselerkenntnissen gehört die Identifizierung des Langzeitgedächtnisses in höheren Momenten (Schiefe und Kurtosis) und extremen Quantitäten, die sich von Volatilitätsclustern unterscheiden - eine Einschränkung konventioneller Modelle. Durch Simulationsstudien und empirische Analysen realer Marktdaten (z.B. NASDAQ 100) zeigen die Autoren, wie diese Methode herkömmliche Ansätze bei der Vorhersage nahezu extremer Preisbewegungen und Schwankungsrisiken übertrifft. Das Kapitel befasst sich auch mit der Black-Box-Natur neuronaler Netzwerke, indem es eine statistisch interpretierbare Quantilfunktion integriert, die die Lücke zwischen maschinellem Lernen und Risikomanagement überbrückt. Für Fachleute, die sich mit der Unvorhersehbarkeit von Finanzkrisen auseinandersetzen, bietet dieses Kapitel einen datengestützten Werkzeugkasten, um Tail-Risiken mit beispielloser Präzision zu antizipieren und abzumildern.
      PDF-Version jetzt herunterladen
Titel
Big Data in Economics and Management
Verfasst von
Zheng Zhang
Kun Zhang
Xing Yan
Songshan Yang
Yuqian Zhang
Copyright-Jahr
2026
Verlag
Springer Nature Singapore
Electronic ISBN
978-981-9531-25-7
Print ISBN
978-981-9531-24-0
DOI
https://doi.org/10.1007/978-981-95-3125-7

Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.