Big Data in Economics and Management
- Open Access
- 2026
- Open Access
- Buch
- Verfasst von
- Zheng Zhang
- Kun Zhang
- Xing Yan
- Songshan Yang
- Yuqian Zhang
- Buchreihe
- Statistics and Big Data
- Verlag
- Springer Nature Singapore
Über dieses Buch
Über dieses Buch
With the rapid development of big data, three major challenges arise in the field of economics and management. The first challenge is that the traditional correlation-based methods cannot essentially reveal the true philosophy under the economic activities, modelling and inferring the causal relationship is paramount for discovering the essential effect of certain economic and management policies. The second one is that the computational burden becomes extremely high and the estimation accuracy is lost when the data scale is large. The third one is that financial institutions typically hold tens of thousands of assets, making portfolio risk assessment very computationally intensive.
This book discusses three advanced topics in modern economics and management: causal inference, financial model computing and decisions, and financial risk management. The first part of the book introduces the counterfactual framework for causal inference in observational studies and defines important causal parameters under both discrete and continuous treatments. The second part focuses on the computations associated with the financial model and its consequent decision making. The third part studies the nested simulation method for portfolio risk measurement and introduces the neural network methodology for market risk forecasting.
The goal of this book is to provide cutting-edge methodologies and rigorous theory to solve advanced problems in economics and management, such as program/policy evaluation, efficient computation of econometric models, and financial risk management. This book will be appealing to academic researchers and graduate students. Practitioners may also find this book helpful.
This is an open access book.
Inhaltsverzeichnis
-
Causal Inference in Economics
-
Frontmatter
-
Chapter 1. Causal Inference for a Discrete Treatment
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel untersucht das grundlegende Rahmenwerk kausaler Folgerungen und konzentriert sich auf den potenziellen Outcome-Ansatz zur Bewertung von Behandlungseffekten sowohl in randomisierten als auch in Beobachtungsstudien. Es beginnt mit der Einführung der Kernkonzepte potenzieller Ergebnisse, Konsistenz und der Annahme stabiler Behandlungswerte (SUTVA), die für die Definition kausaler Effekte wie des durchschnittlichen Behandlungseffekts (ATE) unverzichtbar sind. Der Text hebt die Grenzen randomisierter kontrollierter Studien (RCTs) hervor, einschließlich ethischer Bedenken und Fragen der Repräsentativität von Stichproben, und betont die wachsende Bedeutung von Beobachtungsstudien im Zeitalter von Big Data. Ein wesentlicher Teil des Kapitels widmet sich der Behebung verwirrender Verzerrungen in Beobachtungsdaten durch die Unverwechselbarkeits- und Positivitätsbedingungen, die die Identifizierung kausaler Effekte ermöglichen. Anschließend vertieft er sich in fortgeschrittene Schätztechniken, darunter Kalibrierungsgewichtungsmethoden, die Kovariaten ausgleichen, um Voreingenommenheit zu reduzieren, und den Einsatz neuronaler Netzwerke, um hochdimensionale Verwirrer ohne den Fluch der Dimensionalität zu handhaben. Das Kapitel führt auch semi-überwachte Lernansätze ein, die ungekennzeichnete Daten nutzen, um die Schätzeffizienz zu verbessern, insbesondere wenn gekennzeichnete Daten knapp sind. Praktische Anwendungen und Simulationsstudien belegen die Wirksamkeit dieser Methoden und zeigen ihre Robustheit und Effizienz im Vergleich zu herkömmlichen Schätzern. Das Kapitel schließt mit einer Fallstudie über die kausalen Auswirkungen des Rauchens auf den BMI, die die praktischen Herausforderungen des Verwechselns und die Bedeutung fortgeschrittener kausaler Folgerungstechniken für die Schlüsse aus Beobachtungsdaten veranschaulicht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractEvaluating the causal effect of a treatment or intervention on an outcome of interest is a fundamental statistical problem. This problem is pervasive across various disciplines, such as economics, political science, psychology, biomedical science, and numerous others. For instance, economists hope to examine the effect of enrolling in a job training program on the future earning. -
Chapter 2. Causal Inference for a Continuous Treatment
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel vertieft die Komplexität kausaler Schlussfolgerungen, wenn die Behandlungsvariable kontinuierlich und nicht binär ist, ein Szenario, das in der realen Welt häufig ist. Zunächst werden die Grenzen traditioneller diskreter Behandlungsmodelle skizziert, bei denen die Behandlungsintensität ignoriert wird, und die Bedeutung der Berücksichtigung der Intensität in Bereichen wie Gesundheit, Finanzen und öffentlicher Ordnung betont. Das Kapitel stellt eine parametrische Kausaleffektfunktion vor und diskutiert ihre Identifikationsherausforderungen, insbesondere den Selektionsbias, der entsteht, wenn die Behandlungszuweisung von beobachteten Kovarianten abhängt. Um diesem Problem zu begegnen, wird ein einheitliches Rahmenwerk auf der Grundlage stabilisierter Gewichte und kovarianter Ausgewogenheit präsentiert, das zeigt, wie diese Gewichte Selektionsverzerrungen korrigieren und die Identifizierung kausaler Effekte aus beobachteten Daten ermöglichen können. Der Text untersucht dann semiparametrische Effizienzgrenzen und bietet eine theoretische Grundlage für die Abschätzung kausaler Effekte mit minimaler Varianz. Eine Schlüsselinnovation ist die Einführung der maximalen Entropiegewichtung, die Beschränkungen für stabilisierte Gewichte zur Effizienzverbesserung umfasst, zusammen mit Siebanpassungen, um die unendliche Dimension des Problems zu bewältigen. Das Kapitel behandelt auch Modellspezifikationstests, um die Validität parametrischer Annahmen sicherzustellen, und erweitert den Rahmen auf nichtparametrische Schätzungen von Dosis-Wirkungskurven, durchschnittlichen Behandlungseffekten und Verteilungseffekten. Praktische Anwendungen werden durch eine empirische Studie über den Einfluss politischer Werbung auf Wahlkampfspenden veranschaulicht, in der binäre und kontinuierliche Behandlungsmodelle verglichen werden. Die Ergebnisse unterstreichen, wie wichtig es ist, die Behandlungsintensität zu berücksichtigen und die potenziellen Fallstricke einer zu starken Vereinfachung kontinuierlicher Behandlungen in binäre Kategorien. Dieses Kapitel bietet einen umfassenden und theoretisch rigorosen Ansatz und stattet die Leser mit den Werkzeugen aus, um kausale Folgerungsprobleme in Umgebungen anzugehen, in denen die Behandlungsintensität eine entscheidende Rolle spielt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractChapter 1 focuses on the discrete treatment where an individual, ignoring the treatment intensity. In many applications, however, the treatment intensity is a part of the treatment, and its causal effect is also of great interest to decision-makers. -
Chapter 3. Causal Inference with Measurement Errors
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel befasst sich mit dem weit verbreiteten Problem der Messfehler in empirischen Studien, wo beobachtete Daten aufgrund zufälliger Fehler oft nicht das wahre Behandlungsniveau widerspiegeln. Sie führt ein nichtparametrisches Rahmenwerk zur Schätzung der durchschnittlichen Dosis-Wirkungsfunktion (ADRF) ein, wenn die Behandlung mit klassischem Fehler gemessen wird, was bedeutet, dass Forscher nur eine kontaminierte Version der wahren Behandlung beobachten. Der Kern des Kapitels dreht sich um den Dekonvolution-Kernel-Ansatz, der diese Fehler korrigiert, indem er das Fourier-Inversionstheorem nutzt, um die Dichte der nicht beobachtbaren wahren Behandlung abzuschätzen. Der Autor untersucht die Identifizierung des ADRF unter üblichen kausalen Folgerungsannahmen wie Unverwechselbarkeit und Fehlerfreiheit, während er sich den praktischen Herausforderungen unbekannter Messfehlerverteilungen widmet. Eine Schlüsselinnovation liegt in der Verwendung von Siebannäherungen zur Schätzung von Gewichtsfunktionen, wodurch die Ableitung konsistenter Schätzer auch dann möglich ist, wenn die wahre Behandlung nicht beobachtet werden kann. Das Kapitel geht auch auf die asymptotischen Eigenschaften dieser Schätzer ein, unterscheidet zwischen gewöhnlichen Messfehlern bei glatten und superglatten Messungen und gibt Hinweise zur Auswahl von Glättungsparametern, um die Leistung zu optimieren. Praktische Anwendungen werden anhand eines Beispiels aus realen Daten anhand von NHANES-I-Daten veranschaulicht, in denen die kausale Wirkung der Aufnahme gesättigter Fettsäuren auf das Brustkrebsrisiko unter verschiedenen Fehlervarianzszenarien geschätzt wird. Die Ergebnisse zeigen einen konsistenten Trend: Mit zunehmender Aufnahme gesättigter Fettsäuren verringert sich das geschätzte Brustkrebsrisiko, wobei man sich an frühere Befunde anlehnt, aber durch Berücksichtigung von Messfehlern ein differenzierteres Verständnis bietet. Das Kapitel schließt mit einer Diskussion der Beschränkungen und potenziellen Verzerrungen in den Daten, wobei die Bedeutung einer vorsichtigen Interpretation betont wird. Für Fachleute, die ihre kausalen Folgerungsmethoden verfeinern möchten, bietet dieses Kapitel ein umfassendes Toolkit, das Theorie und Praxis verbindet und es zu einer unverzichtbaren Lektüre für alle macht, die in der Forschung oder Politikanalyse mit fehleranfälligen Daten arbeiten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn many empirical studies, it may not be available to observe the accurate data. For instance, [1] indicated that over 75% of the variance in fat intake data from the Epidemiologic Study Cohort in NHANES-I stems from measurement error. This chapter focuses on continuous treatment data measured with classical error, where researchers only observe the sum of the treatment and a random error, rather than the actual treatment received.
-
-
Financial Model Computing and Decisions
-
Frontmatter
-
Chapter 4. Efficient Computing for High-Dimensional Econometric Models
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel vertieft sich in die Feinheiten der Entwicklung effizienter Rechenalgorithmen für hochdimensionale ökonometrische Modelle, wobei der Schwerpunkt auf Portfoliooptimierung und Quantilregression liegt. Es beginnt mit der Erforschung der Grenzen traditioneller Methoden, wie der Theorie der mittleren Varianz des Portfolios, die häufig aufgrund von Schätzfehlern und Rechenineffizienzen unter hochdimensionalen Bedingungen ins Wanken geraten. Der Text stellt den Schätzer Linear Programming Optimal (LPO) und seine Anwendung bei der Portfolioallokation vor und hebt die Herausforderungen durch ultrahochdimensionale Daten und die Notwendigkeit eingeschränkter Optimierungstechniken hervor. Es wird ein neuartiger Asset-Splitting-Algorithmus vorgestellt, der auf der Drei-Block-Methode Alternating Direction Method of Multiplikators (ADMM) basiert, der parallele Berechnungen ermöglicht und die Verarbeitungszeit deutlich reduziert, während Konvergenzgarantien eingehalten werden. Das Kapitel befasst sich auch mit der Komplexität der bestraften Quantilregression (PQR), insbesondere in ultrahochdimensionalen Kontexten, in denen Unglätte und Nichtkonvexität die Optimierung erschweren. Um diesen Herausforderungen zu begegnen, werden Feature-Splitting-Algorithmen vorgeschlagen, die skalierbare Lösungen anbieten, die bestehende Methoden sowohl hinsichtlich Recheneffizienz als auch Modellgenauigkeit übertreffen. Die Algorithmen werden anhand umfangreicher Simulationsstudien und realer Datenbeispiele demonstriert und zeigen ihre Fähigkeit, mit riesigen Datensätzen mühelos umzugehen. Zu den zentralen Schwerpunkten zählen die theoretischen Grundlagen der vorgeschlagenen Methoden, ihre praktische Umsetzung und die empirische Validierung ihrer Leistung. Das Kapitel schließt mit einer Diskussion über die umfassenderen Auswirkungen dieser Algorithmen auf die ökonometrische Forschung, wobei ihr Potenzial hervorgehoben wird, die Finanzmodellierung und statistische Analyse zu revolutionieren, indem Werkzeuge bereitgestellt werden, die sowohl leistungsstark als auch zugänglich sind.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWith the development of science and technology, high-dimensional data are widely applied in the research of econometrics. Designing efficient computing algorithm for high-dimensional econometric models become more and more important recently. Portfolio optimization and quantile regression (QR) are two fundamental pillars in econometrics and finance, respectively. This chapter focuses on introducing efficient computing algorithms for these two models.
-
-
Financial Risk Management
-
Frontmatter
-
Chapter 5. Bootstrap-Based Budget Allocation for Nested Simulation
- Open Access
PDF-Version jetzt herunterladenDie verschachtelte Simulation ist ein entscheidendes Werkzeug in der Betriebsforschung und finanziellen Risikobewertung und ermöglicht die Abschätzung komplexer Risikokennzahlen wie Value-at-Risk (VaR) und Conditional Value-at-Risk (CVaR). Herkömmliche verschachtelte Simulationsmethoden haben jedoch häufig mit ineffizienter Budgetallokation zwischen äußerer und innerer Simulationsebene zu kämpfen, was zu suboptimaler Genauigkeit oder übermäßigem Rechenaufwand führt. Dieses Kapitel stellt eine bahnbrechende Lösung vor: eine stichprobengestützte Budgetzuweisungsregel, die die Stichprobengrößen auf Außen- und Innenebene dynamisch anpasst, basierend auf Bootstrap-Sampling und der Regression der kleinsten Quadrate. Die Methode beginnt mit der Generierung erster Stichproben von Risikofaktoren und Verlusten und nutzt dann Bootstrap-Techniken, um unbekannte Parameter abzuschätzen, die die optimale Allokation beeinflussen. Durch die Anpassung von Regressionsmodellen an Bootstrap-Schätzungen werden Konstanten abgeleitet, die den Allokationsprozess leiten, wodurch ein minimaler asymptotischer Mittelwert im Quadrat (MSE) für den Schätzer gewährleistet wird. Der Ansatz ist vielseitig, er berücksichtigt verschiedene Formen von Risikokennzahlen - von quadratischen Verfolgungsfehlern bis hin zur Wahrscheinlichkeit großer Verluste - und ist über verschiedene Verteilungen von Risikofaktoren und Verlusten anwendbar. Das Kapitel befasst sich auch mit der Herausforderung, Konfidenzintervalle in verschachtelten Simulationen zu konstruieren, und bietet einen Rahmen, der asymptotische Voreingenommenheit berücksichtigt. Die praktischen Umsetzungsdetails werden skizziert, darunter die Auswahl der ersten Stichprobengrößen und rechnerische Überlegungen, was diese Methode sowohl theoretisch robust als auch rechnerisch effizient macht. Für Fachleute, die die Präzision und Effizienz verschachtelter Simulationen in der Risikobewertung verbessern wollen, bietet dieses Kapitel einen transformativen Ansatz, der Theorie und Praxis verbindet.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractNested simulation refers to the problem of estimating a functional of a conditional expectation that cannot be evaluated analytically but requires simulation. -
Chapter 6. Constructing Confidence Intervals for Nested Simulation
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel untersucht systematisch die Konstruktion von Konfidenzintervallen (CIs) für verschachtelte Simulationen, einer kritischen Technik für Risikobewertung, Finanzmodellierung und Entscheidungsfindung unter Unsicherheit. Es beginnt mit der Einführung der fünf Schlüsselformulierungen verschachtelter Simulationsschätzer, die jeweils auf unterschiedliche quantilbasierte Metriken zugeschnitten sind - wie Value-at-Risk (VaR) und Conditional Value-at-Risk (CVaR) - und untersucht ihre Konvergenzeigenschaften anhand detaillierter Lemmata. Der Kern der Diskussion dreht sich um Zentrale Grenzwerttheoreme (CLTs), die das optimale asymptotische Verhalten dieser Schätzer bestimmen und aufzeigen, wie Voreingenommenheit und Varianzkompromisse ausgeglichen werden können, um einen minimalen mittleren Quadratfehler (MSE) zu erreichen. Anschließend wird ein einheitliches Konfidenzintervall-Framework (UCI) eingeführt, das nicht nur die Schätzung von Bias-Konstanten vereinfacht, sondern auch sicherstellt, dass die resultierenden Intervalle die bestmöglichen Konvergenzraten für ihre Breite erreichen. In diesem Kapitel wird die praktische Umsetzung dieses Rahmenwerks näher beschrieben, einschließlich schrittweiser Algorithmen zur Schätzung von Bias-Korrekturen mittels Bootstrap-Methoden und stichprobengetriebener Haushaltszuweisungsregeln. Insbesondere wird hervorgehoben, wie der Ansatz der UCI herkömmliche Methoden übertrifft, indem er die Notwendigkeit von Ad-hoc-Bias-Korrekturen eliminiert und asymptotisch gültige Intervalle selbst in komplexen Szenarien bereitstellt. Für Fachleute, die mit verschachtelten Simulationen arbeiten, bietet dieses Kapitel ein leistungsstarkes Werkzeugset, um die Zuverlässigkeit und Präzision ihrer statistischen Schätzungen zu verbessern und theoretische Strenge mit umsetzbaren Erkenntnissen zu verbinden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn the last chapter, we introduced the budget allocation rule for the nested simulation point estimator. In this chapter, we shift to focus on the construction of the confidence interval of nested simulation, which is proposed in [1]. -
Chapter 7. Deep Probabilistic Forecasting for Market Risks
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel untersucht die entscheidende Herausforderung, extreme Marktrisiken vorherzusagen - Ereignisse, die zwar selten sind, aber die Finanzsysteme destabilisieren können. Traditionelle Modelle wie GARCH tun sich schwer, den asymmetrischen, schwerfälligen Charakter der Vermögensrenditen zu erfassen, insbesondere in ihren linken Schwänzen, wo systemische Risiken lauern. Der Text führt einen bahnbrechenden semiparametrischen Ansatz ein, der die Flexibilität rezidivierender neuronaler Netzwerke (LSTMs) mit einer neuartigen Heavy-Tail-Quantile-Funktion (HTQF) verbindet. Dieses Hybridmodell erlernt komplexe, nichtlineare Abhängigkeiten in historischen Daten, während es Schweifverhalten ermöglicht, sich im Laufe der Zeit dynamisch zu entwickeln. Zu den Schlüsselerkenntnissen gehört die Identifizierung des Langzeitgedächtnisses in höheren Momenten (Schiefe und Kurtosis) und extremen Quantitäten, die sich von Volatilitätsclustern unterscheiden - eine Einschränkung konventioneller Modelle. Durch Simulationsstudien und empirische Analysen realer Marktdaten (z.B. NASDAQ 100) zeigen die Autoren, wie diese Methode herkömmliche Ansätze bei der Vorhersage nahezu extremer Preisbewegungen und Schwankungsrisiken übertrifft. Das Kapitel befasst sich auch mit der Black-Box-Natur neuronaler Netzwerke, indem es eine statistisch interpretierbare Quantilfunktion integriert, die die Lücke zwischen maschinellem Lernen und Risikomanagement überbrückt. Für Fachleute, die sich mit der Unvorhersehbarkeit von Finanzkrisen auseinandersetzen, bietet dieses Kapitel einen datengestützten Werkzeugkasten, um Tail-Risiken mit beispielloser Präzision zu antizipieren und abzumildern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter first introduces a conditional quantile model that is capable of capturing both long-term and short-term dependencies in sequential data. The model is built upon the framework of sequential neural networks and is designed to capture interpretable dynamics. It is applied to time series data of asset returns from the 1960s to 2018. The analysis reveals that the model is effective in extracting not only the serial dependence structure in conditional volatility but also the latent memories in the tails of return distributions. The proposed model demonstrates superior performance compared to the GARCH family, as well as models such as filtered historical simulation, conditional extreme value theory, and dynamic quantile regression. These results suggest that the conditional quantiles of asset returns are influenced by risk sources that are distinct from those responsible for volatility clustering. These findings have significant implications for risk management, particularly in the context of forecasting tail risks.After these, in this chapter, we then introduce a novel, succinct, and effective approach for distribution prediction aimed at quantifying uncertainty in machine learning. Our method adaptively produces flexible distribution prediction of \(\mathbb {P}(\textbf{y}|\textbf{X}=x)\) in regression tasks. Specifically, we enhance the quantiles of this conditional distribution with probability levels spreading over the interval (0, 1), using additive models that we have designed with intuition and interpretability. Our approach seeks to achieve an adaptive balance between the structural integrity and the flexibility of \(\mathbb {P}(\textbf{y}|\textbf{X}=x)\). We observe that the Gaussian assumption often results in a lack of flexibility for real-world data, and approaches that are highly flexible (e.g., estimating quantiles separately without a distribution structure) may have inherent drawbacks and potentially lead to suboptimal generalization. To address these challenges, we propose an ensemble multi-quantiles approach, termed EMQ, which is entirely data-driven. EMQ is capable of gradually deviating from the Gaussian assumption and discovering the optimal conditional distribution during the boosting process. We evaluate the performance of EMQ on a wide range of regression tasks using UCI datasets and demonstrate that it achieves state-of-the-art performance compared to many recent uncertainty quantification methods. Furthermore, our visualization results underscore the necessity and the merits of such an ensemble model in capturing the underlying distributional characteristics of the data effectively.
-
- Titel
- Big Data in Economics and Management
- Verfasst von
-
Zheng Zhang
Kun Zhang
Xing Yan
Songshan Yang
Yuqian Zhang
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Singapore
- Electronic ISBN
- 978-981-9531-25-7
- Print ISBN
- 978-981-9531-24-0
- DOI
- https://doi.org/10.1007/978-981-95-3125-7
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.