Applied Statistics and Multivariate Data Analysis for Business and Economics
A Modern Approach Using R, SPSS, Stata, and Excel
- 2025
- Buch
- Verfasst von
- Thomas Cleff
- Buchreihe
- Springer Texts in Business and Economics
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This comprehensive textbook equips students of economics and business, as well as industry professionals, with essential principles, techniques, and applications of applied statistics, statistical testing, and multivariate data analysis. Through real-world business examples, it illustrates the practical use of univariate, bivariate, and multivariate statistical methods.
The content spans a broad range of topics, from data collection and scaling to the presentation and fundamental univariate analysis of quantitative data, while also demonstrating advanced analytical techniques for exploring multivariate relationships. The book systematically covers all topics typically included in university-level courses on statistics and advanced applied data analysis. Beyond theoretical discussion, it offers hands-on guidance for using statistical software tools such as Excel, SPSS, Stata, and R.
In this completely revised and updated second edition, new sections on logistic regression are included, along with enhanced examples and solutions using R for all covered statistical methods. This edition provides a robust resource for mastering applied statistics in both academic and professional settings.
Inhaltsverzeichnis
-
Frontmatter
-
Chapter 1. Statistics and Empirical Research
Thomas CleffDas Kapitel vertieft sich in die Komplexität der Statistik und empirischen Forschung, indem es sich dem verbreiteten Misstrauen gegenüber Statistiken und der Bedeutung genauer statistischer Methoden widmet. Er diskutiert die historische Entwicklung statistischer Techniken, die Unterscheidung zwischen deskriptiver und induktiver Statistik und die entscheidende Rolle statistischer Modelle bei der Entscheidungsfindung. Der Text betont auch die Notwendigkeit, gegen statistische Trugschlüsse wachsam zu sein und die Bedeutung einer angemessenen statistischen Ausbildung zur Verbesserung der beruflichen Kompetenz.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis text explores the dual nature of statistics as both a powerful tool for generating knowledge and a potential source of misleading or false conclusions. It addresses the common skepticism surrounding statistical methods by discussing their essential role in various fields, including economics, business, and empirical research. The text highlights the importance of understanding the proper use of statistics, differentiating between valid statistical analysis and pseudo-statistics, and recognizing the limitations and potential manipulations that can occur. Through historical context, the development of statistical methods is traced, and the text outlines the fundamental phases of empirical research, emphasizing the critical role of both descriptive and inductive statistics in knowledge generation and decision-making. -
Chapter 2. From Disarray to Dataset
Thomas CleffVon der Sicherstellung, dass Ihr Computer für statistische Analysen bereit ist, bis hin zur Auswahl der richtigen Software bietet dieses Kapitel einen praktischen Leitfaden für Datenanalytiker und Forscher. Es vergleicht beliebte Statistiksoftware wie R, SPSS, Stata und Excel und hebt ihre Stärken und Schwächen hervor. Darüber hinaus vertieft es sich in die entscheidenden Schritte der Datenerhebung, Messskalen und der Handhabung fehlender Werte, was es zu einer unverzichtbaren Lektüre für jeden macht, der sich mit der Analyse statistischer Daten beschäftigt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter covers the basic steps required for effective statistical and multivariate data analysis, starting with preparing the appropriate software environment. It emphasizes the importance of selecting the right tools—such as Excel, SPSS, Stata, or R—based on the complexity of the analysis, user expertise, and budget considerations. The chapter also covers key aspects of data collection, handling missing values and dealing with outliers. It outlines the different levels of measurement (nominal, ordinal, and cardinal) and their importance in determining the appropriate statistical methods. Through practical exercises, the chapter guides the reader in applying these concepts to real-world data analysis scenarios. -
Chapter 3. Univariate Data Analysis
Thomas CleffDas Kapitel "Univariate Data Analysis" vertieft sich in die Anfangsphase der Datenanalyse, wobei der Schwerpunkt auf der univariaten Analyse liegt. Am Beispiel einer Übersicht über Brotaufstriche wird gezeigt, wie jede Variable einzeln untersucht werden kann. Dazu müssen Messgrößen wie Mittelwert und Median berechnet und visuelle Darstellungen wie Häufigkeitstabellen und Histogramme erstellt werden. Das Kapitel diskutiert auch die Bedeutung von Statistiken bei der Zusammenfassung von Daten und hebt die potenziellen Probleme und Verzerrungen hervor, die sich aus verschiedenen Methoden der Datendarstellung ergeben können. Er betont die Notwendigkeit einer sorgfältigen Interpretation der Daten, um irreführende Schlussfolgerungen zu vermeiden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter introduces univariate data analysis, focusing on the first steps of examining individual variables within a data set. It covers various methods of summarizing and visualizing data, including frequency tables, bar charts, pie charts, and histograms. The chapter also explores key statistical measures such as central tendency (mean, median, mode), dispersion (range, variance, standard deviation), skewness, and kurtosis. It emphasizes the importance of selecting and interpreting these measures correctly to avoid misrepresentation of data. Practical examples and graphical representations are used throughout to illustrate the concepts. The chapter also covers calculating univariate parameters using statistical software including R, SPSS, Stata, and Excel. -
Chapter 4. Bivariate Association
Thomas CleffDas Kapitel vertieft sich in die bivariate Assoziationsanalyse, einen grundlegenden Aspekt der Datenanalyse, der über die univariate Untersuchung hinausgeht. Es werden Methoden zur Beurteilung von Assoziationen zwischen nominalen, ordinalen und metrischen Variablen unter Verwendung von Hilfsmitteln wie Eventualitätstabellen, Chi-Quadrat-Berechnungen und Korrelationskoeffizienten diskutiert. Der Text untersucht auch die Anwendung dieser Methoden in verschiedenen Softwaretools wie SPSS, R und Excel und liefert praktische Beispiele und Interpretationen. Darüber hinaus befasst er sich mit dem Konzept der falschen Korrelationen und betont, wie wichtig es ist, die zugrunde liegenden Ursachen von Datenbeziehungen zu verstehen. Das Kapitel soll die Fähigkeit des Lesers verbessern, bivariate Daten effektiv zu analysieren und zu interpretieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter explores bivariate analysis, focusing on the association and correlation between two variables. It introduces different methods for measuring associations based on different combinations of scales, including nominal, ordinal, and metric variables. Important techniques are covered include contingency tables, chi-squared tests, Pearson’s correlation, Spearman’s rho, Kendall’s tau, and Cramer’s V. The chapter also addresses potential problems such as spurious correlations. Practical examples show how to apply these methods using statistical software such as SPSS, Stata, R and Excel. -
Chapter 5. Classical Measurement Theory
Thomas CleffDas Kapitel vertieft sich in die klassische Messtheorie und beleuchtet die grundlegenden Techniken der deskriptiven und folgernden Statistik. Er diskutiert die Entwicklung statistischer Methoden von der Pionierarbeit früher Denker wie Jacob Bernoulli und Thomas Bayes bis hin zu modernen Anwendungen. Ein zentraler Schwerpunkt ist die Unterscheidung zwischen deskriptiven Statistiken, die Daten aus Grundgesamtheiten zusammenfassen, und folgernden Statistiken, die Vorhersagen auf der Grundlage von Stichproben treffen. Das Kapitel untersucht auch die Herausforderungen der Abtastung von Fehlern, veranschaulicht durch den berüchtigten Misserfolg der Literary Digest-Umfrage von 1936, und Nichtsampling-Fehlern, die Daten durch verschiedene Faktoren wie das Verhalten der Befragten und die Voreingenommenheit der Interviewer verzerren können. Es bietet Strategien zur Abmilderung dieser Fehler und betont die Bedeutung repräsentativer Stichproben und sorgfältiger Methoden zur Datenerhebung. Indem man sich dieser Komplexität annimmt, gibt das Kapitel den Forschern die Instrumente an die Hand, um die Zuverlässigkeit und Validität ihrer Ergebnisse zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter covers classical measurement theory, which underpins both descriptive and inferential statistics. It emphasises the importance of stable and valid measurements, acknowledging the inevitability of random errors, but also highlighting the dangers of systematic errors. The chapter also discusses different types of sampling errors, distinguishing between nonprobability and probability sampling methods, and nonsampling errors that may occur during data collection, including response and non-response errors. -
Chapter 6. Calculating Probability
Thomas CleffDas Kapitel "Berechnung der Wahrscheinlichkeit" geht auf die Feinheiten der Wahrscheinlichkeitsberechnung ein und beginnt mit einer Erklärung, warum häufig Stichproben anstelle der Erfassung von Daten einer ganzen Grundgesamtheit verwendet werden. Es stellt Schlüsselbegriffe wie Ergebnisse, elementare Ereignisse, Beispielraum und Ereigniskombinationen vor. Das Kapitel untersucht dann die drei wichtigsten Herangehensweisen an die Wahrscheinlichkeit: klassische, statistische und subjektive, wobei jeder seine eigene Methode zur Quantifizierung der Wahrscheinlichkeit hat. Die klassische Wahrscheinlichkeit geht von der gleichen Wahrscheinlichkeit aller Ergebnisse aus, während die statistische Wahrscheinlichkeit auf relativen Häufigkeiten beruht. Die subjektive Wahrscheinlichkeit hingegen beruht auf individuellen Einschätzungen. Das Kapitel behandelt auch die grundlegenden Regeln für die Berechnung der Wahrscheinlichkeit, einschließlich der Verwendung von Wahrscheinlichkeitsbäumen und Kombinatorik. Es schließt mit einer Diskussion der bedingten Wahrscheinlichkeit und des Bayes'schen Theorems, die eine solide Grundlage für das Verständnis der Wahrscheinlichkeitsberechnung in verschiedenen Zusammenhängen bilden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter provides a comprehensive introduction to the theory of probability, focusing on key concepts such as sample spaces, elementary events, and the different approaches to probability—classical, statistical, and subjective. It explains the basic rules of probability, including adding and multiplying, and explores combinatorial methods such as permutations, combinations, and variations. The chapter also covers conditional probability, the law of total probability and Bayes’ theorem, using practical examples such as the Monty Hall problem to illustrate complex concepts. -
Chapter 7. Random Variables and Probability Distributions
Thomas CleffDas Kapitel behandelt Zufallsvariablen und Wahrscheinlichkeitsverteilungen und betont ihre Rolle bei der Festlegung von Schlussfolgerungen über Populationen aus Stichprobendaten. Aufbauend auf dem bisherigen Wissen über Wahrscheinlichkeitsprinzipien werden diskrete und kontinuierliche Verteilungen eingeführt, wobei der Schwerpunkt auf Binomial-, Poisson- und Normalverteilungen liegt. Der Text bietet detaillierte Erläuterungen zu jeder Verteilung, einschließlich ihrer Formeln und Anwendungen, und praktische Anleitungen zur Wahrscheinlichkeitsberechnung mittels Excel und Stata. Darüber hinaus unterstreicht er die Bedeutung des Verständnisses dieser Verteilungen für statistische Tests und Hypothesenprüfungen, was sie zu einer wertvollen Ressource für Forscher und Datenanalytiker macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter focuses on both discrete and continuous random variables and their corresponding probability distributions. Discrete random variables are introduced through the binomial, hypergeometric, and Poisson distributions, while continuous random variables are illustrated with the uniform, normal, chi-square, t, and F distributions. The chapter emphasizes the mathematical foundations of these distributions, including their expected values and variances. Practical applications are discussed, along with techniques for calculating probabilities using software tools like R, Excel, and Stata. -
Chapter 8. Parameter Estimation
Thomas CleffDas Kapitel beginnt mit der Erinnerung an den Hauptzweck induktiver Statistiken: die Verallgemeinerung von Populationsparametern aus Stichprobendaten. Es werden zwei Arten von Schätzverfahren eingeführt: Punktabschätzung und Intervallabschätzung. Bei der Punkteschätzung werden Populationsparameter wie Mittelwert und Varianz anhand von Stichprobendaten geschätzt, während die Intervallschätzung einen Bereich bietet, innerhalb dessen der wahre Parameter wahrscheinlich fallen wird. Das Kapitel behandelt die Bedeutung der Stichprobengröße und den Standardfehler bei der Bestimmung der Genauigkeit von Schätzungen. Sie untersucht auch den zentralen Grenzwertsatz, der besagt, dass die Verteilung der Stichprobenmittel einer Normalverteilung nahe kommt, unabhängig von der Verteilung der Grundgesamtheit, da die Stichprobe ausreichend groß ist. Das Kapitel schließt mit praktischen Beispielen und Übungen, um das Verständnis dieser Konzepte zu stärken.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter covers parameter estimation, a fundamental aspect of inductive statistics. It allows generalizations to be made about a population based on sample data. The chapter covers two main estimation procedures: point estimation, which provides a single value estimate for population parameters, and interval estimation, which provides an interval within which the parameter is likely to lie. Through illustrative examples and theoretical explanations, the concepts of sampling distributions, standard error, and confidence intervals are explained, emphasizing the importance of sample size and the central limit theorem in ensuring accurate and reliable estimates. -
Chapter 9. Hypothesis Testing
Thomas CleffHypothese Testing Fundamentals vertieft die wesentlichen Techniken und Philosophien hinter statistischen Hypothesentests. Das Kapitel beginnt mit der Definition einer Hypothese und ihrer Rolle bei der Prüfung empirischer Daten, wobei es sich auf Karl Poppers Philosophie der Fälschung stützt. Er untersucht die Entwicklung von Testmodellen durch Neyman und Pearson und führt die Konzepte der Null- und Alternativhypothesen ein. Der Text diskutiert die Signifikanzniveaus und Fehlertypen und betont, wie wichtig es ist, sowohl Fehler des Typs I als auch Fehler des Typs II zu verstehen. Es bietet auch praktische Beispiele und Erklärungen zu verschiedenen Testmethoden, wie etwa t-Tests mit einer und zwei Stichproben, gepaarten t-Tests und nichtparametrischen Tests wie dem Wilcoxon Sign-Rank-Test. Das Kapitel schließt mit der Einführung komplexerer Methoden wie Varianzanalyse (ANOVA) und Kovarianzanalyse (ANCOVA), deren Anwendung in der Multifaktoranalyse hervorgehoben wird. Überall betont das Kapitel die Bedeutung sorgfältiger Datenanalyse und des angemessenen Einsatzes statistischer Tests, um sinnvolle Schlussfolgerungen zu ziehen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter provides a comprehensive exploration of hypothesis testing. It explores the principles of falsification as advocated by Karl Popper and the application of these principles in statistical hypothesis testing through the Neyman–Pearson approach. The chapter covers the construction and testing of null (H0) and alternative (H1) hypotheses, the interpretation of Type I and Type II errors (α and β errors). It provides practical examples using statistical software such as R, SPSS, Stata, and Excel, and explains various parametric and nonparametric tests including z-tests, t-tests, ANOVA, Mann–Whitney U test, Kruskal–Wallis test, Wilcoxon signed-rank test, Wilcoxon rank-sum test, chi-square test, as well as tests for normal distribution. -
Chapter 10. Regression Analysis
Thomas CleffDas Kapitel beginnt mit einem Überblick über die Regressionsanalyse, die ihren Ursprung in Sir Francis Galtons Studie über das Erbsensamen hat. Sie vertieft sich in die Grundlagen der Regression, einschließlich des Konzepts der Korrelation und Kausalität. Das wichtigste Beispiel dafür ist ein Versandhaus, das Umsatzprognosen auf Grundlage verschiedener Faktoren wie Katalogbildgröße und vorherigen Verkäufen erstellt. Das Kapitel behandelt bivariate Regression, multiple Regression und die Bedeutung von Good-of-fit-Messgrößen wie dem Bestimmungskoeffizienten. Außerdem werden Regressionsdiagnosen diskutiert, einschließlich Hebeleffekte und Multikollinearität, und praktische Ratschläge zur Verbesserung von Regressionsmodellen gegeben. Das Kapitel endet mit Übungen, die die erlernten Konzepte untermauern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter provides a comprehensive introduction to regression analysis, a widely used statistical technique for investigating the relationship between dependent and independent variables. It begins with the fundamental concepts of bivariate regression, illustrating how to calculate and interpret regression coefficients. The chapter continues to explain multiple regression analysis, where the influence of several independent variables on a dependent variable is analysed. It describes how to derive regression equations using ordinary least squares (OLS) and examines how to assess the goodness of fit using the coefficient of determination (R2) and the adjusted R2. Practical applications are demonstrated using tools like R, Excel, SPSS, and Stata, showcasing how these software packages facilitate regression calculations and interpretation of results. The chapter concludes with an exploration of advanced topics such as non-linear regression and the use of dummy variables, providing a solid foundation for applying regression analysis in various research and practical scenarios. -
Chapter 11. Logistic Regression
Thomas CleffLogistische Regression ist eine statistische Methode zur Analyse binärer Ergebnisse, die sich von der OLS-Regression in ihrer Anwendung auf nichtlineare Beziehungen unterscheidet. Das Kapitel vertieft die theoretischen Grundlagen logistischer Regression, einschließlich des Einsatzes von Odds and Log-Odds, und demonstriert ihre praktische Anwendung am Beispiel der Challenger-Katastrophe. Durch den Vergleich der logistischen Regression mit der OLS-Regression und die Hervorhebung ihrer Vorteile bietet das Kapitel ein umfassendes Verständnis dieser wesentlichen statistischen Methode.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractAfter the Ordinary Least Squares (OLS) regression has been discussed in detail in the previous Chap. 10, this section is devoted to the topic of the so-called logit, binary, or logistic regression. Logistic regression and OLS regression are both used to analyse the relationship between a dependent variable and one or more independent variables. -
Chapter 12. Time Series and Indices
Thomas CleffDas Kapitel beginnt mit der Erklärung des Einsatzes von Zeitreihenanalysen zur Umsatzvorhersage anhand unabhängiger Variablen. Sie unterscheidet zwischen Querschnitts- und Längsschnittsstudien, wobei sich Letztere auf Daten konzentrieren, die in aufeinanderfolgenden Zeitintervallen gemessen werden. Das Kapitel stellt dann verschiedene Arten von Indizes vor, einschließlich Preisindizes, die den Ausdruck von Preisänderungen im Laufe der Zeit vereinfachen. Er diskutiert die Berechnung von Preisverwandten und die Vorteile der Indexierung bei der Vergleichbarkeit dynamischer Entwicklungen. In diesem Kapitel werden auch Mengenindizes untersucht, die Veränderungen der Warenmenge messen, und Wertindizes, die Preis- und Mengendaten kombinieren. Darüber hinaus wird darin die Bedeutung der Anpassung von Zeitreihendaten an die Inflation behandelt, um reale Trends aufzuzeigen. Das Kapitel endet mit praktischen Übungen und Lösungen, die die diskutierten Konzepte untermauern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter deals with time series analysis and indices, focusing on how data series evolve over time. It introduces key concepts of price indices (e.g. Laspeyres, Paasche, Fisher) to measure price changes and adjust for inflation. Quantity and value indices, which are essential for understanding economic trends and real growth, are also covered. Techniques for shifting bases and chaining indices to maintain continuity in long-term data series are explained. Practical exercises are provided to apply these concepts to real-world scenarios. -
Chapter 13. Cluster Analysis
Thomas CleffClusteranalyse ist eine explorative Datenanalyse, die dazu verwendet wird, Individuen oder Objekte mit ähnlichen Merkmalen zu homogenen Clustern zu gruppieren. Das Kapitel behandelt die Bedeutung der Clusteranalyse in verschiedenen Bereichen wie Astronomie und Ökonomie. Es führt hierarchische Clusteranalyse ein, die agglomerative und trennende Methoden sowie k-Mittel Clusteranalyse umfasst. Der Text erklärt Entfernungs- und Ähnlichkeitsmaße, Verknüpfungsmethoden und Kriterien zur Bestimmung der optimalen Anzahl von Clustern. Sie unterstreicht auch die Bedeutung der Standardisierung von Variablen und der Vermeidung von Multikollinearität. Zur Veranschaulichung der Konzepte werden praktische Beispiele und visuelle Hilfsmittel wie Dendrogramme und Geröllflächen verwendet. Das Kapitel schließt mit der Diskussion der Implementierung von Clusteranalysen mit Software wie SPSS, Stata und R und bietet Übungen zur Verbesserung des Verständnisses.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter explores two primary methods of cluster analysis: hierarchical and k-means clustering. Hierarchical clustering involves the creation of a nested sequence of clusters by either merging or splitting them, whereas k-means clustering requires the number of clusters to be predetermined and optimizes the assignment of individual observations to a cluster. The chapter discusses key concepts such as proximity measures and methods for determining the optimal number of clusters. Practical guidance is given on how to perform cluster analysis using R, SPSS, and Stata. Strategies for evaluating the quality of the cluster solution are also provided. -
Chapter 14. Factor Analysis
Thomas CleffFaktorenanalyse ist eine entscheidende Methode zur Vereinfachung komplexer Datensätze, indem Variablen auf zugrunde liegende Dimensionen oder Faktoren reduziert werden. Dieses Kapitel behandelt die Grundlagen der Faktoranalyse, einschließlich ihrer beiden primären Methoden: die Summierung der Itemwerte und die Faktoranalyse selbst. Es wird diskutiert, wie wichtig es ist, die Korrelationsmatrix zu überprüfen und die Anzahl der Faktoren mit Methoden wie dem Kaiser-Kriterium und dem Geröllplot zu bestimmen. Darüber hinaus wird in diesem Kapitel erläutert, wie Faktorbelastungen zu interpretieren sind und Faktormatrizen zu drehen sind, um eine klarere Interpretation zu ermöglichen. Praktische Beispiele wie die Analyse von Zahnpastatattribute und softwarespezifische Anweisungen für SPSS, Stata und R Commander werden bereitgestellt, um Verständnis und Anwendung zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter explores factor analysis, a statistical method used to reduce data in empirical research. It begins with an introduction to the foundational concepts of factor analysis, detailing its relevance and application across various fields. Using the example of attributes that consumers value in toothpaste, particular emphasis is placed on the use of factor analysis to reduce large sets of variables or item batteries in surveys. The nuances between principal component analysis and principal factor analysis are discussed, highlighting how they address different analytical needs by making different underlying theoretical assumptions. The chapter also covers advanced topics such as the Kaiser–Meyer–Olkin measure, Bartlett's sphericity test, the correlation matrix to assess suitability for factor analysis, factor extraction techniques, the interpretation of eigenvalues, varimax rotation, factor loadings, communalities, factor scores. Furthermore, the use of factor analysis with software such as R, SPSS and Stata is demonstrated to enhance the reader’s understanding of how to perform such analyses can be carried out in applied scenarios. -
Backmatter
- Titel
- Applied Statistics and Multivariate Data Analysis for Business and Economics
- Verfasst von
-
Thomas Cleff
- Copyright-Jahr
- 2025
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-031-78070-7
- Print ISBN
- 978-3-031-78069-1
- DOI
- https://doi.org/10.1007/978-3-031-78070-7
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.