Skip to main content
main-content

Über dieses Buch

Dieses Buch konzentriert sich auf die Anwendung von modernen Methoden der

Statistik zur Modellierung und Analyse von Prozessmodellen der Verfahrenstechnik.

Beispiele für moderne Methoden sind Matrixansätze, im Gegensatz zu

manuellen Berechnungen, sowie das Konzept orthogonaler Basen. Diese Ansätze

ermöglichen eine computergestützte Analyse von Versuchsplänen.

Zunächst werden die wichtigsten Aspekte und Methoden der Statistik und Prozessanalysevorgestellt. Auf dieser

Grundlage werden anschließend komplexere Methoden für die Anwendung

erarbeitet. Hierbei legen die Autoren großen Wert auf eine kurze, jedoch umfassende

und konsistente Darstellung.

Zur Erleichterung der Implementierung werden detaillierte Vorgehensweisen für

die relevanten Konzepte vorgestellt und anhand geeigneter Beispiele vorgestellt.

Die Beispiele sind so gewählt, dass sie mit vorhandenen Softwarewerkzeugen (Matlab, Excel) nachgebildet werden können. Für diesen Zweck werden Excel-Vorlagen und

MATLAB-Programme bereitgestellt. Ein ausführliches deutsch-englisches Glossar

ist ebenfalls enthalten.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Einführung in die Statistik und Datenvisualisierung

Zusammenfassung
Kapitel 1 führt den Leser in die Grundlagen der deskriptiven Statistik und Datenvisualisierung ein. Die deskriptive Statistik befasst sich mit der Entwicklung von Methoden zur Beschreibung eines bestimmten Datensatzes. Diese lassen sich in zwei Hauptgruppen unterteilen: Lagemaße, die das Mittelwertverhalten des Datensatzes beschreiben und Streuungsmaße, die die Streuung des Datensatzes beschreiben. Es werden Lagemaße wie Mittelwert, Modus und Median eingeführt. Bei den betrachteten Streuungsmaße handelt es sich um die Spannweite, die Standardabweichung, die Varianz, den Median der absoluten Abweichung und die Schiefe. Des Weiteren werden Quantile und Ausreißer als Möglichkeiten zur Beschreibung eines Datensatzes vorgestellt. Die Datenvisualisierung legt den Schwerpunkt auf eine effektive visuelle Darstellung von Daten. Gängige Möglichkeiten zur Datenvisualisierung wie Balkendiagramme, Histogramme, Kreisdiagramme, Liniendiagramme, Zeitreihendiagramme, Kastengrafiken, Streudiagramme, Wahrscheinlichkeitsdiagramme und Tabellen werden mit detaillierten Beispielen und Erstellungsmethoden erläutert. Die verschiedenen Konzepte werden mit geeigneten Beispielen veranschaulicht, einschließlich einer umfassenden Analyse eines Datensatzes aus einem Reibungsfaktor-Experiment. Am Ende dieses Kapitels soll der Leser in der Lage sein, die Methoden der Datenbeschreibung und -visualisierung anzuwenden, um die wichtigsten Eigenschaften eines gegebenen Datensatzes sinnvoll darzustellen.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 2. Theoretische Grundlagen für die statistische Analyse

Zusammenfassung
Kapitel 2 vermittelt dem Leser die theoretischen Grundlagen der statistischen Analyse, indem systematisch die multivariate, mengenbasierte Wahrscheinlichkeits- und Statistiktheorie vorgestellt wird. Die Grundlage wird unter Einbeziehung der wichtigsten statistischen Axiome und Definitionen geschaffen, die viele der in Kapitel 1 eingeführten Konzepte formalisiert. Wahrscheinlichkeitsdichtefunktionen, Stichprobenraum, Momente, der Erwartungswert-Operator und verschiedene andere Funktionen werden untersucht. Als Nächstes werden die wichtigsten statistischen Verteilungen beschrieben, indem ihre wesentlichen mathematischen Eigenschaften und die computergestützte Implementierung angegeben werden. Dazu gehören die Normal-, Studentsche t-, χ2-, F-, Binomial- und Poisson-Verteilung. Mit Hilfe der dargestellten Überlegungen wird das Thema der Parameterschätzung, d.h. die Bestimmung unbekannter Werte anhand eines Datensatzes und eines angenommenen Modells, betrachtet. Als wesentliche Ansätze werden die Momentenmethode, die Maximum-Likelihood-Methode und die Regression beschrieben. Schließlich wird die Möglichkeit vorgestellt, statistische Größen unter Verwendung von Hypothesentests und Vertrauensbereichen zu vergleichen. Dazu zählen Mittelwerte, Varianzen, Anteile und Stichprobenpaare. Die wesentlichen Konzepte werden anhand einfacher, aber relevanter Beispiele erläutert. Am Ende des Kapitels sollte der Leser über ein gutes Verständnis des mathematischen Grundlagenteils der Statistik verfügen. Ebenso sollte die Fähigkeit, Parameter für ein gegebenes Problem zu schätzen und geeignete Hypothesentests durchzuführen, erlangt werden.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 3. Regression

Zusammenfassung
Kapitel 3 vermittelt dem Leser Konzepte der Datenmodellierung mithilfe der Methode der kleinsten Quadrate und der Regressionsanalyse, die aus drei Teilen besteht. Dies umfasst die Modellauswahl, die Parameterschätzung und Modellvalidierung, die die Grundlage für alle nachfolgenden Kapitel bilden. Die Modellauswahl zielt darauf ab, eine geeignete Beschreibung des Datensatzes unter Berücksichtigung sowohl physikalischer als auch mathematischer Randbedingungen zu finden. Dieses Kapitel behandelt deterministische Modelle, wohingegen sich die nachfolgenden Kapitel auf stochastische oder komplexere Modelle beziehen. Parameterschätzungen haben das Ziel, die Parameterwerte für ein bestimmtes Modell und den gegebenen Datensatz zu bestimmen. Verschiedene Ansätze, darunter die gewöhnliche lineare Regression, die gewichtete lineare Regression und die nichtlineare Regression, werden im Detail untersucht. An geeigneten Stellen werden die theoretischen Ergebnisse dargestellt, um die Notwendigkeit einiger Komponenten für die Analyse zu verdeutlichen. Außerdem werden nach jedem Abschnitt detaillierte Zusammenfassungen gegeben, in denen alle erforderlichen Formeln aufgeführt sind. Abschließend wird die Modellvalidierung, die aus zwei Teilen besteht, dem Residuentest und dem Test auf Modelladäquatheit, genauer erläutert. Außerdem werden Korrekturmaßnahmen für häufig auftretende Probleme bei der Modellvalidierung vorgeschlagen. Zur Veranschaulichung der verschiedenen Methoden und Ansätze werden ausführliche Beispiele präsentiert. Am Ende des Kapitels sollte der Leser mit der Regressionsanalyse vertraut sein, sodass komplexe Beispiele aus dem praktischen Einsatz behandelt werden können.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 4. Versuchsplanung

Zusammenfassung
In Kapitel 4 wird die Versuchsplanung und deren Analyse vorgestellt. Zunächst werden die allgemeinen Prinzipien der Versuchsplanung betrachtet. Dies umfasst die Themen Vermengungen, Signal-Rausch-Verhältnis, Randomisierung und Blockbildung. Als nächstes werden die häufig anzutreffenden faktoriellen und teilffaktoriellen Versuchspläne im einzelnen analysiert. Sowohl die Analyse als auch der Entwurf von Versuchsplänen, einschließlich der Themen Modellbildung, Wiederholungen, Vermengungsbeziehungen und Lösungstyp, werden untersucht. Geeignete Methoden, einschließlich der Erzeugung orthogonaler und orthonormaler Grundlagen, für die computergestützte Analyse solcher Versuchspläne werden vorgestellt. Obwohl das Hauptaugenmerk auf der 2-faktoriellen Versuchsplanung liegt, werden auch Versuchspläne höherer Ordnung berücksichtigt und deren Analyse erläutert. Dazu werden ausführliche Beispiele angeführt. Des Weiteren werden Methoden zur Analyse von Krümmungen bzw. quadratische Terme in einem Modell unter Verwendung eines faktoriellen Versuchsplans mit Zentrumspunktwiederholungen untersucht. Abschließend wird kurz auf die Idee der Wirkungsflächenpläne, wie z.B. der zentral zusammengesetzte Versuchsplan und optimaler Entwurf, eingegangen. Es werden Beispiele aus einem breiten Spektrum unterschiedlichster Anwendungen betrachtet. Am Ende dieses Kapitels sollte der Leser in der Lage sein, faktorielle und teilfaktorielle Versuchspläne sowie Versuchspläne mit Krümmungen zu entwerfen und zu analysieren. Außerdem sollten grundlegende Wirkungsflächenpläne mithilfe computergetützter Methoden erstellt werden können.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 5. Modellierung stochastischer Prozesse mittels Zeitreihenanalyse

Zusammenfassung
Kapitel 5 führt den Leser in das Konzept der Zeitreihenanalyse mithilfe von Übertragungsfunktionen, Zustandsraummodellen und Frequenzbereichen ein. Die Zeitreihenanalyse wird zur Entwicklung stochastischer Modelle verwendet. Zunächst werden die theoretischen Eigenschaften verschiedener Modelltypen untersucht und verglichen. Dazu gehören autoregressive Moving-Average-Modelle, integrierende Modelle und saisonale Modelle sowohl im Zeit- als auch im Frequenzbereich. Die bis dahin gewonnenen Erkenntnisse können dazu verwendet werden, um eine geeignete Modellstruktur für einen gegebenen Datensatz zu finden. An dieser Stelle werden auch Frequenzbereichsanalysen vorgestellt, die bei der Beschreibung verschiedener saisonaler oder periodischer Bestandteile des Datensatzes hilfreich sind. Als nächstes werden verschiedene Methoden und Ansätze zur Parameterschätzung betrachtet. Darunter befinden sich die Yule-Walker-Gleichungen für autoregressive Modelle, die Maximum-Likelihood-Methode für allgemeine autoregressive Moving-Average-Modelle und der Kalman-Filter für Zustandsraummodelle. Schließlich werden geeignete Methoden zur Modellvalidierung für die Zeitreihenanalyse vorgestellt. In diesem Kapitel wird die Edmonton-Temperaturdatenreihe verwendet, um die Konzepte der Zeitreihenanalyse zu veranschaulichen. Anhand eines ausführlichen Beispiels sollte der Leser über ein gründliches Verständnis der Prinzipien der Zeitreihenanalyse verfügen, einschließlich der Bestimmung der Modellstruktur, der Parameterschätzung und der Modellvalidierung.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 6. Modellierung dynamischer Prozesse mit Methoden zur Systemidentifikation

Zusammenfassung
Kapitel 6 führt den Leser in das Thema der Systemidentifikation ein. Ziel der Systemidentifikation ist die Entwicklung deterministischer und stochastischer Modelle für komplexe chemische Prozesse, um diese steuern bzw. regeln zu können. Zunächst werden die geläufigsten linearen Modelle theoretisch untersucht. Dazu gehören das Vorhersagefehler-Modell mit entsprechenden Vereinfachungen und das Impulsantwortmodell. Als nächstes wird die Vorhersagefehler-Methode zur Systemidentifikation im offenen Regelkreis entwickelt. Es wird gezeigt, dass die Methode erwartungstreue und konsistente Parameterschätzungen liefert. Darüber hinaus wird die Modellvalidierung für offene Regelkreise vorgestellt, um nicht nur die bekannten Regressionsergebnisse, sondern auch Eigenschaften wie Linearität, Zeitverzögerung und Zeitinvarianz zu analysieren. Dann wird die Identifikation offener Regelkreise auf geschlossene Systeme ausgedehnt und entsprechende Änderungen bei der Modellschätzung und validierung beschrieben. Es werden drei verschiedene Methoden betrachtet: indirekte, direkte und gemeinsame Ein- und Ausgangsidentifikation. Abschließend wird die nichtlineare Systemidentifikation kurz vorgestellt und untersucht. Alle Beispiele in diesem Kapitel stammen aus einem einzigen Experiment zur Bestimmung des Wasserfüllstands in einem Behälter. Am Ende des Kapitels sollte der Leser ein gutes Verständnis der theoretischen Grundlagen zur Systemidentifikation haben und in der Lage sein, komplexe Modelle für industrielle Anwendungen zu entwickeln.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 7. Verwendung von MATLAB® zur Statistischen Analyse

Zusammenfassung
Kapitel 7 gibt dem Leser eine Einführung in die Anwendung von MATLAB® zur Lösung statistischer Probleme. Geeignete MATLAB-Funktionen zur Visualisierung von Daten, Durchführung von Regressionsanalysen, Erstellung von Versuchsplänen und deren Analyse, Zeitreihenanalyse und Systemidentifikation werden anhand der verfügbaren Toolboxen vorgestellt. Der entsprechende MATLAB-Code wird bereitgestellt, mit dem Periodogramme, Korrelations-, Autokorrelations- und Kreuzkorrelationsdiagramme erstellt werden können. Es werden drei ausführliche Beispiele behandelt, welche die lineare Regression, die nichtlineare Regression und die Systemidentifikation abdecken. Am Ende dieses Kapitels sollte der Leser in der Lage sein, mithilfe von MATLAB jedes der in diesem Buch vorgestellten Probleme zu lösen und aussagekräftige Abbildungen zu erstellen.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 8. Verwendung von Excel® zur Statistischen Analyse

Zusammenfassung
Kapitel 8 gibt dem Leser eine Einführung in die Anwendung von Excel® zur Lösung statistischer Probleme mit dem Schwerpunkt Regression. Erforderliche Excel-Funktionen werden beschrieben, einschließlich Matrixfunktionen, die die Manipulation von Matrizen in Excel ermöglichen. Das Schreiben von eigenem Excel-Code zur Erweiterung der Funktionalitäten und die daraus resultierenden Probleme der Excel-Sicherheit werden ebenfalls betrachtet. Schließlich werden Datenanalyse- und Solver-Add-Ins ausführlich beschrieben. Dazu werden einsatzbereite Excel-Vorlagen für die Erstellung von Normalwahrscheinlichkeitsdiagramme, Kastengrafiken, Periodogrammen sowie für die lineare Regression, nichtlineare Regression und Versuchsplanung bereitgestellt. Dieses Kapitel wird mit drei Beispielen abgeschlossen: ein Beispiel behandelt die lineare Regression, ein Beispiel die nichtlineare Regression und das letzte Beispiel ist eine Sammlung von faktoriellen Versuchsplänen, die mithilfe von Vorlagen gelöst werden. Am Ende dieses Kapitels sollte der Leser mit der Benutzung von Excel vertraut sein, um verschiedene Probleme zur linearen Regression und Versuchsplanung unterschiedlichster Komplexität zu bearbeiten. Der Leser sollte auch in der Lage sein, die entsprechenden Vorlagen und Funktionen zu verwenden, um die Analyse eines gegebenen Datensatzes zu erleichtern.
Yuri A. W. Shardt, Heiko Weiß

Kapitel 9. Glossar der wichtigsten Begriffe

Zusammenfassung
In Kap. 9 werden die wichtigsten Begriffe innerhalb dieses Buches zur Verfügung gestellt. Diese werden in Form eines Englisch-Deutsch und Deutsch-Englisch Glossars aufgelistet. Damit kann eine eindeutige Zuordnung der Begriffe in Bezug auf Statistics for Chemical and Process Engineers: A Modern Approach (https://​dx.​doi.​org/​10.​1007/​978-3-319-21509-9) erfolgen.
Yuri A. W. Shardt, Heiko Weiß

Backmatter

Weitere Informationen