Statistische Versuchsplanung
Design of Experiments (DoE)
- 2026
- Buch
- Verfasst von
- Karl Siebertz
- David van Bebber
- Thomas Hochkirchen
- Verlag
- Springer Berlin Heidelberg
Über dieses Buch
Die statistische Versuchsplanung (Design of Experiments, DoE) kommt in Entwicklung und Fertigung häufig zum Einsatz. Das Buch richtet sich an Ingenieur*innen und Naturwissenschaftler*innen, die technische Systeme systematisch analysieren und optimieren möchten.
DoE bietet ein universell einsetzbares Verfahren zur Untersuchung komplexer Zusammenhänge und eignet sich gleichermaßen für Produkt- und Prozessoptimierung. Der Schwerpunkt liegt auf der Planung und Umsetzung praxisnaher Versuchsreihen. Darüber hinaus zeigt das Buch, wie DoE den effizienten Einsatz von Simulationen unterstützt.
DoE ist heute zunehmend in Datenanalyse-, Simulations- und Machine-Learning-Prozesse eingebettet. Daher behandelt das Buch neben der klassischen DoE auch Metamodelle und moderne Optimierungsverfahren. Es bildet damit eine klare Grundlage für die methodische Auswahl.
Die dritte Auflage wurde umfassend aktualisiert. Neue Versuchspläne, aktuelle Softwarefunktionen und ein Viertel neuer Quellen sind integriert. Die Clusteranalyse kam hinzu. So bietet die dritte Auflage einen aktuellen, fundierten und zugleich praxisnahen Leitfaden für alle, die DoE wirksam einsetzen möchten.
Inhaltsverzeichnis
-
Frontmatter
-
1. Grundlagen
Karl Siebertz, David van Bebber, Thomas HochkirchenDie statistische Versuchsplanung ist eine Methode zur effizienten Planung und Auswertung von Versuchsreihen, die bereits in den 1920er Jahren entwickelt wurde. Sie ist in vielen Ingenieursdisziplinen universell einsetzbar und bietet eine standardisierte Vorgehensweise zur Darstellung der Ergebnisse. Der Text behandelt die Grundbegriffe der Methode, wie Faktor, Effekt und Wechselwirkung, und geht auf die Vorbereitung einer Versuchsreihe ein. Besonders hervorgehoben wird die Bedeutung der statistischen Versuchsplanung für die effiziente Planung und Auswertung von Versuchsreihen sowie die universelle Anwendbarkeit in verschiedenen Ingenieursdisziplinen. Der Text bietet eine neutrale Darstellung, die den Leser nicht an eine bestimmte Software bindet, und betont die Bedeutung der Methode für die effiziente Planung und Auswertung von Versuchsreihen. Die Auswertung von Versuchsplänen wird anhand einer Fallstudie erörtert, wobei Effektendiagramme und Wechselwirkungsdiagramme als standardisierte graphische Darstellungen der aus den Versuchsergebnissen abgeleiteten Beschreibungsfunktion dienen. Das lineare Beschreibungsmodell wird als leistungsfähiges Werkzeug zur Quantifizierung der Zusammenhänge zwischen Faktoren und Qualitätsmerkmalen vorgestellt. Der Text betont die Bedeutung der statistischen Versuchsplanung für die effiziente Planung und Auswertung von Versuchsreihen sowie die universelle Anwendbarkeit der Methode in verschiedenen Ingenieursdisziplinen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie statistische Versuchsplanung – als Methode zur effizienten Planung und Auswertung von Versuchsreihen – wurde bereits in den 20er Jahren des vergangenen Jahrhunderts entwickelt, ist also älter als vielfach angenommen. 1935 schrieb R. A. FISHER das erste Fachbuch darüber [3]. Frühe deutschsprachige Literatur zu diesem Thema erschien in den 70er Jahren [1]. Erst in den 80er Jahren hat sich die Methode weltweit durchgesetzt, ist aber immer noch nicht standardisierter Bestandteil einer Ingenieursausbildung. -
2. Versuchspläne
Karl Siebertz, David van Bebber, Thomas HochkirchenDas Kapitel behandelt die verschiedenen Arten von Versuchsplänen und deren Anwendungen in der statistischen Versuchsplanung. Es beginnt mit einer Einführung in die Bedeutung von Versuchsplänen und deren historischen Hintergrund. Anschließend werden Screening-Versuchspläne vorgestellt, die eine effiziente Untersuchung einer hohen Zahl von Faktoren ermöglichen. Detailuntersuchungen werden oft mit einem quadratischen Beschreibungsmodell durchgeführt, um Nichtlinearitäten Rechnung zu tragen. Das Kapitel diskutiert auch die Grenzen dieses Modells und stellt maßgeschneiderte Versuchspläne für spezielle Anwendungsfälle vor. Abschließend wird die historische Entwicklung der Versuchsplanung, insbesondere die Rolle der griechisch-lateinischen Quadrate, beleuchtet. Das Kapitel bietet eine umfassende Übersicht über die verschiedenen Versuchspläne und deren Einsatzmöglichkeiten, wobei besonders die praktische Anwendung und die Grenzen der Modelle betont werden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungOft wird die statistische Versuchsplanung fast ausschließlich mit der Konstruktion von Versuchsplänen in Verbindung gebracht. In der Tat ist dies ein sehr wichtiger und eigenständiger Teil der Methode. Im Gegensatz zu den Anfängen der statistischen Versuchsplanung, bieten die verfügbaren Auswerteprogramme eine hervorragende Unterstützung mit vorkonfektionierten Feldern und beherrschen vielfach auch die Erstellung maßgeschneiderter Versuchspläne für den speziellen Anwendungsfall. -
3. Kontrollverfahren
Karl Siebertz, David van Bebber, Thomas HochkirchenIn diesem Kapitel werden die wesentlichen Kontrollverfahren für die statistische Versuchsplanung vorgestellt. Es beginnt mit einer Einführung in die Bedeutung von Kontrollverfahren bei der Durchführung von Versuchsreihen und betont deren Rolle bei der Sicherstellung der Genauigkeit und Zuverlässigkeit der Ergebnisse. Der Text behandelt verschiedene Aspekte der Versuchsplanung, einschließlich der Erstellung eines Versuchsplans, der Verwendung von Beschreibungsmodellen und der Bewertung der Genauigkeit der Vorhersagen. Besonders hervorgehoben werden die Half-Normal-Plot und die Varianzanalyse als Methoden zur Unterscheidung zwischen wahren und scheinbaren Effekten. Zudem werden Löschdiagnosen wie PRESS, DFFITS, DFBETA und die Cook-Distanz eingeführt, die helfen, die Robustheit und Stabilität des Modells zu bewerten. Abschließend wird die Box-Cox-Transformation als Methode zur Verbesserung der Modellgenauigkeit durch Transformation des Qualitätsmerkmals diskutiert. Das Kapitel schließt mit der Empfehlung, Bestätigungsläufe durchzuführen, um die Vorhersagen zu validieren und absolute Gewissheit zu erlangen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Durchführung einer Versuchsreihe ist in der Regel kostspielig. Oft besteht aus organisatorischen Gründen nicht die Möglichkeit einer Wiederholung. Umso wichtiger ist es, von der Planung über die Auswertung bis zur Festlegung einer Systemverbesserung die richtigen Kontrollverfahren einzusetzen. In diesem Kapitel sind alle wesentlichen Kontrollverfahren zusammengefasst. -
4. Statistische Modellbildung
Karl Siebertz, David van Bebber, Thomas HochkirchenZusammenfassungNachdem wir in den vorigen Kapiteln einen Weg in die Anwendung der statistischen Versuchsplanung gefunden haben, wird es in der Folge darum gehen, Kapitel 3 aufzugreifen und die dort zu findende Darstellung der wesentlichen Kontrollverfahren zu vertiefen beziehungsweise, wo sinnvoll, zu ergänzen. -
5. Varianten der statistischen Versuchsplanung
Karl Siebertz, David van Bebber, Thomas HochkirchenIn diesem Kapitel werden verschiedene Varianten der statistischen Versuchsplanung vorgestellt, die über die klassische Methode hinausgehen. Ein zentraler Schwerpunkt liegt auf der Optimierung mehrerer Qualitätsmerkmale gleichzeitig, was durch die Multiple-Response-Optimisation ermöglicht wird. Dabei werden Rampenfunktionen verwendet, um die Qualitätsmerkmale dimensionslos zu machen und ihre Gewichtung anzupassen. Ein weiterer wichtiger Aspekt ist das Parameterdesign, das darauf abzielt, Systeme robuster zu machen, indem Störgrößen und Signalgrößen berücksichtigt werden. Das Toleranzdesign ergänzt dies, indem es die Auswirkungen von Bauteiltoleranzen auf die Systemleistung untersucht. Die Principal Component Analysis (PCA) wird als Methode eingeführt, um die Abhängigkeiten zwischen den Qualitätsmerkmalen zu analysieren und die Anzahl der unabhängigen Freiheitsgrade zu reduzieren. Abschließend wird die Anwendung der statistischen Versuchsplanung auf kategoriale Faktoren behandelt, die nicht numerisch sind, sondern in festen Stufen eingestellt werden. Das Kapitel bietet eine umfassende Anleitung zur Anwendung dieser Methoden in der Praxis und zeigt auf, wie sie zur Verbesserung der Systemleistung beitragen können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungNur in wenigen Fällen besteht die Aufgabe darin, ein einziges Qualitätsmerkmal zu optimieren. Allein durch den Kostendruck kommt im Regelfall neben der Systemleistung ein weiterer Aspekt hinzu. Vielfach tauchen mehrere Leistungskriterien auf, die nur in Ausnahmefällen so miteinander korrelieren, dass die jeweiligen optimalen Einstellungen identisch sind. -
6. DoE Beispiele
Karl Siebertz, David van Bebber, Thomas HochkirchenDas Kapitel präsentiert zwei praxisnahe Beispiele zur Anwendung der statistischen Versuchsplanung (DoE) in der industriellen Entwicklung. Das erste Beispiel behandelt die Optimierung einer Schutzplanke, wobei der Fokus auf der Identifikation relevanter Parameter und der Analyse von Qualitätsmerkmalen liegt. Es wird gezeigt, wie ein Screening-Array verwendet wird, um die wichtigsten Faktoren zu bestimmen und wie die Principal Component Analysis (PCA) genutzt wird, um Zusammenhänge zwischen den Qualitätsmerkmalen zu untersuchen. Das zweite Beispiel beschäftigt sich mit der Optimierung eines Ventiltriebs in einem Verbrennungsmotor. Hier wird eine Multiple Response Optimization durchgeführt, um nichtlineare Zusammenhänge und Wechselwirkungen zwischen den Faktoren und den Qualitätsmerkmalen zu analysieren. Die Ergebnisse zeigen, wie durch die DoE-Methode in Kombination mit der PCA der Einfluss von acht Faktoren auf vier unterschiedliche Qualitätsmerkmale quantifiziert und eine Verbindung zwischen den Qualitätsmerkmalen aufgezeigt werden kann. Beide Beispiele verdeutlichen die Effizienz und den Nutzen der DoE-Methode in der Praxis und bieten wertvolle Einblicke in die systematische Optimierung technischer Systeme.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie nachfolgenden Beispiele kommen aus der industriellen Praxis und sind nicht eigens konstruiert worden, um ein Lehrbuch zu unterstützen. Vorausgesetzt wird die in den Kapiteln 1-5 gebrachte Theorie. An dieser Stelle sei angemerkt, dass das Rasensprengerbeispiel des Buches mittlerweile Gegenstand einer eigenen Publikationen geworden ist [4]. Eine interaktive Version ist im Internet verfügbar. Diese wurde von Dr. Koen Rutten erstellt, während seiner Promotion an der KU Leuven. -
7. Computer-Experiment
Karl Siebertz, David van Bebber, Thomas HochkirchenComputer-Experimente haben sich seit der Entwicklung des ersten funktionstüchtigen Computers, des Z3 von Konrad Zuse im Jahr 1941, zu einem unverzichtbaren Werkzeug in der technischen Entwicklung etabliert. Sie ermöglichen die Simulation komplexer Systeme, die Analyse von Faktor-Zusammenhängen und die Optimierung von Systemantworten. Ein zentrales Thema des Kapitels ist der Aufbau und die Analyse von Computer-Experimenten, die aufgrund ihrer Komplexität und langen Simulationszeiten eine effiziente Nutzung von Computer-Ressourcen erfordern. Dabei werden Ersatzmodelle, auch Metamodelle genannt, verwendet, die das technische System oder das komplexe Simulationsmodell ausreichend genau beschreiben und nur minimale Computer-Ressourcen erfordern. Ein weiterer Schwerpunkt liegt auf dem Vergleich von Computer- und physikalischen Experimenten, wobei Computer-Experimente deterministisch sind und keine Messfehler aufweisen. Zudem ermöglichen sie eine flexiblere Stufenwahl und einfache Änderung von Faktoren. Das Kapitel behandelt auch spezielle Testfelder für Computer-Experimente, wie den Latin Hypercube, der eine gleichmäßige Verteilung der Testpunkte im Faktorraum ermöglicht und Pseudo-Wiederholungen vermeidet. Ein weiteres wichtiges Thema ist die Erstellung von Metamodellen, die sich flexibel an komplexe Zusammenhänge anpassen können, sowie die Analyse und Optimierung von Systemen mittels dieser Metamodelle. Abschließend wird die Bedeutung von Computer-Experimenten für die Verkürzung des Entwicklungsprozesses und die Verbesserung der Produktqualität hervorgehoben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungSeit der Entwicklung des Z3 von Konrad Zuse im Jahr 1941, welcher von vielen Wissenschaftlern als erster funktionstüchtiger Computer angesehen wird, steigen die Rechenleistung und Speicherkapazität von Computern kontinuierlich an. In den letzten Jahrzehnten ist für die Entwicklung technischer Systeme der Einsatz von Computern unverzichtbar geworden. Die Anwendungsmöglichkeiten erstrecken sich dabei von Prüfstandssteuerung, Datenverwaltung und -analyse bis hin zur Simulation komplexer Systeme. -
8. Versuchspläne für komplexe Zusammenhänge
Karl Siebertz, David van Bebber, Thomas HochkirchenIn diesem Kapitel werden Versuchspläne für komplexe Zusammenhänge detailliert behandelt, mit einem Fokus auf die Analyse und Optimierung technischer Systeme. Es werden verschiedene Methoden zur Erzeugung und Bewertung von Testfeldern vorgestellt, darunter Monte-Carlo- und Quasi-Monte-Carlo-Methoden, Latin Hypercubes und gleichverteilte Testfelder. Der Text erklärt, wie diese Methoden zur Erstellung von Testfeldern beitragen, die eine gleichmäßige Verteilung der Testpunkte im Faktorraum gewährleisten. Zudem werden Gütekriterien wie Diskrepanz und MiniMaxp diskutiert, die zur Bewertung der Qualität der Testfelder verwendet werden. Ein weiterer Schwerpunkt liegt auf der Optimierung von Testfeldern durch gezielte Vertauschung von Elementen und der Reduktion des Rechenaufwands. Praktische Anwendungen und Herausforderungen, wie die Anpassung von Testfeldern an experimentelle Grenzen und die Voranalyse von Messdaten, werden ebenfalls behandelt. Das Kapitel schließt mit einer Diskussion über die Anzahl der benötigten Messungen und der Bedeutung einer robusten Versuchsdurchführung. Die Erkenntnisse und Methoden, die in diesem Kapitel vorgestellt werden, sind entscheidend für die erfolgreiche Analyse und Optimierung komplexer technischer Systeme.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Komplexität von Systemen, die mit Hilfe statistischer Methoden analysiert und optimiert werden, steigt kontinuierlich an. Dies äußert sich einerseits in der zu berücksichtigen Faktoranzahl und andererseits in der Komplexität abzubildender Zusammenhänge zwischen Faktoren und Systemantworten. Gerade der Einsatz von Simulationsmodellen in Kombination mit Computerexperimenten (Kapitel 7) eröffnet deutlich umfangreichere Aufgabenstellungen als es aus dem Bereich physikalischer Experimente bekannt war. -
9. Metamodelle
Karl Siebertz, David van Bebber, Thomas HochkirchenMetamodelle sind vereinfachte Modelle, die komplexe Simulationsmodelle mit geringeren Rechenzeiten abbilden. Sie werden aus Daten eines raumfüllenden Testfelds erzeugt und ermöglichen eine schnelle Analyse technischer Systeme. Der Fachbeitrag erklärt die Grundlagen von Metamodellen und deren Bedeutung in der technischen Analyse. Es werden verschiedene Metamodell-Typen wie lineare Regression, Polynome und Splines vorgestellt, sowie deren spezifische Anwendungen und Vorteile. Der Beitrag diskutiert auch die Herausforderungen bei der Implementierung von Metamodellen und bietet praktische Beispiele zur Veranschaulichung. Besonders hervorgehoben wird die Bedeutung von Metamodellen in der Optimierung technischer Systeme und deren Einsatz in verschiedenen Branchen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDer direkte Einsatz komplexer Simulationsmodelle ist durch lange Rechenzeiten in vielen Fällen nur eingeschränkt zur Analyse technischer Systeme sinnvoll. Aus diesem Grund werden alternativ sogenannte Metamodelle (auch Transferfunktionen, Surrogate-, Approximations- oder Ersatzmodelle genannt) verwendet, welche mit deutlich geringeren Rechenzeiten und ausreichend genauen Vorhersagen das komplexe Simulationsmodell abbilden. Die Rechenzeiten von Metamodellen liegen dabei im Bereich von Millisekunden, während die ursprünglichen Modelle teilweise Stunden, Tage oder Wochen für die Berechnung eines einzelnen Ergebnisses benötigen. -
10. Optimierung
Karl Siebertz, David van Bebber, Thomas HochkirchenDas Kapitel behandelt die Optimierung von Systemeigenschaften durch die Bestimmung von Faktoreinstellungen, die ausgewählte Zielgrößen optimieren. Es werden verschiedene Optimierungsverfahren vorgestellt, darunter exakte Lösungsmethoden und heuristische Ansätze wie Simuliertes Abkühlen und genetische Optimierung. Besonders hervorgehoben werden die Herausforderungen bei der Optimierung mehrerer Zielgrößen und die Verwendung von Pareto-Grenzen zur Bestimmung optimaler Kompromisse. Der Text bietet eine detaillierte Analyse der verschiedenen Methoden und deren Anwendungen in der Praxis, einschließlich der Berücksichtigung von Randbedingungen und der Bewertung der Qualität von Pareto-Grenzen. Abschließend werden die Vor- und Nachteile der verschiedenen Verfahren diskutiert und Empfehlungen für die Auswahl der geeigneten Methode gegeben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungNeben Analysen zur Bestimmung der Zusammenhänge zwischen kontrollierbaren Eingangsvariablen (Faktoren) und Ausgangsgrößen (Qualitätsmerkmalen) eines technischen Systems ist in fast allen Fällen eine Optimierung von einer oder mehreren Systemeigenschaften notwendig. Dabei sind Faktoreinstellungen gesucht, welche ausgewählte Zielgrößen (Qualitätsmerkmale) z1, ••• , znz für den angestrebten Systemeinsatz optimieren. Die Zielgrößen sollen dabei einen gewünschtenWert annehmen beziehungsweise minimiert oder maximiert werden. -
11. Korrelationsanalyse
Karl Siebertz, David van Bebber, Thomas HochkirchenDie Korrelationsanalyse ist ein zentrales Werkzeug in der Statistik, um Zusammenhänge zwischen Variablen zu untersuchen. In diesem Kapitel wird zunächst die lineare Pearson-Korrelation detailliert erläutert, die eine Normalverteilung und einen linearen Zusammenhang zwischen den Variablen voraussetzt. Es wird gezeigt, wie die Pearson-Korrelation berechnet wird und welche Grenzen sie hat, insbesondere bei nicht normalverteilten Daten oder Ausreißern. Anschließend werden Rangkorrelationen wie die Spearman- und Kendall’s τ-Korrelation vorgestellt, die robust gegenüber Ausreißern sind und keine Annahmen über die Verteilung der Daten machen. Diese Methoden sind besonders nützlich, wenn die Daten nicht linear zusammenhängen oder Ausreißer vorhanden sind. Ein weiterer wichtiger Aspekt ist die Unterscheidung zwischen Schein- und verdeckten Korrelationen, die oft zu falschen Schlussfolgerungen führen können. Scheinkorrelationen entstehen, wenn eine dritte Variable den scheinbaren Zusammenhang verursacht, während verdeckte Korrelationen auftreten, wenn sich gegenläufige Trends gegenseitig auslöschen. Das Kapitel erklärt auch, wie die Signifikanz einer Korrelation bestimmt wird, einschließlich der Verwendung von Hypothesentests und Permutationstests. Abschließend wird die Analyse nichtlinearer Korrelationen behandelt, die mit klassischen Methoden nicht erkannt werden können. Hier wird eine Methode vorgestellt, die auf lokalen Korrelationen basiert und die Nachbarschaftsdichte verwendet, um nichtlineare Zusammenhänge zu identifizieren. Diese Methode ermöglicht es, auch komplexe, nichtlineare Abhängigkeiten zwischen Variablen zu erkennen und zu quantifizieren. Das Kapitel bietet somit eine umfassende Übersicht über die verschiedenen Methoden der Korrelationsanalyse und deren Anwendungen in der Praxis.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Korrelation beschreibt den mathematischen Zusammenhang zwischen zwei statistisch verteilten Variablen. Eine kausale Beziehung zwischen den beiden Variablen muss in Wirklichkeit jedoch nicht bestehen. -
12. Komponentenanalyse
Karl Siebertz, David van Bebber, Thomas HochkirchenDie Komponentenanalyse ist ein leistungsfähiges Werkzeug zur Strukturierung und Vereinfachung von Daten, insbesondere wenn die Variablen miteinander korrelieren oder redundante Informationen enthalten. Der Fachbeitrag erklärt die Grundlagen der Hauptkomponentenanalyse (PCA) und Faktoranalyse, die beide lineare Modelle zwischen den Variablen mittels der Kovarianzmatrix aufstellen. Die PCA sucht einen niedrig-dimensionalen Unterraum, der die Daten am besten beschreibt, wobei die neuen Hauptkomponenten orthogonal zueinander stehen und die Originaldaten nach absteigender Varianz abbilden. Die Faktoranalyse hingegen schließt aus empirischen Beobachtungen auf latente Variablen (Faktoren). Der Text vertieft auch die Kernel-Hauptkomponentenanalyse (kPCA) und die Unabhängige Komponentenanalyse (ICA), die für nichtlinear separierbare Daten geeignet sind. Die kPCA transformiert Daten in einen Eigenschaftsraum, in dem sie linear separierbar sind, während die ICA unabhängige Komponenten aus vermischten Signalen extrahiert. Der Beitrag bietet praktische Beispiele und mathematische Herleitungen, um die Anwendung dieser Methoden zu verdeutlichen. Abschließend wird die Bedeutung der Komponentenanalyse für die Datenanalyse und Modellbildung hervorgehoben, insbesondere in der Technologie, Forschung und Entwicklung sowie in der Datenanalyse.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungStehen zur Analyse eines technischen Systems lediglich Datensätze zur Verfügung, bei denen die Variablen (Faktoren) miteinander korrelieren, ähnliche Zusammenhänge beschreiben oder vermischte redundante Informationen enthalten, ist eine aussagekräftige Analyse nur schwer möglich. Zur Strukturierung, Vereinfachung oder zum besseren Verständnis der Daten ist es dann sinnvoll, die Originaldaten durch neue Variablen abzubilden, welche sich aus einer Kombination der ursprünglichen Daten ermitteln lassen. Sinnvoll ist dieses zum Beispiel wenn die Anzahl der benötigten Variablen zur Abbildung der vorhandenen Datenstruktur deutlich reduziert werden kann, da in einer folgenden Modellbildung weniger und unkorrelierte Faktoren berücksichtigt werden müssen. -
13. Clusteranalyse
Karl Siebertz, David van Bebber, Thomas HochkirchenDie Clusteranalyse ist eine Methode des unüberwachten Lernens, die dazu dient, ähnliche Individuen in einem Datensatz in Gruppen (Cluster) zusammenzufassen. Diese Methode ist besonders nützlich, wenn der Datensatz zunächst unbekannt ist und ein grundlegendes Verständnis der Datenstruktur erforderlich ist. Der Fachbeitrag erklärt die verschiedenen Arten der Clusteranalyse, darunter partitionierende, hierarchische, dichtebasierte und gitterbasierte Verfahren. Besonders detailliert wird auf die hierarchische Clusteranalyse und die DBSCAN-Methode eingegangen, die in der Praxis häufig verwendet werden. Der Beitrag zeigt auch, wie Clusterinformationen zur Reduzierung der Datenmenge oder zur Klassifizierung neuer Daten verwendet werden können. Zudem werden die Vor- und Nachteile der verschiedenen Clusterverfahren diskutiert, um den Lesern zu helfen, das passende Verfahren für ihre spezifischen Anwendungen zu wählen. Der Fachbeitrag bietet somit einen umfassenden Überblick über die Clusteranalyse und deren praktische Anwendungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungVor der Analyse neuer Datensätze ist über den genauen Inhalt und die vorliegende Struktur in einigen Fällen nur wenig bekannt. Im ersten Schritt der Analyse ist es dann hilfreich, ein grundlegendes Verständnis des Datensatzes zu erhalten. Dazu können verschiedene Verfahren der Clusteranalyse eingesetzt werden, die „ähnliche“ Individuen des Datensatzes in Gruppen (Cluster) zusammenfassen. -
14. Sensitivitätsanalyse
Karl Siebertz, David van Bebber, Thomas HochkirchenSensitivitätsanalysen sind ein zentrales Werkzeug, um den Einfluss von Variablen auf Systemantworten zu verstehen. In diesem Kapitel werden drei Hauptbereiche der Sensitivitätsanalyse vorgestellt: Faktor Screening, lokale Sensitivitätsanalyse und globale Sensitivitätsanalyse. Faktor Screening dient der qualitativen Unterscheidung von signifikanten und nicht signifikanten Faktoren. Die lokale Sensitivitätsanalyse untersucht den Einfluss von Faktoren bei bestimmten Funktionswerten oder speziellen Faktorkombinationen, was beispielsweise für Stabilitätsanalysen genutzt wird. Die globale Sensitivitätsanalyse ermittelt den Einfluss von Faktoren über ihren gesamten Definitionsbereich und ist besonders geeignet, um die Signifikanz einzelner Faktoren zu vergleichen. Für lineare Modelle werden verschiedene Methoden wie normierte Regressionskoeffizienten, Partialsumme der Quadrate, partieller Determinationskoeffizient, Predictive Error Sum of Squares und partielle Korrelationsfaktoren vorgestellt. Bei nichtlinearen Modellen, die durch Neurale Netzwerke oder Support Vector Machines erzeugt werden, sind spezielle Verfahren wie das Korrelationsverhältnis und Sobol’s Kennzahl erforderlich. Diese Methoden ermöglichen eine genaue und aussagekräftige Analyse der Sensitivität von Faktoren auf Systemantworten, auch bei komplexen und nichtlinearen Zusammenhängen. Das Kapitel bietet eine umfassende Übersicht über die verschiedenen Ansätze und deren Anwendungsbereiche, was es zu einem wertvollen Ressourcen für Professionals in der Datenanalyse und Modellierung macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungMathematische Modelle von physikalischen, medizinischen oder anderen Systemen basieren meist auf einer Vielzahl von komplexen, nichtlinearen und gekoppelten Gleichungssystemen. Ein Grundpfeiler für die Analyse dieser Systeme ist das Verständnis von Einfluss der Varianzen aller Faktoren x (Eingangsvariablen) auf die Varianz der betrachteten Systemantwort y (Ausgangsgröße). Unter dem Begriff Sensitivitätsanalyse (SA) werden Verfahren zusammengefasst, die genau für diesen gesuchten Zusammenhang Kenngrößen ermitteln. -
15. Strategie
Karl Siebertz, David van Bebber, Thomas HochkirchenDas Kapitel beschäftigt sich mit der strategischen Anwendung der statistischen Versuchsplanung (DoE) und bietet praktische Hinweise für die Umsetzung in der Praxis. Es beginnt mit einer qualitativen Systembeschreibung, die als zentraler Dreh- und Angelpunkt der DoE dargestellt wird. Hier werden Systemgrenzen, Qualitätsmerkmale und Faktoren definiert, die für den Versuchsplan relevant sind. Der Ablauf einer DoE-Anwendung wird in drei Phasen unterteilt: qualitative Systembeschreibung, Versuchsdurchführung und Auswertung, sowie Optimierung. Besonders betont wird die Bedeutung der Teamarbeit und der strukturierten Vorgehensweise, um komplexe Probleme effizient zu lösen. Der Text geht auch auf die Durchführung und Auswertung von Versuchen ein, wobei ein zweistufiges Vorgehen empfohlen wird: zunächst ein Screening der Faktoren und anschließend eine detaillierte Untersuchung der relevanten Faktoren. Die Verwendung von Software und die Integration von CAE-Modellen werden ebenfalls behandelt, wobei die Vorteile und Herausforderungen dieser Methoden diskutiert werden. Abschließend wird die Bedeutung von Hybrid Analytics für die Datenintegration und -analyse in Unternehmen hervorgehoben, wobei die Kombination spezialisierter Analysewerkzeuge mit plattformübergreifenden Reporting- und BI-Systemen betont wird. Der Text bietet eine umfassende Anleitung für die praktische Anwendung der DoE und zeigt auf, wie durch eine strukturierte Vorgehensweise und Teamarbeit effiziente Lösungen für komplexe Probleme gefunden werden können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungStatistische Versuchsplanung hat viel mit Mathematik zu tun. Letztlich sind aber oft die nicht-mathematischen Dinge erfolgsentscheidend. Zum Beispiel hilft der strukturierte Ablauf, ein Problem zielgerichtet anzugehen. In sehr vielen Fällen sind ganze Arbeitsgruppen an Vorbereitung und Durchführung einer Versuchsreihe beteiligt, mitunter sogar abteilungsübergreifend. Die DoE hat in gewisser Weise einen teambildenden Charakter, da sie nicht nur einen favorisierten Faktor nach dem anderen untersucht, sondern von vornherein auf die gleichzeitige Analyse mehrerer Faktoren ausgerichtet ist. -
16. Strategie für komplexe Systeme
Karl Siebertz, David van Bebber, Thomas HochkirchenIn diesem Kapitel wird eine detaillierte Strategie für die Analyse komplexer Systeme vorgestellt. Der Prozess ist in mehrere Schritte unterteilt, darunter Vorbereitung und Planung, Erstellung eines Versuchsplans, Experimentdurchführung, Datenanalyse und Optimierung. Jeder Schritt wird ausführlich beschrieben, wobei besondere Aufmerksamkeit der Vorbereitungsphase gewidmet wird, da diese oft vernachlässigt wird und entscheidend für den Projekterfolg ist. Der Text betont die Bedeutung einer gründlichen Planung und die Klärung grundlegender Fragen wie Ziele, Ressourcen und Qualitätsmerkmale. Zudem werden Strategien für die Erstellung von Versuchsplänen, die Durchführung von Experimenten und die Erzeugung von Metamodellen diskutiert. Die Analyse der Daten und Metamodelle sowie die Optimierung der Systeme sind weitere zentrale Themen. Abschließend wird die Bedeutung einer umfassenden Dokumentation hervorgehoben, um die Nachvollziehbarkeit und Wiederverwendbarkeit der Ergebnisse zu gewährleisten. Dieser Fachbeitrag bietet wertvolle Einblicke und praktische Anleitungen für Professionals, die komplexe Systeme analysieren und optimieren möchten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungFür Analysen komplexer Systeme lässt sich in Abgrenzung zu klassischen DoE basierten Analysen kein festes beziehungsweise ideales Vorgehen definieren. Grundsätzlich ist der Prozess jedoch in mehrere Schritte einteilbar, welche in Abbildung 16.1 abgebildet sind. -
Backmatter
- Titel
- Statistische Versuchsplanung
- Verfasst von
-
Karl Siebertz
David van Bebber
Thomas Hochkirchen
- Copyright-Jahr
- 2026
- Verlag
- Springer Berlin Heidelberg
- Electronic ISBN
- 978-3-662-73091-1
- Print ISBN
- 978-3-662-73090-4
- DOI
- https://doi.org/10.1007/978-3-662-73091-1
Die PDF-Dateien dieses Buches entsprechen nicht vollständig den PDF/UA-Standards, bieten jedoch eingeschränkte Bildschirmleseunterstützung, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen zur einfachen Navigation sowie durchsuchbaren und auswählbaren Text. Nutzer von unterstützenden Technologien können Schwierigkeiten bei der Navigation oder Interpretation der Inhalte in diesem Dokument haben. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com