Skip to main content
main-content

Über dieses Buch

Das Buch beschäftigt sich mit der statistischen Versuchsplanung und wendet sich an Ingenieure aus Entwicklung und Fertigung. Die statistische Versuchsplanung (Design of Experiment, DoE) ist ein Verfahren zur Analyse von (technischen) Systemen. Dieses Verfahren ist universell einsetzbar und eignet sich sowohl zur Produkt- als auch zur Prozessoptimierung. Planung und Durchführung von systematischen Versuchsreihen, zur Optimierung von Produkten oder Fertigungsprozessen mit engem Praxisbezug, sind das Hauptanliegen. Simulationsmodelle können durch statistische Versuchsplanung ressourcensparend eingesetzt werden. Ergebnisse lassen sich besser kommunizieren. Besonders erfolgreich ist das Verfahren dann, wenn viele Einflussgrößen zu berücksichtigen sind, zum Beispiel im Bereich Fahrzeugsicherheit oder auch bei Prozessoptimierung in der Verfahrenstechnik. Die Statistische Versuchsplanung ist ein wichtiger Bestandteil von "Six Sigma".

Die zweite Auflage wurde stark erweitert, um der stürmischen Entwicklung in den Bereichen Metamodelle und Optimierung Rechnung zu tragen. Inhaltlich übersteigt dies den Rahmen der klassischen Versuchsplanung, liefert dafür allerdings den nötigen Hintergrund, um komplexere Problemstellungen zu bearbeiten. Praktiker sehen sich zunehmend mit der Notwendigkeit konfrontiert, bereits zu Beginn einer Studie zwischen methodischen Ansätzen entscheiden zu müssen, die untereinander nur begrenzt kompatibel sind. Hier soll das Buch eine Entscheidungshilfe bieten.

Inhaltsverzeichnis

Frontmatter

Chapter 1. Grundlagen

Einheitliche Definitionen und Darstellungen sind die Grundlage einer erfolgreichen Kommunikation. Für die statistische Versuchsplanung trifft dies ebenfalls zu, denn Kommunikation der Ergebnisse ist ein wichtiger Aspekt bei der Nutzung dieses Verfahrens.
In diesem Kapitel werden die international vereinheitlichten Konventionen, Abkürzungen und Schreibweisen dargestellt. Hinzu kommt die Erklärung der grundsätzlichen Vorgehensweise bei der statistischen Versuchsplanung. Effekte, Wechselwirkungen und das lineare Beschreibungsmodell bilden die Basis der Auswertung.
Teamarbeit ist im Regelfall erforderlich, für die Planung und Durchführung von Versuchen. Auch hier muss zunächst ein Grundstein gelegt werden, damit alle Beteiligten wissen, worauf es ankommt.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 2. Versuchspläne

Die richtige Wahl des Versuchsplans kann über den Erfolg der Untersuchung entscheiden. Auf jeden Fall entscheidet der Versuchsplan über den Aufwand des Vorhabens, beziehungsweise darüber, wie viele Parameter im realisierbaren Rahmen untersucht werden können. Hierbei spielt es eine zentrale Rolle, welches Beschreibungsmodell zugrunde liegt, um die Abhängigkeit zwischen Zielgröße und Eingangsgrößen zu erklären.
Dieses Kapitel erläutert zunächst die Grundidee einer Feldkonstruktion und stellt dann die üblichen Familien der Versuchspläne vor. Praxisbezug steht dabei im Vordergrund, denn in Anbetracht der verfügbaren Software kann der Anwender heutzutage aus einer Fülle von vordefinierten Versuchsplänen auswählen. Wichtig ist es nun, die spezifischen Vor- und Nachteile der jeweiligen Versuchspläne zu kennen, sowie deren Einsatzbereich und die Grenzen des Beschreibungsmodells.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 3. Kontrollverfahren

Wer aus Daten Wissen machen möchte, muss sich seiner Sache sicher sein. Ohne Kontrollverfahren geht das nicht. Das Wissen über die Zusammenhänge bestimmt den Nutzen der Analyse. Die Datenerzeugung bedeutet hingegen zunächst nur Aufwand.
Die statistische Versuchsplanung bietet ein ganzes Arsenal an standardisierten Kontrollverfahren, was in der Praxis extrem nützlich ist und zum Erfolg der Methode maßgeblich beiträgt. In diesem Kapitel werden alle gängigen Kontrollverfahren vorgestellt. Der real verwendete Versuchsplan lässt sich überprüfen, ebenso das Beschreibungsmodell und schließlich auch die Güte der Vorhersage.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 4. Statistische Modellbildung

Grundkenntnisse der Ideen und Methoden der statistischen Modellbildung stellen sicher, dass man sinnvolle Versuchsauswertungen durchführt, die es erlauben, „echte“ Effekte von Effekten zu trennen, die durch das Messrauschen lediglich vorgetäuscht werden. Was ist eine dafür sinnvolle Anzahl von Versuchswiederholungen, und wie kann man sich davon überzeugen, ein valides Vorhersagemodell entwickelt zu haben?
Mit Randomisierung, Versuchswiederholung und Blockbildung werden drei Maßnahmen vorgestellt, die helfen, das Signal vom Rauschen zu trennen. Schließlich wird in diesem Zusammenhang die Frage beantwortet, was eigentlich „statistisch signifikant“ bedeutet und wie diese Idee bei der Versuchsauswertung nutzbar ist. Dieses Thema ist zwar von zentraler Bedeutung, wird aber in der Regel weder gut erklärt noch verstanden. Diese Lücke wird in Kapitel 4 geschlossen.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 5. Varianten der statistischen Versuchsplanung

Mit der üblichen Standardanwendung ist die Leistungsfähigkeit der statistischen Versuchsplanung noch lange nicht erschöpft. In der Praxis schlägt sich die statistische Versuchsplanung nach wie vor erstaunlich gut, obwohl weitaus komplexere Verfahren seit geraumer Zeit Einzug gehalten haben und in direkter Konkurrenz stehen. Die Variantenvielfalt der statistischen Versuchsplanung trägt dazu bei.
Über die reiche Auswahl an Versuchsplänen hinaus gibt es spezielle Varianten für robustes Design und Toleranzuntersuchungen. Als „Taguchi-Verfahren“ sind diese Varianten seit Jahrzehnten bekannt und werden derzeit unter Six Sigma neu verkauft. Auch die gleichzeitige Optimierung mehrerer Zielgrößen ist kein Problem. Die Principal Component Analysis gehört eigentlich nicht zur statistischen Versuchsplanung, lässt sich jedoch hervorragend damit kombinieren und deckt dann die Zusammenhänge zwischen unterschiedlichen Zielgrößen auf.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 6. DoE Beispiele

Beispiele sind wichtig, um die Anwendung der Theorie zu verstehen. Im Buch wird durchgängig das Beispiel eines Rasensprengers verwendet, was seinerseits inzwischen internationale Verbreitung als universelles Lehrbeispiel findet.
Dieses Kapitel stellt zwei weitere Anwendungsbeispiele vor. Beide Beispiele kommen unmittelbar aus der Praxis und sind nicht als Lehrbeispiele konstruiert worden. Die Anwendung der statistischen Versuchsplanung wird von der qualitativen Systembeschreibung, über die Auswertung, bis zu den Schlussfolgerungen dargestellt.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 7. Computer-Experiment

Klassische Methoden der Versuchsplanung fokussieren auf Analysen physikalischer Experimente. Die Entwicklung erfolgte in einer Zeit ohne oder mit Vorläufern heute typischer Computersysteme. Messrauschen und begrenzte Rechenkapazitäten hatten dabei einen entscheidenden Einfluss auf sinnvoll umsetzbare Methoden und Algorithmen. Der Einsatz der klassischen Methoden im Zeitalter deutlich leistungsstärkerer Computer ist grundsätzlich möglich, jedoch kann das vorhandene Potenzial nicht ausgeschöpft werden. Dieses Kapitel beleuchtet relevante Unterschiede zwischen physikalischen Experimenten und Computer Experimenten. Dabei wird darauf eingegangen, wie mittels weiterentwickelter Methoden deutlich mehr Informationen zur Modellierung und Analyse komplexer Systeme entstehen. Neben optimierten Messplänen für CAE (Computer-aided engineering) erweitert der Einsatz von computerbasierten Algorithmen anwendbare Analyse-, Modell- und Optimierungsverfahren. Durch gezielte Weiterentwicklung der Methoden ist die Bearbeitung von immer komplexeren Systemen bei gleichzeitig geringer Bearbeitungsdauer möglich.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 8. Versuchspläne für komplexe Zusammenhänge

Typische Anwendungsfälle der Versuchsplanung, Analyse und Optimierung zeigen eine kontinuierliche Steigerung der Komplexität. Dieses bezieht sich einerseits auf die Anzahl berücksichtigter Faktoren, aber auch auf die abzubildenden Systemzusammenhänge. Klassische Versuchspläne wie Teilfaktor- oder D-optimale Pläne können dabei die erforderlichen Daten nur bedingt liefern und werden durch raumfüllende sowie gleichverteilte Pläne ersetzt. In diesem Kapitel werden Grundlagen sowie unterschiedliche Algorithmen zur Erzeugung, Optimierung und Beurteilung der benötigten Testfelder dargestellt.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 9. Metamodelle

Die direkte Analyse und Optimierung komplexer Systeme ist schwierig und zeitaufwendig, so dass diese immer häufiger mit der Unterstützung von Metamodellen durchgeführt wird. Metamodelle bilden das zu untersuchende System auf Basis von Mess- oder Simulationsdaten mathematisch ab und können Systemantworten im Bereich von Millisekunden oder Sekunden vorhersagen. Der Einsatz von linearen Modellen oder Polynomen mit starrer Vorgabe der maximal abzubildenden Komplexität oder der Grundform von Zusammenhängen ist nicht zielführend. Gerade bei unbekannter und gleichzeitig hoher Komplexität des abzubildenden Systems führt dies zu falschen Folgerungen. Daher sind verschiedenste Modellverfahren entwickelt worden, die ohne feste Vorgabe von Systemzusammenhängen komplexe Systeme auf Basis von raumfüllenden Mess- oder Simulationsdaten abbilden. Dieses Kapitel stellt Grundlagen und Algorithmen verschiedener Verfahren sowie Methoden zur Qualitätskontrolle vor. Dabei startet es bei alt bekannten Verfahren, wie Regression oder Splines und entwickelt sich über verbreitete Verfahren, wie Kriging, Radiale Basisfunktionen oder Künstliche Neuronale Netze hin zu Support Vector Regression oder Gauß Prozess Modellen. Die Aufbereitung der Algorithmen ermöglicht eine gezielte Auswahl und den sicheren Einsatz der Verfahren in kommerziellen Softwarepaketen oder eine erste grundlegende Implementierung.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 10. Optimierung

Die Optimierung komplexer Systeme läuft zumeist auf einen Kompromiss zwischen verschiedenen Qualitätsgrößen hinaus. Eine sinnvolle Zusammenfassung auf eine globale Qualitätsgröße ist dabei meist nicht sinnvoll, da der Lösungsbereich deutlich eingeschränkt und bereits vor der eigentlichen Optimierung eine noch unbekannte Lösung favorisiert wird. Dieses Kapitel befasst sich daher mit der multidimensionalen Optimierung, bei der alle Zielgrößen parallel betrachtet und optimiert werden. Aus den ermittelten Lösungen, die unterschiedliche Kompromisse zwischen den einzelnen Optimierungszielen enthalten, kann im Anschluss ein guter Kompromiss auf Basis aller vorhandenen Daten (Qualitätsgrößen plus zugehöriger Faktoreinstellungen) ausgewählt werden. Neben verschiedenen Grundlagen zur multidimensionalen Optimierung werden einige Verfahren aus dem Bereich genetischer (z.B. NSGAII) und naturanaloger Anlgorithmen (z.B. Particle Swarm) dargestellt.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 11. Korrelationsanalyse

Korrelationsanalysen finden sich in allen Bereichen der Versuchsplanung, Modellbildung, Analyse und Optimierung. So ist bereits in der Testplanerstellung zu klären ob Korrelationen zwischen einzelnen Faktoren vorliegen. Die Korrelationsanalyse zwischen Faktoren und Systemantworten oder zwischen verschiedenen Systemantworten ermöglicht weiterhin ein Verständnis einfacher Systemzusammenhänge. Dieses Kapitel stellt verschiedene Algorithmen zur linearen und nicht-linearen Korrelation sowie unterschiedliche Auswirkungen von Fehlmessungen in Analysedaten vor.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 12. Komponentenanalyse

Gegebene Mess- oder Simulationsdaten können miteinander korrelierende, ähnliche Zusammenhänge oder vermischte redundante Informationen aufweisen, wodurch eine aussagekräftige Analyse erschwert wird. Zur Strukturierung, Vereinfachung oder zum besseren Verständnis der Daten ist es dann sinnvoll, die Originalvariablen durch neue Ersatzvariablen abzubilden, welche sich aus einer Kombination der ursprünglichen Daten ermitteln lassen. Dieses Kapitel beschreibt zuerst Verfahren aus dem Bereich der Hauptkomponentenanalyse zur Transformation von Daten in ein neues Koordinatensystem, welches die Zusammenhänge der Daten besser abbildet. Besonders vorteilhaft sind die Verfahren, wenn zusätzlich eine Reduktion der signifikanten Variablen erfolgt. Die Unabhängigkeitsanalyse geht davon aus, dass gegebene Messsignale eine Mischung aus unabhängigen aber unbekannten Signalen sind. Ziel der Analyse ist es dann, die ursprünglichen Originalsignale aus den vermischten Signaldaten zu extrahieren.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 13. Sensitivitätsanalyse

Je größer zu analysierende Systeme werden, desto wichtiger ist es frühzeitig zu verstehen, welche der untersuchten Faktoren einen signifikanten Einfluss auf die Systemantworten aufweisen. Dieses ermöglicht einerseits ein schnelles Verständnis des untersuchten Systems und andererseits die Möglichkeit, sich in folgenden Untersuchungen und Analysen auf entscheidende Faktoren zu fokussieren. In diesem Kapitel werden dazu grundlegende Definitionen verschiedener globaler Sensitivitätskennzahlen sowie Möglichkeiten zur Berechnung dargestellt.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 14. Strategie

Praxisbeispiele sind für die Anwendung hilfreich. Ebenso wichtig ist allerdings eine generische Vorgehensweise, die sich leicht auf den eigenen Anwendungsfall übertragen lässt. Dies soll das folgende Kapitel leisten.
Drei Blöcke kennzeichnen den allgemeinen Ablauf: qualitative Systembeschreibung, Sichtung der Faktoren, Detailuntersuchungen. Jeder dieser Blöcke hat eigene Arbeitsschritte, die unabhängig von der Anwendung stattfinden.
Tipps aus der Praxis und Überlegungen zur Auswahl der passenden Auswertesoftware runden das Kapitel ab.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Chapter 15. Strategie für komplexe Systeme

In Abgrenzung zur klassischen Versuchsplanung ist es im Bereich der komplexen Systeme und Analysen deutlich schwerer ein festes Schema zur Bearbeitung vorzugeben. Durch die hohe Flexibilität der Methoden sich an unterschiedlichste Aufgaben und Systemeigenschaften anzupassen ist oft eine Anpassung an die aktuelle Aufgabe notwendig. Nichtsdestotrotz werden und müssen immer mehrere grundlegende Phasen durchlaufen werden. Dieses beginnt mit einer umfangreichen Planungsphase und führt über Versuchsplanerstellung, Experiment, Modellbildung, Qualitätskontrolle, Analyse und Optimierung zur Verifikation des optimierten Systems. Parallel zu allen Schritten sollte die Anfertigung einer umfangreiche Dokumentierung erfolgen. Neben der Beschreibung des allgemeinen Prozessflusses, werden in diesem Kapitel zu jedem Prozessschritt grundsätzliche Ziele, Ideen und Fragestellungen aufbereitet.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Grundlagen zu 3D-Druck, Produktionssystemen und Lean Production

Lesen Sie in diesem ausgewählten Buchkapitel alles über den 3D-Druck im Hinblick auf Begriffe, Funktionsweise, Anwendungsbereiche sowie Nutzen und Grenzen additiver Fertigungsverfahren. Eigenschaften eines schlanken Produktionssystems sowie der Aspekt der „Schlankheit“ werden ebenso beleuchtet wie die Prinzipien und Methoden der Lean Production.
Jetzt gratis downloaden!

Marktübersichten

Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen. 

Bildnachweise