Skip to main content
main-content

Über dieses Buch

Die statistische Versuchsplanung (Design of Experiment, DoE) ist ein Verfahren zur Analyse von (technischen) Systemen. Dieses Verfahren ist universell einsetzbar und eignet sich sowohl zur Produkt- als auch zur Prozessoptimierung. Planung und Durchführung von systematischen Versuchsreihen, zur Optimierung von Produkten oder Fertigungsprozessen mit engem Praxisbezug, sind das Hauptanliegen. Simulationsmodelle können durch statistische Versuchsplanung ressourcensparend eingesetzt werden, und Ergebnisse lassen sich besser kommunizieren. Besonders erfolgreich ist das Verfahren dann, wenn viele Einflussgrößen zu berücksichtigen sind, zum Beispiel im Bereich Fahrzeugsicherheit oder auch bei Prozessoptimierung in der Verfahrenstechnik. Die Statistische Versuchsplanung ist ein wichtiger Bestandteil von "Six Sigma". Das Buch wendet sich an Ingenieure aus Entwicklung und Fertigung.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Grundlagen

Die statistische Versuchsplanung – als Methode zur effizienten Planung und Auswertung von Versuchsreihen – wurde bereits in den 20er Jahren des vergangenen Jahrhunderts entwickelt, ist also älter als vielfach angenommen. 1935 schrieb R. A. FISHER das erste Fachbuch darüber [56]. Frühe deutschsprachige Literatur zu diesem Thema erschien in den 70er Jahren [9]. Erst in den 80er Jahren hat sich die Methode weltweit durchgesetzt, ist aber immer noch nicht standardisierter Bestandteil einer Ingenieursausbildung.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 2. Versuchspläne

Oft wird die statistische Versuchsplanung fast ausschließlich mit der Konstruktion von Versuchsplänen in Verbindung gebracht. In der Tat ist dies ein sehr wichtiger und eigenständiger Teil der Methode.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 3. Kontrollverfahren

Die Durchführung einer Versuchsreihe ist in der Regel kostspielig. Oft besteht aus organisatorischen Gründen nicht die Mögichkeit einer Wiederholung. Umso wichtiger ist es, von der Planung über die Auswertung bis zur Festlegung einer Systemverbesserung die richtigen Kontrollverfahren einzusetzen. In diesem Kapitel sind alle wesentlichen Kontrollverfahren zusammengefasst. Dort wo es nötig ist, werden einige statistische Grundlagen nachgeliefert. Der korrekte Einsatz der Kontrollverfahren ist auch für Ingenieure leicht erlernbar und setzt kein Mathematikstudium voraus.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 4. Statistische Modellbildung

Nachdem wir in den vorigen Kapiteln einen Weg in die Anwendung der statistischen Versuchsplanung gefunden haben, wird es in der Folge darum gehen, Kapitel 3 aufzugreifen und die dort zu findende Darstellung der wesentlichen Kontrollverfahren zu vertiefen beziehungsweise, wo sinnvoll, zu ergänzen.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 5. Varianten der statistischen Versuchsplanung

Nur in wenigen Fällen besteht die Aufgabe darin, ein einziges Qualitätsmerkmal zu optimieren. Allein durch den Kostendruck kommt im Regelfall neben der Systemleistung ein weiterer Aspekt hinzu.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 6. Computer-Experiment

Seit KONRAD ZUSE’S Z3 aus dem Jahr 1941, welcher von vielen Wissenschaftlern als erster funktionstüchtiger Computer angesehen wird, steigen die Rechenleistung und Speicherkapazität von Computern kontinuierlich an.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 7. Versuchspläne für komplexe Zusammenhänge

Der Bedarf an Versuchsplänen (Testfelder), die zur Analyse komplexer und nichtlinearer Systeme eingesetzt werden, nimmt durch den steigenden Einsatz von Computer-Experimenten (siehe Kapitel 6) während Produktentwicklungen stetig zu.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 8. Metamodelle

Der direkte Einsatz von komplexen Simulationsmodellen ist durch ihre langen Rechenzeiten nur eingeschränkt zur Analyse technischer Systeme möglich. Aus diesem Grund werden alternativ sogenannte Metamodelle (auch Transferfunktionen, Surrogate-, Approximations- oder Ersatzmodelle genannt) verwendet, welche mit deutlich geringeren Rechenzeiten und ausreichend genauen Ergebnissen das komplexe Simulationsmodell approximieren. Die Rechenzeiten von Metamodellen liegen dabei im Bereich von Millisekunden, wobei die ursprünglichen Modelle teilweise Stunden oder Tage für die Berechnung eines einzelnen Ergebnisses benötigen.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 9. Optimierung

Neben Analysen zur Bestimmung von Zusammenhänge zwischen kontrollierbaren Eingangsvariablen (Faktoren) und Ausgangsgrößen (Qualitätsmerkmale) eines technischen Systems ist meist eine Optimierung von Systemeigenschaften durchzuführen. Dabei sind Faktoreinstellungen gesucht, welche ausgewählte Zielgrößen (Qualitätsmerkmale) \(z_1,\cdots,z_{n_z}\) für den angestrebten Systemeinsatz optimieren. Die Zielgrößen sollen dabei einen vorgegebenen Wert annehmen beziehungsweise minimiert oder maximiert werden. Optimierungsziele werden zur Vereinfachung der angewendeten Algorithmen in Minimierungsaufgabe umgewandelt. .
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 10. Sensitivitätsanalyse

Mathematische Modelle von realen Systemen (medizinisch, physikalisch, …) basieren meist auf einer Vielzahl von komplexen, nichtlinearen und gekoppelten Gleichungssystemen. Voraussetzung für eine sinnvolle Analyse dieser Gleichungssysteme ist ein umfangreiches Verständnis von dem Einfluss der Varianz der Eingangsvariablen x auf die Varianz der betrachteten Ausgangsgrößen y. In diesem Zusammenhang werden unter dem Begriff Sensitivitätsanalyse (SA) Verfahren bezeichnet, die Kenngrößen ermitteln, welche den Zusammenhang zwischen der Varianz der Eingangsgrößen \(x = \left( {x_{1} , \cdots x_{n_f} } \right)\) und der Varianz der Ausgangsgröße y ermitteln.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Kapitel 11. Strategie

Statistische Versuchsplanung hat viel mit Mathematik zu tun. Letztlich sind aber oft die nicht-mathematischen Dinge erfolgsentscheidend. Zum Beispiel hilft der strukturierte Ablauf, ein Problem zielgerichtet anzugehen. In sehr vielen Fällen sind ganze Arbeitsgruppen an Vorbereitung und Durchführung einer Versuchsreihe beteiligt, mitunter sogar abteilungsübergreifend. Die DoE hat in gewisser Weise einen teambildenden Character, da sie nicht nur einen favorisierten Faktor nach dem anderen untersucht, sondern von vornherein auf die gleichzeitige Analyse mehrerer Faktoren ausgerichtet ist. Damit wird das Projekt zu einer Sache gemeinsamen Interesses. Nachdem die theoretischen Grundlagen geklärt sind, soll dieses Kapitel dem Leser einige praktische Hinweise vermitteln und so den Einstieg in die Methode erleichtern.
Karl Siebertz, David van Bebber, Thomas Hochkirchen

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Blockchain-Effekte im Banking und im Wealth Management

Es steht fest, dass Blockchain-Technologie die Welt verändern wird. Weit weniger klar ist, wie genau dies passiert. Ein englischsprachiges Whitepaper des Fintech-Unternehmens Avaloq untersucht, welche Einsatzszenarien es im Banking und in der Vermögensverwaltung geben könnte – „Blockchain: Plausibility within Banking and Wealth Management“. Einige dieser plausiblen Einsatzszenarien haben sogar das Potenzial für eine massive Disruption. Ein bereits existierendes Beispiel liefert der Initial Coin Offering-Markt: ICO statt IPO.
Jetzt gratis downloaden!

Bildnachweise