2017 | OriginalPaper | Buchkapitel
Metamodelle
verfasst von : Karl Siebertz, David van Bebber, Thomas Hochkirchen
Erschienen in: Statistische Versuchsplanung
Verlag: Springer Berlin Heidelberg
Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.
Wählen Sie Textabschnitte aus um mit Künstlicher Intelligenz passenden Patente zu finden. powered by
Markieren Sie Textabschnitte, um KI-gestützt weitere passende Inhalte zu finden. powered by
Die direkte Analyse und Optimierung komplexer Systeme ist schwierig und zeitaufwendig, so dass diese immer häufiger mit der Unterstützung von Metamodellen durchgeführt wird. Metamodelle bilden das zu untersuchende System auf Basis von Mess- oder Simulationsdaten mathematisch ab und können Systemantworten im Bereich von Millisekunden oder Sekunden vorhersagen. Der Einsatz von linearen Modellen oder Polynomen mit starrer Vorgabe der maximal abzubildenden Komplexität oder der Grundform von Zusammenhängen ist nicht zielführend. Gerade bei unbekannter und gleichzeitig hoher Komplexität des abzubildenden Systems führt dies zu falschen Folgerungen. Daher sind verschiedenste Modellverfahren entwickelt worden, die ohne feste Vorgabe von Systemzusammenhängen komplexe Systeme auf Basis von raumfüllenden Mess- oder Simulationsdaten abbilden. Dieses Kapitel stellt Grundlagen und Algorithmen verschiedener Verfahren sowie Methoden zur Qualitätskontrolle vor. Dabei startet es bei alt bekannten Verfahren, wie Regression oder Splines und entwickelt sich über verbreitete Verfahren, wie Kriging, Radiale Basisfunktionen oder Künstliche Neuronale Netze hin zu Support Vector Regression oder Gauß Prozess Modellen. Die Aufbereitung der Algorithmen ermöglicht eine gezielte Auswahl und den sicheren Einsatz der Verfahren in kommerziellen Softwarepaketen oder eine erste grundlegende Implementierung.