Skip to main content
main-content

2022 | Buch

Technische Zuverlässigkeit

Datenanalytik, Modellierung, Risikoprognose

share
TEILEN
insite
SUCHEN

Über dieses Buch

Dieses Lehrbuch vermittelt Methoden der Datenanalytik zur Abbildung der Technischen Zuverlässigkeit und Risikoprognose unter Zuhilfenahme der Probabilistik, Statistik sowie der Modellbildung. Eingesetzt werden die Methoden der Technischen Zuverlässigkeit in den elementaren Phasen des Produktentstehungsprozesses (Konzept- und Serienentwicklung, Produktion) sowie während des Feldeinsatzes technischer Produkte.
Dieses Buch umfasst ausführlich Grundlagen der Statistik, graphische Visualisierung und Berechnungsverfahren. Zahlreiche Fallbeispiele werden durchgerechnet und repräsentieren typische Aufgabenstellungen des Ingenieurs bei der Zuverlässigkeitsanalyse in Entwicklung/Produktion sowie der Beurteilung von Feldschäden. Die Zielgruppen sind somit gleichermaßen Studenten der Ingenieurwissenschaften sowie Ingenieure, welche sich mit der Technischen Zuverlässigkeit im Rahmen der Entwicklung und Herstellung komplexer technischer Produkte sowie im Rahmen der Felddatenanalyse auseinandersetzen. Die Darlegung der Methoden und Verfahren der Technischen Zuverlässigkeit folgt dem Leitmotiv „Theoriegeleitet – Praxisorientiert“, sodass das vorliegende Buch sowohl als Nachschlagewerk als auch als Lehrbuch Verwendung finden kann.

Inhaltsverzeichnis

Frontmatter
1. Einführung
Zusammenfassung
Ein technisches Produkt zeichnet sich neben einer hohen Funktionalität, einer guten Bedienbarkeit sowie einem ansprechenden Design durch eine hohe Technische Zuverlässigkeit aus. Das vorliegende Kapitel leitet in das Themenfeld Technische Zuverlässigkeit ein und erläutert den Aufbau des Buches . Des Weiteren wird ein kurzer Einblick in die Historie der Fachdisziplin Technische Zuverlässigkeit in Deutschland gegeben sowie die Entwicklung von Zuverlässigkeitsmethoden am Beispiel der Methoden Fault Tree Analysis (FTA) und Failure Mode and Effects Analysis (FMEA) in den USA skizziert.
Stefan Bracke
2. Technische Zuverlässigkeit und Produktentstehungsprozess
Zusammenfassung
Die Technische Zuverlässigkeit ist eine Eigenschaft eines Produktes oder eines Prozesses. Die Analyse der Technischen Zuverlässigkeit erfolgt in verschiedenen Phasen des Produktentstehungsprozesses respektive des Produktlebenszyklus. Des Weiteren ist die Technische Zuverlässigkeit ein elementarer Baustein für die Risikoanalytik und Risikoprävention bei der Entwicklung und Produktion neuer Produktgenerationen sowie bei der Beurteilung des Produktbetriebs in der Nutzungsphase. Das vorliegende Kapitel skizziert den Produktentstehungsprozess und Produktlebenszyklus mit elementaren Phasen und Aktivitäten mit Schwerpunkt Technischer Zuverlässigkeit (Abschn. 2.1). Des Weiteren werden Einflussmöglichkeiten und Entscheidungssicherheit hinsichtlich der Technischen Zuverlässigkeit eines Produkts im Rahmen einer Risikoprävention in der Entwicklung, Herstellung sowie im Feldeinsatz aufgezeigt (Abschn. 2.2). Die Ausführungen erfolgen am Beispiel der Automobiltechnik, da die Entwicklung und Herstellung eines Automobils unter Beteiligung einer Vielzahl von technischen Fachdisziplinen erfolgt. Daher sind die aufgezeigten Zusammenhänge repräsentativ und leicht auf weitere technisch komplexe Produkte übertragbar.
Stefan Bracke
3. Elementare Begriffe
Zusammenfassung
Das vorliegende Kapitel skizziert die grundlegenden Begriffe der Technischen Zuverlässigkeit sowie der damit verbundener Fachdisziplinen als Grundlage für ein Verständnis der nachfolgenden Kapitel. Die Erläuterung der elementaren Begriffe baut auf Definitionen in den einschlägigen Standard- und Normungswerken auf. Die Darstellung der Begriffe wird punktuell um eine technische Sichtweise ergänzt, um das Verständnis im ingenieurwissenschaftlichen Anwendungskontext zu erleichtern. Zunächst werden Begriffe der Statistik und der technischen Spezifikation erläutert, Abschn. 3.1. Die Analyse der Technischen Zuverlässigkeit basiert auf der Untersuchung von Merkmalen, ergo stehen Produkt- und Prozessmerkmale sowie deren Ausprägungen im Mittelpunkt von Abschn. 3.2. Hernach folgt die ausführliche Diskussion und Erklärung elementarer Begriffe der Technischen Zuverlässigkeit und Instandhaltung, Abschn. 3.3. Technische Analysen erfolgen in der Regel unter Zuhilfenahme von Mess- und Prüfprozessen; die grundlegenden Begriffe werden in Abschn. 3.4 aufgezeigt. Da Zuverlässigkeitsanalysen häufig zur Substanziierung einer Risikoquantifizierung dienen, bilden die Begriffe der Risikoanalytik den Mittelpunkt des Abschn. 3.5.
Stefan Bracke
4. Beschreibende Statistik: Darstellungsformen
Zusammenfassung
Die erste Analyse von Beobachtungswerten respektive Mess- oder Prüfdaten kann über eine geeignete Visualisierung erfolgen, hierfür eignen sich grundlegende, standardisierte Formen um Veranschaulichung und Vergleichbarkeit zu gewährleisten. Das vorliegende Kapitel zeigt die grundlegenden Darstellungsformen, wie sie in den Ingenieurwissenschaften verwendet werden: Werteverlauf, Stabdiagramm, Histogramm, Kumulierte Darstellung, Boxplot, Mathematische Papiere, Boxplot und X-Y-Plot; Abschn. 4.2, 4.3, 4.4, 4.5, 4.6, 4.7 und 4.9. Abschließend erfolgt die Erläuterung der Darstellungsform Isochronendiagramm, mit welcher neben relativen/absoluten Häufigkeiten auch zeitliche Bezüge berücksichtigt werden können; Abschn. 4.8. Alle Darstellungsformen werden anhand des Fallbeispiels Motor-Pleuel erläutert, daher beinhaltet die Einleitung in Abschn. 4.1 eine kurze Einführung zur Motor-Pleuelkonstruktion, Spezifikation und einen Messdatenauszug aus einer laufenden Serienproduktion.
Stefan Bracke
5. Wahrscheinlichkeit und Zufallsexperimente
Zusammenfassung
Die Grundlagen zu den Themenfeldern Wahrscheinlichkeit und Wahrscheinlichkeitsrechnung im Kontext von ein- und mehrstufigen Zufallsexperimenten sowie verschiedene Anwendungsbeispiele bilden den Kern des vorliegenden Kapitels. Im Rahmen des Abschn. 5.1 werden Begriffe, Verknüpfungen, Axiome sowie Visualisierungen zum Themenkomplex Wahrscheinlichkeit erläutert. Im Mittelpunkt des Abschn. 5.2 steht die Pobabilistik, zunächst grundlegend für den einfachen Fall zweier Ereignisse dargestellt. Hernach werden mehrstufige Zufallsexperimente diskutiert, wobei die Themen Ereignisbäume, Totale Wahrscheinlichkeit sowie der Satz von Bayes im Fokus stehen.
Stefan Bracke
6. Datenerhebung und erste Analyse
Zusammenfassung
Das vorliegende Kapitel beinhaltet einfache Grundzüge der Datenerhebung sowie Datenverdichtung. Zunächst wird die Ziehung von Stichproben (Abschn. 6.1) sowie verschiedene Verfahren der Datenklassierung (Abschn. 6.2) diskutiert. Im Anschluss werden grundlegende Schätzmethoden für unbekannte Parameter einer Verteilung (Mittelwert, Varianz, Anteilswert) in Abschn. 6.3 dargelegt. Die Anwendung von verschiedenen Schätzern zu den Parametern Mittelwert und Streuung auf Basis vorliegender Stichproben erfolgt in Abschn. 6.4 und schließt mit dem Vergleich von verschiedenen Mittelwert- und Streuungsschätzern sowie der Schiefe einer Messwertreihe. Zur Veranschaulichung der Fachinhalte wird die Fallstudie Motor-Pleuel (vgl. Datenbasis in Abschn. 4.​1) herangezogen mit Fokus auf dem funktionskritischen Merkmal Durchmesser Pleuelauge. Bei den hier vorgestellten Schätzern handelt es sich um Verfahren, welche in grundlegenden Analysen der Technischen Zuverlässigkeit verwendet werden. Daher sind sie Gegenstand des vorliegenden, grundlagenorientierten Kapitels. Weitere Schätzer und Schätzverfahren, auch teilweise mit Bezug auf spezielle Verteilungsmodelle, sind Inhalt des Kap. 8.
Stefan Bracke
7. Verteilungsmodelle und Funktionen
Zusammenfassung
Das vorliegende Kapitel skizziert wichtige Verteilungsmodelle, welche in der Zuverlässigkeits- und Risikoanalyse Anwendung finden. Zunächst wird eine Einführung zu den allgemeinen Grundlagen eines Verteilungsmodells gegeben, Abschn. 7.1. Hernach werden wichtige stetige Verteilungsmodelle (Abschn. 7.2) und Test- respektive Prüfverteilungen (Abschn. 7.3) erläutert. Im Anschluss daran widmet sich Abschn. 7.4 den diskreten Verteilungsmodellen. Der Abschn. 7.5 fokussiert auf die Sättigungsfunktion, welche bei der Analyse komplexer Schadensfälle eingesetzt werden kann. Den Abschluss bildet Abschn. 7.6 mit einer Übersicht zu Mischverteilungsmodellen.
Stefan Bracke
8. Verteilungsmodelle: Parameterschätzung
Zusammenfassung
Im Mittelpunkt der nachfolgenden Ausführungen steht die Schätzung von Parametern im Hinblick auf die Anpassung eines Verteilungsmodells an eine konkret vorliegende Messwertreihe. Das robuste, und manuell einfach durchführbare Verfahren der Regressionsanalyse, welches für viele Verteilungsmodelle geeignet ist, zeigt Abschn. 8.1. Ein häufig angewendetes, iteratives Verfahren ist der in Abschn. 8.2 gezeigte Maximum-Likelihood-Estimator (MLE) nach Fisher (1912). Der MLE zeichnet sich durch seine universelle Anwendbarkeit aus. Außerdem werden weitere Schätzverfahren mit Bezug zu Verteilungsmodellen, welche in der technischen Zuverlässigkeitsanalyse verwendet werden, in Abschn. 8.3 skizziert.
Stefan Bracke
9. Konfidenzintervalle
Zusammenfassung
Das vorliegende Kapitel behandelt die Bestimmung von Konfidenzintervallen für verschiedene Parameter sowie für Ausgleichsmodelle. Zunächst werden im Rahmen eines einführenden Kapitels die Grundlagen zum Themenkomplex Konfidenzintervall aufgezeigt (vgl. Abschn. 9.1). Anschließend werden Verfahren zur Bestimmung von Konfidenzintervallen der Parameter Mittelwert und Streuung bei normalverteilter Grundgesamtheit vorgestellt (Abschn. 9.2) sowie des Konfidenzintervalls bei einem Anteilswert bei binomialverteilter Grundgesamtheit (Abschn. 9.3). Das Abschn. 9.4 fokussiert auf die Bestimmung von Konfidenzintervallen für Parameter des Weibullverteilungsmodells. Den Abschluss bildet Abschn. 9.5 mit der Vorgehensweise zur Ermittlung des Konfidenzintervalls für eine Ausgleichsfunktion, respektive ein angepasstes Verteilungsmodell.
Stefan Bracke
10. Korrelation und Regression
Zusammenfassung
Bei der technischen Zuverlässigkeitsanalyse steht in vielen Untersuchungen die Abhängigkeit respektive der Zusammenhang von verschiedenen funktions- oder sicherheitskritischen Merkmalen zueinander im Mittelpunkt: Mit der Korrelationsanalyse und der damit häufig einhergehenden Regressionsanalyse kann der Zusammenhang zwischen zwei oder mehreren Variablen abgebildet werden. Das Abschn. 10.1 zeigt die Grundlagen und skizziert einige Anwendungsfelder. Anschließend wird im Abschn. 10.2 die bivariate Korrelationsanalyse ausführlich dargestellt. Das Abschn. 10.3 widmet sich der bivariaten Regressionsanalyse zur Bestimmung eines funktionalen Zusammenhangs. Die Anwendung der Korrelations- und Regressionsanalyse innerhalb verschiedener Fallbeispiele sowie Interpretation der Ergebnisse zeigen Abschn. 10.4 und 10.5 (Scheinkausalität und Korrelation).
Stefan Bracke
11. Systemanalyse: Funktion, Fault Tree sowie Failure Mode and Effects
Zusammenfassung
Im Rahmen des vorliegenden Kapitels steht die Analyse von Funktion und Ausfall technischer Systeme im Vordergrund. Eines der wichtigsten Verfahren der technischen Zuverlässigkeitsanalyse ist die Fault Tree Analysis (FTA). Die FTA basiert auf der Algebra nach Boole sowie der Wahrscheinlichkeitsrechnung. Ziel ist die Bestimmung der Ausfallwahrscheinlichkeit eines technischen Systems. Zunächst werden die Grundlagen der Funktions- und Fehlerbaumanalyse (Fault Tree Analysis (FTA)), die Algebra nach Boole sowie Importanzkenngrößen dargestellt; vgl. Abschn. 11.1. Hernach werden in Abschn. 11.2 die Anwendungsbeispiele Kraftfahrzeug-Bremssystem, Brückenschaltung sowie Doppelbrücken-Konfiguration zur Funktions- und Fehlerbaumanalyse diskutiert. Abschließend wird die Failure Mode and Effects Analysis (FMEA) dargestellt, Abschn. 11.3. Die FMEA ist eine Methode zur systematischen Entdeckung von möglichen Risiken bei der Entwicklung von Produkten und Planung von Produktionsprozessen. Genau genommen steht bei der FMEA das methodische Vorgehen bei der Detektion möglicher Fehler im Mittelpunkt, wobei keine besonderen Kenntnisse zur technischen Statistik oder Datenanalytik nötig sind. Dennoch findet die FMEA hier Erwähnung: Die Vorgehensweise der FMEA zeichnet sich durch ihren induktiven Charakter aus und stellt damit das Pendant zur Fault Tree Analysis (FTA) mit ihrem deduktiven Charakter dar.
Stefan Bracke
12. Analyse des Ausfallverhaltens von Bauteilen, Baugruppen, Systemen
Zusammenfassung
Das vorliegende Kapitel skizziert Vorgehensweisen zur Durchführung einer Zuverlässigkeitsanalyse auf Basis von Schadensdaten. Die Schadensdaten beziehen sich auf Bauteile, Baugruppen oder Systeme und können im Rahmen einer Erprobung (Entwicklungsphase), beim End-of-Line-Test (Produktion) oder auf Basis einer Produktflotte im Feldeinsatz erhoben worden sein. In Abschn. 12.1 wird die allgemeine Vorgehensweise vorgestellt. Das Abschn. 12.2 zeigt die beispielhafte Anwendung der Datenanalyse auf Basis eines gegebenen Datensatzes. Die skizzierte Vorgehensweise orientiert sich an Näherungsverfahren zur Parameterschätzung respektive derer Konfidenzintervalle, um die einfache Nachvollziehbarkeit zu gewährleisten. Zusätzlich werden Hinweise gegeben, welche weiteren – zum größten Teil iterativ durchzuführenden – Berechnungsmethoden zur Datenanalyse eingesetzt werden können. Im Zentrum von Abschn. 12.3 stehen verschiedene Verfahren zur Anwärterprognose in Erprobung und Feld. Die Anwärterprognose durch Korrekturverfahren kann als Hochrechnung – explizit bei Schadensfällen im Feld – verstanden werden, da letztendlich von einer Stichprobe (bekannte Schadensfälle) auf die Grundgesamtheit (Produktflotte) geschlossen wird. Die Vorstellung des RAPP-Verfahrens in Abschn. 12.4 zur Risikoanalyse von Serienschäden im Feld bildet den Abschluss. Das Verfahren umfasst Anwärterprognose, gefährdete Flottenanteile sowie die Berücksichtigung eines potenziellen Sättigungsverhaltens im Ausfallverhalten.
Stefan Bracke
13. Signifikanztests
Zusammenfassung
Im Zentrum des Kap. 13 steht die Datenanalytik auf Basis von Signifikanztests (Hypothesentests). Das Abschn. 13.1 führt in das Themenfeld Signifikanztest ein und erläutert mögliche Zielsetzungen im Rahmen eines Anwendungsbeispiels. Die Grundlagen zum Signifikanztest sowie zugehörigen Kennzahlen und Begrifflichkeiten stehen im Mittelpunkt des Abschn. 13.2. Signifikanztests zur Untersuchung einer vorliegenden Messwertreihe – der Einstichprobenfall – werden in Abschn. 13.3 aufgezeigt. Werden Analysen auf Basis von Beobachtungen innerhalb zweier Messwertreihen (Zweistichprobenfall) gemacht, zeigt Abschn. 13.4 hierzu geeigente Signifikanztests auf. Liegen mehr als zwei Stichproben vor, können Untersuchungen mit Signifikanztests für den Mehrstichprobenfall eingesetzt werden; Abschn. 13.5.
Stefan Bracke
14. Prototype Testing und Accelerated Testing
Zusammenfassung
Im Rahmen der Serienentwicklung eines Produktentstehungsprozesses spielt das Testing von Prototypen zur Analyse der Technischen Zuverlässigkeit eines Produktes mit einem bestimmten Entwicklungsstand eine entscheidende Rolle. Das vorliegende Kapitel widmet sich zunächst den Grundlagen des beschleunigten Testings (Accelerated Testing); Abschn. 14.1. Hernach werden wichtige Modelle vorgestellt, welche innerhalb der Planung und Analyse von Accelerated Testing Aktivitäten eingesetzt werden können, so bspw. Arrhenius Modell, Wöhlerversuch, Coffin-Manson-Modell; Abschn. 14.2. Des Weiteren ist bei der Planung einer Erprobung die Anzahl der zu testenden Prototypen von zentraler Bedeutung; hierzu zeigt Abschn. 14.3 zwei Ansätze zur Bestimmung eines Mindestumfanges. Ein Fallbeispiel zum Accelerated Testing unter Nutzung des Weibullverteilungsmodells sowie entsprechender Datenanalyse zeigt Abschn. 14.4. Das qualitative Accelerated Testing unter Zuhilfenahme der Verfahren Highly Accelerated Life Test (HALT) sowie Highly Accelerated Stress Screening (HASS) steht im Mittelpunkt des Abschn. 14.5.
Stefan Bracke
15. Prüfprozesseignung
Zusammenfassung
Die Durchführung von Messungen und der Einsatz von Messmitteln erfolgt innerhalb von Prüfprozessen in allen Phasen des Produktlebenszyklus: Entwicklung, Produktion und Feldbetreuung. Die Analyse von Mess- und Prüfprozessen erfolgt im Rahmen der Prüfplanung. Das vorliegende Kapitel zeigt zunächst die Grundlagen der Analyse von Mess- und Prüfprozessen,insbesondere zu Einflussgrößen auf das Messergebnis sowie die Bedeutung der Messunsicherheit auf (Abschn. 15.1). Daser Abschn. 15.2 stellt die wichtigsten Standards der Prüfprozesseignungsanalyse zur Analyse der Eignung oder Fähigkeit eines Prüfprozesses im Hinblick auf die Messobjektspezifikationen. Hernach wird die Analyse der Kurzzeitprüfmittelfähigkeit (Cg-, Cgk-Studie, vgl. Abschn. 15.3), die Wiederhol- und Vergleichspräzision (%GRR-Studie; Abschn. 15.4) sowie die umfassende Analyse der Prüfprozesseignung (QMS-/QMP-Studie) unter Ermittlung der erweiterten Messunsicherheit U erläutert, Abschn. 15.5. Den Abschluss des Kapitels bilden Anmerkungen zu den historisch bekannten „Verfahren X“ zur Analyse von Prüfmittelfähigkeit und Prüfprozesseignung; Abschn. 15.6.
Stefan Bracke
16. Statistical Process Control (SPC)
Zusammenfassung
Die Beherrschbarkeit und Qualitätsfähigkeit von Produktionsprozessen ist Voraussetzung der Sicherstellung einer zuverlässigen Herstellung von technisch komplexen Produkten. Der Terminus „Zuverlässigkeit“ bezieht sich hier – abweichend von der Definition in Kap. 3 – auf den Fertigungsprozess sowie auf die Wahrscheinlichkeit eines fehlerfreien Anteils in Bezug auf ein überwachtes Produktmerkmal innerhalb eines definierten Zeitintervalls der Produktherstellung. Innerhalb des Abschn. 16.1 werden zunächst die Grundlagen von Statistical Process Control dargelegt. Das Abschn. 16.2 befasst sich mit der technischen Einführung einer statistischen Prozessregelung (Statistical Process Control – SPC) innerhalb der Fertigung und stellt die Planung sowie Realisierung in der Serienvorbereitung sowie die Anwendung in der Produktionsphase dar. Die univariate Prozessanalyse mittels Prozessfähigkeitsindizes sowie Prozessvisualisierungen innerhalb einer statistischen Prozesslenkung im Kontext der verschiedenen Phasen des Produktentstehungsprozesses zeigt Abschn. 16.3. Ansätze zur multivariaten Prozessanalyse mittels Prozessfähigkeitsindizes werden in Abschn. 16.4 skizziert. Im Mittelpunkt des Abschn. 16.5 steht die Regeltechnik von Produktionsprozessen mit ihren Bestandteilen Prozessvisualisierung, Design von Regelkarten und Regelkarten-Analyse.
Stefan Bracke
Backmatter
Metadaten
Titel
Technische Zuverlässigkeit
verfasst von
Stefan Bracke
Copyright-Jahr
2022
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-65015-8
Print ISBN
978-3-662-65014-1
DOI
https://doi.org/10.1007/978-3-662-65015-8

Premium Partner

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.