Skip to main content

2016 | Buch

Statistik für Ausfalldaten

Modelle und Methoden für Zuverlässigkeitsuntersuchungen

insite
SUCHEN

Über dieses Buch

Dieses Buch bietet eine Einführung in die statistische Analyse von Beobachtungs- und Messwerten in Zuverlässigkeitsexperimenten und ist hauptsächlich als Handbuch für den Praktiker gedacht. Leser mit einer technischen Ausbildung, die einen tieferen Einblick in die mathematische Statistik wünschen, finden in diesem Buch eine Anleitung zum Umgang mit empirischer Information und deren Verknüpfung mit statistischen Methoden.

Im Vergleich mit anderen Anwendungen der mathematischen Statistik haben Ausfalldaten einige Besonderheiten: Sie sind zeitabhängig, was sich in der Ausfallrate ausdrückt. Die Wahrscheinlichkeit ist gering, dass im Beobachtungszeitraum alle Objekte ausfallen, es entstehen also zensierte Stichproben. Die Ausfallwahrscheinlichkeit im Experiment lässt sich durch Überlastung erhöhen, man muss aber zusätzlich auf die Zuverlässigkeit unter Normbelastung extrapolieren. Für diese Besonderheiten werden spezielle Modelle und Methoden benötigt, die in der Fachliteratur über Statistik sonst nur selten vorkommen.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Einführung
Zusammenfassung
In der Zuverlässigkeitstechnik dient die Mathematische Statistik dem Schätzen und Testen der Ausfallwahrscheinlichkeit technischer Objekte in der Zeit auf der Basis von Ausfalldaten (failure data). Es wird zwischen reparierbaren und nicht reparierbaren Objekten unterschieden, Total- und Driftausfällen sowie Experimenten unter normaler oder erhöhter Belastung. Die typischen Experimente und Datenstrukturen, Wahrscheinlichkeitsmodelle und statistischen Methoden werden allgemein verständlich eingeführt. Vier typische Experimente werden beschrieben. Sie sind den Ausführungen über die statistischen Methoden in den folgenden speziellen Kapiteln zugrunde gelegt. Für nicht reparierbare Objekte geht es um Parameter von Lebensdauerverteilungen, für reparierbare Objekte um die von stochastischen Prozessen aus der Klasse der Punktprozesse, für Driftausfälle um Überschreitungswahrscheinlichkeiten von Toleranzgrenzen und für beschleunigte Lebensdauertests um geeignete Zeitraffungsmodelle.
Gisela Härtler
Kapitel 2. Wahrscheinlichkeitsmodelle
Zusammenfassung
Dieses Kapitel stellt die benötigten Grundbegriffe und wichtigsten Rechenregeln der Wahrscheinlichkeitsrechnung bereit: zufälliges Experiment, zufälliges Ereignis, zufällige Veränderliche, verschiedene Wahrscheinlichkeitsbegriffe (Laplace’sche Wahrscheinlichkeit, Grenzwert der relativen Häufigkeit, subjektive Wahrscheinlichkeit), das sichere und unmögliche Ereignis, die „Und-“ und „Oder-“ Verknüpfungen von zufälligen Ereignissen, den Satz über die totale Wahrscheinlichkeit und den Satz von Bayes. Als Verteilungen diskreter Zufallsveränderlicher werden die Binomial- und Poisson-Verteilung betrachtet, für kontinuierliche Zufallsveränderliche die Normalverteilung, Chi-Quadrat-Verteilung, Rechteckverteilung und Betaverteilung und für geordnete Zufallsveränderliche die Verteilung geordneter Stichprobenwerte und die drei Typen der asymptotischen Extremwertverteilungen. Für mehrdimensionale Zufallsveränderliche werden mehrdimensionale Verteilungen und Regressionsmodelle kurz eingeführt.
Gisela Härtler
Kapitel 3. Wahrscheinlichkeitsmodelle der Zuverlässigkeit
Zusammenfassung
Das zentrale Denkmodell der Zuverlässigkeitstechnik ist die Ausfallrate. Für Ausfälle nicht reparierbarer Objekte ist es die auf die Überlebenswahrscheinlichkeit bezogene PDF einer Lebensdauerverteilung und für reparierbare die 1. Ableitung der kumulativen Mittelwertfunktion eines Zählprozesses. Man erwartet Ausfallraten in der Form einer „Badewannenkurve“. Die Ausfallraten der üblichen Wahrscheinlichkeitsmodelle ermöglichen das nicht. Ihre Ausfallraten sind: Exponentialverteilung (konstante Ausfallrate), Weibull-Verteilung (monoton abnehmend, konstant oder monoton zunehmend), Gammaverteilung (monoton abnehmend, konstant oder monoton zunehmend) und logarithmische Normalverteilung (erst zu-, dann abnehmend). Es gibt verallgemeinerte Weibull- und Gammaverteilungen mit je vier Parametern und Mischungen von Verteilungen. Sie sind in Bezug auf die Ausfallrate flexibler, jedoch statistisch schwierig zu handhaben. Für reparierbare Objekte werden Klassen von Lebensdauerverteilungen gebildet, die eine grobe Abschätzung der zeitabhängigen Ausfallwahrscheinlichkeit ermöglichen.
Gisela Härtler
Kapitel 4. Konzepte der Statistik
Zusammenfassung
Die Auswertung von Ausfalldaten geschieht nach unterschiedlichen statistischen Konzepten, die kurz eingeführt werden. Die Beziehung zwischen Daten und Modell wird aus den Perspektiven der Wahrscheinlichkeitsrechnung, schließenden Statistik und Bayes-Statistik betrachtet. Die wichtigsten Eigenschaften von Stichproben in der Zuverlässigkeitstechnik und die Grundgedanken der klassischen Schätz- und Testtheorie (Parameterschätzung, Annahmetests, Tests mit Alternativhypothese, Anpassungstests) sind beschrieben. Das Likelihood-Prinzip wird eingeführt und die Punkt- und Intervallschätzung unbekannter Parameter. Angenäherte Vertrauensintervalle werden mithilfe der Relativen Likelihood-Funktion gebildet. Die Methode der Kleinsten Quadrate für lineare Regressionsmodelle und die lineare Schätzung von Lage- und Skalenparametern auf der Grundlage geordneter Stichproben werden betrachtet. Schließlich wird die grafische Parameterschätzung in Wahrscheinlichkeitsnetzen und das Bootstrapping beschrieben.
Gisela Härtler
Kapitel 5. Nicht reparierbare Objekte mit Totalausfällen
Zusammenfassung
Die wichtigsten nicht parametrischen und parametrischen Methoden zur Auswertung von Lebensdauertests nicht reparierbare Objekte werden beschrieben. Die parameterfreien Methoden sind Punktschätzungen und Vertrauensintervalle von Ausfallwahrscheinlichkeiten, Vergleich von zwei Wahrscheinlichkeiten und ein Zwei Stichproben-Test (Kolmogorov-Smirnov-Test). Die parametrischen Wahrscheinlichkeitsmodelle sind Exponentialverteilung und Weibull-Verteilung. Für exponential verteilte Ausfalldaten wird die Maximum-Likelihood-Schätzung für Typ I- und Typ II-zensierte Stichproben behandelt, die Berechnung von Vertrauensintervallen, das Testen der Ausfallrate (einfach und sequenziell) sowie Anpassungstests (Kolmogorov-Test, \( \chi^{2} \)-Test, Summierte-Lebensdauer-Test). Für Weibull-verteilte Ausfalldaten werden die Darstellung im Wahrscheinlichkeitsnetz, grafische Schätzung (auch von Mischverteilungen) und Maximum-Likelihood-Schätzung sowie die Darstellung der Log-Likelihood-Funktion über dem Parameterraum beschrieben.
Gisela Härtler
Kapitel 6. Reparierbare Objekte mit Totalausfällen
Zusammenfassung
Nichtparametrische und parametrische statistische Methoden für Totalausfälle reparierbarer Objekte werden betrachtet. Die Reparaturdauern sind eliminiert, d. h., die Zeit ist die reine Funktionszeit (up-time). Das zentrale Wahrscheinlichkeitsmodell ist der Homogene Poisson-Prozess (konstante Ausfallintensität). Nicht parametrisch lässt sich der Prozess durch die kumulative Mittelwertfunktion (CMF) charakterisieren. Ihre Punktschätzung ist die Nelson-Aalen-Schätzung. Parameterfreie Vertrauensintervalle werden punktweise oder kontinuierlich in der Zeit berechnet. Die Exponentialverteilung ist das zentrale parametrische Modell für die zufällige Zeit zwischen den Ausfällen. Der einzige unbekannte Parameter ist die konstante Ausfallrate bzw. reziprok dazu die MTBF (Mean Time Between Failures). Ihre Schätzung und Tests beruhen auf der Maximum-Likelihood-Methode. Es werden Tests der MTBF mit vorgegebener Operationscharakteristik und Anpassungstests für die Exponentialverteilung beschrieben.
Gisela Härtler
Kapitel 7. Nicht reparierbare Objekte mit Driftausfällen
Zusammenfassung
Driftausfälle entstehen durch die Degradation von Komponenten. Als Ausfall gilt jener Zeitpunkt, zu dem ein Leistungsparameter erstmals eine Toleranzgrenze überschreitet. Die Ursache von Driftausfällen sind langsame physikalisch/chemische Prozesse, für die nur selten ein mathematisches Modell (deterministisch) bekannt ist. Durch Vereinfachung und Hinzufügen zufälliger Größen wird es durch ein Regressionsmodell approximiert. Einige Grundeigenschaften von typischen Modellen und die Bestimmung der Ausfallverteilung für Driftausfälle sind beschrieben. Die erforderlichen Daten und ihre kritische Überprüfung werden an Beispielen praxisnah betrachtet. Die Wahrscheinlichkeitsverteilung der Zeit bis zum Ausfall durch die Überschreitung der Toleranzgrenze wird für ein Regressionsmodell mit einem unbekannten Parameter und logarithmisch normal verteilten Schätzwerten des Regressionskoeffizienten angegeben sowie für die Schätzwerte von zwei unbekannten Parametern mit zweidimensionaler Normalverteilung.
Gisela Härtler
Kapitel 8. Beschleunigte Tests
Zusammenfassung
Objekte mit hoher Zuverlässigkeit fallen in der maximal möglichen Experimentierzeit zu selten aus. Deshalb werden Lebensdauer- und Degradationsuntersuchungen unter erhöhter Belastung durchgeführt. Die Ausfallwahrscheinlichkeit wird mit einem Zeitraffungsfaktor auf normale Belastung umgerechnet. Dieser beruht auf einem Beschleunigungsmodell, das die Geschwindigkeit des zum Ausfall führenden Prozesses von der Belastung ausdrückt. Für Lebensdauer- und Degradationsuntersuchungen sind SAFT-Modelle (Scale Accelerated Failure Time) üblich. Dazu ist es notwendig, die Ausfallverteilung in eine LS-Verteilung (Location Scale-Verteilung) zu transformieren und ihre Parameter zu schätzen und sie mit dem Beschleunigungsmodell in Relation zu setzen. Das geschieht durch lineare Regressionsgleichungen, die für den Temperatureinfluss auf dem Arrhenius-Modell, für den Einfluss der elektrischen Spannung auf dem Inverse-Power-Rule-Modell und für weitere nichtthermische Einflussgrößen auf dem Eyring-Modell beruhen.
Gisela Härtler
Backmatter
Metadaten
Titel
Statistik für Ausfalldaten
verfasst von
Gisela Härtler
Copyright-Jahr
2016
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-50303-4
Print ISBN
978-3-662-50302-7
DOI
https://doi.org/10.1007/978-3-662-50303-4