Skip to main content
main-content

Über dieses Buch

Speicher, Mikroprozessoren, Opto-, MEMS- und NEMS-Bauteile zusammen mit den passiven Komponenten sind das Hauptthema des Buches. Praktische Methoden zur Untersuchung der Zuverlässigkeit sind ergänzt durch umfangreiche Tabellen und veranschaulicht durch zahlreiche Diagramme. Damit erhält der Leser präzise, praxisnah und umfassend sämtliche Zuverlässigkeitsaspekte einfacher und komplexer elektronischer Bauelemente - von der Fehlerphysik über die Prüffeldpraxis und Ausfallmechanismen bis zur Qualitätsüberwachung.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Einführungskapitel

Zusammenfassung
Der Begriff Qualität enthält in der Tat zwei Begriffe: Konformität, die sich auf die Konformität mit den Anforderungen im Moment der Lieferung an den Kunden bezieht, und Zuverlässigkeit, die sich darauf konzentriert, wie die Konformität mit den Anforderungen während des Produktgebrauchs aufrechterhalten wurde. Der Begriff Qualität wird also in zweierlei Hinsicht verwendet: i) als Konformität, d. h. Qualität im Moment der Lieferung, ii) als Qualität. Der wesentliche Unterschied zwischen Qualität und Zuverlässigkeit besteht darin, dass sich eine Qualitätsaussage stets auf einen vorausgegangenen beziehungsweise gegenwärtigen Zustand bezieht, während eine Zuverlässigkeitsaussage das künftige Verhalten eines Objekts voraussagt. Die Qualitätsaussage betrifft also einen Augenblickszustand, während die Zuverlässigkeitsaussage einen Zeitabschnitt umfasst. Die Qualität eines Objekts lässt sich im Allgemeinen anhand einiger ausgewählter Parameter recht exakt feststellen, während die Zuverlässigkeit stets eine statistische oder eine Zufallsgröße ist. Kap. 1 beschäftigt sich mit Fachausdrücken (Abschn. 1.5), mit mathematischen Modellen (Abschn. 1.6) und Modellierung der Zuverlässigkeit der integrierten Schaltungen (Abschn. 1.6.1) sowie mit Ausfalltypen (Abschn. 1.7). Die bekannte Badewannenkurve wird in Abschn. 1.8 zusammen mit einigen Beispielen sowie der Überlebenswahrscheinlichkeitskurve (Abschn. 1.14) und Screeningtests behandelt (Abschn. 1.18).
Titu-Marius I. Băjenescu

Zuverlässigkeitsengineering

Frontmatter

Kapitel 2. Zuverlässigkeit einbauen

Zusammenfassung
Gemäß den Regeln zum Einbauen der Zuverlässigkeit muss man während der Produktentwicklung, der Produktfabrikation und des Zuverlässigkeitsproduktüberwachungsprozesses das sogenannte Design for Reliability (DfR) berücksichtigen (Abschn. 2.2). Die Zuverlässigkeitstechnik beschäftigt sich mit der Zuverlässigkeit von Bauteilen und Systemen sowie mit Methoden zur Zuverlässigkeitsanalyse und -sicherung. Die Aufgaben der Zuverlässigkeitstechnik: a) Bestimmung der Verlässlichkeit, b) Aufspüren von Schwachstellen, c) Aufbau fehlertoleranter Systeme. Die Methodik der robusten Projektierung (Abschn. 2.3) bedeutet eine gute Möglichkeit zur Verbesserung der Entwicklungsproduktivität. Um eine entsprechende Prozesszuverlässigkeit (Abschn. 2.4) zu sichern, muss man folgende Elemente einbeziehen: WLR (Wafer-Level Reliability) (Abschn. 2.4.1), angetriebene Zuverlässigkeitsabwicklung der Montage, Vorrichtungsabspüren (Device Traceability (DT), Gerätenrückverfolgbarkeit) und die statistische Prozesskontrolle (SPC). Moderne Packagingtechnologien sorgen dafür, dass Produkte immer kleiner werden können (Abschn. 2.4.2). Die Zuverlässigkeitsverbesserung (Abschn. 2.5) ist das Ergebnis von Test, Ausfall und Verbesserungstätigkeit. Man muss klar unterscheiden zwischen Burn-in (Abschn. 2.6) als Prüfung oder als Behandlung. Die thermische Prüfung allein ist nicht ausreichend für die Zuverlässigkeitsbewertung eines Produkts (Abschn. 2.7); man muss dazu Screening und Burn-in zu kombinieren (Abschn. 2.8).
Titu-Marius I. Băjenescu

Kapitel 3. Halbleiterpackaging/Verpackungstechnologien und Zuverlässigkeit

Zusammenfassung
Was die Zuverlässigkeit betrifft, ist das Gehäuse eines der wichtigsten Teile der elektronischen Komponente. Die Rolle von Epoxidmaterial (Abschn. 3.2.1), Gussmaterial (Abschn. 3.2.2), Klebstoff (Abschn. 3.2.3), Kunststoffverpackungen (Abschn. 3.2.4), Packagingentwicklung (Abschn. 3.2.5) und Umwelteinwirkungen (Abschn. 3.3) wird diskutiert. Environmental Stress Screening (ESS) – Abschn. 3.4 – ist der Prozess, bei dem ein neu hergestelltes Produkt Umweltbelastungen ausgesetzt wird, um versteckte Fehler, die während des Herstellungsprozesses auftreten, zu identifizieren und zu beseitigen. ESS wird zu 100 % an den hergestellten Artikeln durchgeführt, um die Kindersterblichkeitsdefekte zu eliminieren. Jeder IC ist in einem Kunststoff- oder Keramikgehäuse verkapselt. Er besteht aus einem Siliziumchip, auf dem durch Ätzen verschiedene mikroelektronische Bauelemente integriert sind. Da können Millionen dieser Bauelemente untergebracht sein (Abschn. 3.5). Es gibt viele Probleme mit der Zuverlässigkeit einzelner Gehäuse (Abschn. 3.6). Die Verpackung von MEMS – Abschn. 3.9 – ist eher eine Kunst als eine Wissenschaft, da Standards für MEMS-Verpackungen nicht existieren. Die Zuverlässigkeit von Nanobauelementen (NEMS) – Abschn. 3.9.3 – ist bei Weitem noch nicht perfekt. Abbau und Ausfallmechanismen in Mikrotechnologien (Stiction, Reibung, Haftreibung, Verschleiß) haben unterschiedliche physikalische Bedeutung auf atomarer und molekularer Ebene. Die modernsten Technologien – Abschn. 3.10 – öffnen ein weites Feld von Anwendungsgebieten.
Titu-Marius I. Băjenescu

Kapitel 4. Memristor, der Speicherwiderstand

Zusammenfassung
Ein neuronales Netzwerk wird modelliert mit elektrischen Schaltkreisen. Der „Memistor“ (ein Widerstand mit Speicher) – Abschn. 4.1.1 – wurde entwickelt, um eine elektronisch variable Verstärkungsregelung zusammen mit dem Speicher zu erhalten, der zum Speichern der Erfahrungen des Systems erforderlich ist. Die Erfahrungen werden in ihrer kompaktesten Form gespeichert. Memristoren (Abschn. 4.1.2) sind im Grunde genommen eine vierte Klasse von elektrischen Schaltungen, die den Widerstand, den Kondensator und die Induktivität verbinden, der einzigartige Eigenschaften hat vor allem im Nanobereich. So variiert der Widerstand eines Memristors je nach der Funktion des Memristance-Gerätes. Die neuronalen Netze sind RMS-Aufgaben (Recognition, Data Mining and Synthesis) den Embedded Systemen gewidmet (Abschn. 4.3). Diese MEMS-Vorrichtungen werden in verschiedenen Stadien während des Herstellungsprozesses getestet (Abschn. 4.2.1), um die Leistung und Zuverlässigkeit der Vorrichtung zu prüfen. Die Spintronik verwendet eine bekannte Wirkung (Spin Transfer), um simultan memristive Nanosynapsen und effizientere Nanoneuronen zu realisieren. Die Forscher haben eine neue Art Memristor, basierend auf den Tunneleffekt, entwickelt (Abschn. 4.5.2). Durch Modulation des elektrischen Feldes ist es möglich, den elektrischen Widerstand zu variieren. Eine Memristor-Synapse besteht aus einer dünnen ferroelektrischen Schicht zwischen zwei Elektroden. Deren Leitfähigkeit kann ähnlich wie in Neuronen durch Strompulse gesteuert werden.
Titu-Marius I. Băjenescu

Kapitel 5. Test und Testbarkeit integrierter Schaltungen

Zusammenfassung
Ganz allgemein ist die Testbarkeit die Anzahl der Schritte, die zur Berechnung der Testmuster erforderlich ist, aber es kann auch die Zeit zur Durchführung eines Tests sein. Der Aufwand wird von der eingesetzten Methodik abhängen, doch in viel größerem Maße wird er vom Aufbau einer zu prüfenden Schaltung bestimmt. Der Test hängt von der Anzahl der Elemente (Transistoren, Verbindungen) ab und soll mit vertretbarem Aufwand erfolgen. In diesem Kapitel werden elektrische und funktionelle Tests und die Testbarkeit von elektronischen Bauteilen diskutiert. Anhand von Umweltbedingungen (Abschn. 5.1.1) werden Umwelt- und spezielle Tests komplexer ICs vorgestellt (Abschn. 5.1.2). Zunächst werden die Probleme im Zusammenhang mit der elektrischen Prüfung von ICs identifiziert (Abschn. 5.1.3). Dann werden die spezifischen Probleme der Mikrosysteme vorgestellt, bei denen die Endprüfung komplex ist, weil man auch die mechanischen Elemente prüfen muss (Abschn. 5.1.4). Eine Überprüfung der Auswahl durch Tests mit Fokus auf Speicher (Abschn. 5.3) und Mikroprozessoren (Abschn. 5.7) einschließlich Funktionstests (Abschn. 6.4) rundet das Bild der Bauteilprüfung ab. Schließlich werden in den letzten beiden Unterkapiteln die Testfragen der elektronischen Komponenten aus der Sicht der Anwender betrachtet: die Testbarkeit von Elektronik- und Telekommunikationssystemen (Abschn. 5.8) und einige Empfehlungen für Systemhersteller zu den Eingangskontrolltests von elektronischen Komponenten (Abschn. 5.9).
Titu-Marius I. Băjenescu

Zuverlässigkeit elektronischer Bauelemente

Frontmatter

Kapitel 6. Zuverlässigkeit diskreter passiver Bauelemente

Zusammenfassung
Die Zuverlässigkeit einer Komponente ist durch Material, Konstruktion und Herstellung gegeben. Sie ist auch stark davon abhängig, unter welchen Bedingungen die Komponente eingesetzt wird. Die „Badewannenkurve“ ist nicht immer zu beobachten. Wir diskutieren die Ausfallrisiken einiger repräsentativer Typen von diskreten passiven elektronischen Komponenten (Kondensatoren, Dioden und Steckverbinder). In Anbetracht dieser Risiken erklären wir die wichtigsten Eigenschaften des entsprechenden Bauelementes, die typischen Fehlerarten (das elektrische Verhalten der fehlerhaften Elemente) und die verwendeten Methoden der Fehleranalyse (FA) in den Zuverlässigkeitsstudien des Bauelementes. Wir identifizieren dann die Ausfallmechanismen (AM) (die physikalisch-chemischen Prozesse, die den Fehler erzeugen), bevor wir eine Verbesserung der Zuverlässigkeit mit Korrekturmaßnahmen empfehlen. Durch Betrachtung einer elektrostatischen Entladung (ESD), die in jeder elektronischen Komponente entsteht, schließen wir dann einen Ausfallmechanismus, um mögliche Verfahren zur ESD-Verhinderung zu untersuchen. Die Frühausfälle – verursacht in der Regel durch unsachgemäße Herstellung – sollten im Interesse des Herstellers und Anwenders von vornherein vermieden werden. Dieser Wunsch ist nicht immer hinreichend erfüllbar. Vor allem physikalische und chemische Vorgänge, die in ihrer Wirkung bisher unerkannt sind, können versteckte Fehler hervorrufen, die sich als Frühausfälle zeigen.
Titu-Marius I. Băjenescu

Kapitel 7. Zuverlässigkeit von Leistungsbauelementen

Zusammenfassung
Leistungshalbleiterbauelemente (Leistungs-MOSFET, Thyristor, und Bipolartransistor mit isoliertem Gate (IGBT)) werden als Schalter oder Gleichrichter in leistungselektronischen Schaltungen eingesetzt. Leistungsbauelemente führen eine größere Strommenge und sind typischerweise in der Lage, im ausgeschalteten Zustand eine größere Sperrvorspannung zu unterstützen. Sie werden nur im Kommutierungsbetrieb verwendet und dafür optimiert. Für bipolare Transistoren gibt es auch Grenzen für den Impulsbetrieb und für den zweiten Durchbruch. Heute sind die wesentlichsten Schwierigkeiten für Leistungstransistoren die schlechten Betriebsbedingungen wegen der hohen Energieniveaus. Bezüglich der Qualität von Leistungskomponenten in Anlagen und Systemen stellen die Betriebsbedingungen dieser Bauelemente die erste Priorität dar. Bei Stromüberlast kann für eine gegebene Überlasttemperatur der Stromfluss zu Alterungserscheinungen durch Elektronenwanderung führen. Ein repräsentativer Fehlermechanismus, basierend auf dem Transport von Material, ist die Elektromigration. Für Transistoren im Plastikgehäuse kennt man heute einige mögliche gegenseitige Beeinflussungen zwischen Chip und Epoxid, da die Transistoren warm ummantelt sind. IGBT ist eine Schaltvorrichtung, die das Hochgeschwindigkeitsschaltverhalten und die Gatespannungssteuerung eines Leistungs-MOSFETs aufweist. Der Thyristor wurde als Leistungsbauelement früher als der Transistor eingeführt, er ist einfacher herzustellen und hat keine feinen Strukturen.
Titu-Marius I. Băjenescu

Kapitel 8. Zuverlässigkeit monolithisch integrierter Schaltungen

Zusammenfassung
Die wesentlichen Vorteile der monolithischen Integration gegenüber Schaltungen mit diskreten Komponenten sind: i) drastische Reduktion der Kosten, ii) drastische Reduktion des Platzbedarfs, iii) höhere Zuverlässigkeit, iv) verbesserte elektrische Eigenschaften. Der Abschn. (8.3) befasst sich mit den grundsätzlichen Fehlermechanismen, die integrierte Schaltungen betreffen. Im Fokus stehen dabei Verschleißerscheinungen, insbesondere die Transistoren betreffend, da die verkleinerten Strukturgrößen anfälliger für Verschleiß sind und so zu einer verringerten Lebensdauer führen. Der Abschn. 8.5 befasst sich mit der Zuverlässigkeitsabschätzung integrierter Schaltungen. Die wirksamsten Zuverlässigkeitstests für monolithische ICs sind in Abschn. 8.6 angegeben. Nach der Definition ist ein beschleunigter Test eine Prüfung, bei der die Beanspruchungen höher sind als jene, die im Betrieb herrschen. Alle diese Tests haben das Ziel, die notwendige Beobachtungszeit der den Beanspruchungen unterworfenen ICs zu verkürzen oder dieses Verfahren während einer gegebenen Beobachtungszeit zu beschleunigen. Frühausfälle bringen für den Anwender oft Überraschungen, manchmal sehr unangenehme und beunruhigende. Obwohl kein Ausfallmechanismus vorherrscht, steht ein wichtiger Teil der Ausfälle in direkter Verbindung mit der Verunreinigung des Chips und mit der Korrosion der Metallisierung, die zu Kurzschlüssen oder offenen Schaltungen führen können.
Titu-Marius I. Băjenescu

Kapitel 9. Aspekte der Zuverlässigkeit von Halbleiterspeichern und Mikroprozessoren

Zusammenfassung
Die Zuverlässigkeit von Halbleiterspeichern und Mikroprozessoren wird gemeinsam behandelt, weil sie die wichtigsten Halbleiterbauelemente sind, die in Computern verwendet werden. Steigende Integrationsdichten sind immer schwieriger herzustellen, sodass die Ausbeute an fehlerfreien Exemplaren relativ niedrig ist, was sich im Preis bemerkbar macht. Neueste Überlegungen gehen deswegen dahin, einen Teil der fehlerbehafteten Speicherschaltungen einzusetzen und zusätzliche Schaltungsmaßnahmen zu ergreifen, um diese Herstellungsdefekte zu tolerieren. Im Jahre 1965 postulierte Gordon Moore, dass die Dichte der Transistoren auf einer integrierten Schaltung mit der Zeit exponentiell ansteigt oder anders gesagt, dass sich die Leistung von Mikrochips Jahr für Jahr verdoppeln würde. Leicht abgewandelt gilt das Moore'sche Gesetz noch heute. Die vorausgesagte Verdoppelung wurde später von 12 auf 18 Monate relativiert, aber die exponentielle Natur des Wachstums blieb. Obwohl die Zahl der Transistoren je Speicherbaustein jährlich nahezu verdoppelt wird, hält die Zuverlässigkeit mit der steigenden Integration Schritt, denn die Speicherbausteine haben bisher immer wieder eine Langzeitausfallrate von rund 10−7 h−1 erreicht. Mikroprozessoren enthalten jetzt Milliarden von Transistoren, die manchmal bei Taktfrequenzen von mehr als 3 Mrd. Zyklen pro Sekunde arbeiten. Die superschnellen Vorrichtungen bedeuten, dass die Transistoren zu lange zu hohen Temperaturen ausgesetzt sind, die ihren Niedergang beschleunigen.
Titu-Marius I. Băjenescu

Kapitel 10. Zuverlässigkeit optoelektronischer Komponenten

Zusammenfassung
Die Lichterzeugung in Halbleitern beruht auf einer strahlenden Rekombination von Elektronen und Löchern. Die bei der Wiedervereinigung von Elektronen und Löchern frei werdende Energie wird also in Form von Photonen emittiert. Der Halbierpunkt der abgestrahlten Leistung einer Lumineszenzdiode LED auf der Lebensdauerkennlinie hängt insbesondere von der Übertragungstemperatur und vom Durchlassstrom IF ab. Die Hauptursache der Degradation ist die Vergrößerung der Kristallfehlstellen mit steigender Temperatur. Damit verliert die LED an Lichtstrom respektive an Helligkeit. Die Kenntnisse über die Veränderungsmechanismen sind relativ ungenau. Der totale Ausfall der LEDs während des Betriebs bildet eine grundsätzliche Begrenzung, die noch nicht gelöst wurde. Durch Untersuchungen verschiedener Veränderungsmechanismen sind Umfang und Verlauf der Ausfälle bekannt, die abhängig von den verwendeten Beanspruchungen sind. Ermittelt man nun die besten Anwendungsbedingungen, so lässt sich eine lange Lebensdauer garantieren. Da Vergussmassen einen großen Teil des LED-Gehäuses darstellen, haben schlechte Materialeigenschaften Auswirkungen, welche die Leistung des gesamten Systems durch die Kosten erhöht und die Designflexibilität mindert. Geschicktes Wärmemanagement und robuste Gehäusekonzepte sind der Schlüssel für erfolgreiche Entwicklungen. Die organischen LEDs (OLEDs) (Abschn. 10.2.11), die Optokoppler (Abschn. 10.6) und die Solarzellen (Abschn. 10.7) werden ebenfalls behandelt.
Titu-Marius I. Băjenescu

Kapitel 11. Zuverlässigkeit von Mikro- und Nanosystemen

Zusammenfassung
Ein typisches Mikrosystem enthält auf einem einzigen Chip, einen Mikrosensor, ein Mikrostellglied (eine mechanische Komponente) und die notwendige – integrierte – Elektronik. In der Tat ist das Mikrosystem ein „intelligenter“ Sensor, der in der auch in der Lage ist, sich zu betätigen. MEMS ist ein interdisziplinäres Gebiet, das Elektrotechnik, Maschinenbau, Materialwissenschaften, Physik, Chemie und Biologie kombiniert. Bei der Mikro- und Nanoskala können signifikante Änderungen in der Reaktionskinetik, der elektrischen Leitfähigkeit, den Korrosionsvorgängen etc. beobachtet werden. Physikalische Konzepte der Zuverlässigkeitstechnik (z. B. Ermüdung, Bruch, Verschleiß) haben unterschiedliche Bedeutung bei der atomaren oder molekularen Skala. Im Geist der MEMS/NEMS-Zuverlässigkeit können die herkömmlichen Zuverlässigkeitstheorien und -techniken weiterhin – mit geeigneten Modifikationen – angewendet werden. Jedoch sind neue Modelle und Theorien auch erforderlich, um verschiedene Verhaltensweisen, die auf der Mikro- und Nanoskala auftreten, anzugehen. Heute haben wir MEMS der zweiten Generation: Sensoren, wie Beschleunigungs-, Vibrations- und Drehratensensoren sowie Aktuatoren. Die Entwicklungsrichtungen der MEMS-Technologie verlaufen in zwei zueinander in vielen Teilaspekten kompatiblen Entwicklungen: MEMS werden entweder als monolithisch integrierte Systemen auf einem Chip oder als Hybridsysteme realisiert. Die Mikrosysteme werden bereits in vielen Anwendungen eingesetzt.
Titu-Marius I. Băjenescu

Kapitel 12. Fehleranalyse

Zusammenfassung
Dieses heikle, aber interessante Gebiet soll aus der Sicht des mittleren Anwenders dargestellt werden. Somit liegt der Schwerpunkt nicht auf der Physik der festen Körper, sondern auf der Verwirklichung einer elektronischen Vorrichtung oder ihrer industriellen Fertigung. Die konstitutiven Elemente einer Fehleranalyse sind: 1) Kenntnis der Ausfallmechanismen, 2) Entdeckung der Ursachen, die Mängel produzieren, 3) Gründung der Folgen, 4) statistische Auswertung der Entscheidungen, 5) Entwicklung von verbesserten Methoden der Analyse. Die wesentlichen Ziele der Ausfallanalyse sind das Festlegen der repräsentativen „interessanten“ Fehlerfälle und die Qualitäts- und Zuverlässigkeitsverbesserung der verwendeten Bauelemente durch Korrektur der Fertigung – womit sich auch die Zuverlässigkeit der entsprechenden Systeme erhöht. Selbstverständlich ist es schwierig, die Fehleranalyse aller Bauelemente durchzuführen, weshalb man eine Auswahl treffen und Ausfallkriterien formulieren muss. Man versucht eine so weit wie nötig vollständige elektrische Analyse durchzuführen, um zunächst bestimmen zu können, ob das Bauelement tatsächlich außerhalb der elektrischen Spezifikation liegt. Mithilfe dieser elektrischen Analyse wird die Ausfallrate durch Korrelation zwischen den aufgespürten Fehlern und den anfänglichen elektrischen Fehlern bestimmt. Die Eigenschaften des Rauschens sind mathematisch durch einen Zufallsprozess beschrieben. Rauschmessungen werden in der Regel am Ausgang einer Schaltung oder eines Verstärkers durchgeführt.
Titu-Marius I. Băjenescu

Backmatter

Weitere Informationen