Skip to main content
main-content

Über dieses Buch

Das Buch gibt einen Überblick zu verschiedenen Verarbeitungsmethoden zur Klassifizierung von Messgrößen und den dazu benötigten Techniken. Mit verschiedenen Beispielen wird allgemein verständlich die Arbeitsweise der vorgestellten Module erläutert. Dabei werden methodenbedingte Spielräume hervorgehoben und der Bezug zu Anwendungen hergestellt, um dem Leser zu ermöglichen, die für eine Anwendung optimale Lösung zu finden. Die Bereitstellung neuer Rahmenbedingungen ermöglicht es, multivariate Messgrößen hochpräzise und ohne Eingabe von Parametern durchzuführen. Die Berechnungen werden mit den Programmpaketen MatLab und Excel durchgeführt. Dabei wird besonderer Wert auf die Nachvollziehbarkeit der zentralen Rechenoperationen gelegt.

Inhaltsverzeichnis

Frontmatter

1. Einleitung

Zusammenfassung
Methoden zur Auswertung multivariater Messgrößen behandeln mehrere Eingangsvariablen in deren Zusammenhang gleichzeitig und repräsentieren ihre Attribute als Gesamtmerkmal. Diese Methoden sind nicht nur für die Effizienz der Verarbeitung der Messgrößen wichtig, sondern es kann zu falschen Schlussfolgerungen kommen, wenn der Einfluss der Messgrößen jeweils einzeln, d. h. univariat ausgewertet wird. Kommt bei der letztgenannten Art der Auswertung eine zweite Variable hinzu, muss deren Einfluss bei der Messwertbestimmung beispielsweise mit einem Kennlinienfeld oder einer Kompensationsrechnung berücksichtigt werden. Bei mehreren Einflüssen und damit multivariaten Messgrößen erhöht sich der Aufwand bei dieser Vorgehensweise beträchtlich. Bei nichtlinearen Verhältnissen wird die Realisierung noch aufwendiger und damit meist praktisch nicht mehr durchführbar. Künstliche neuronale oder auch konnektionistische Netze sind dagegen gut geeignet, multivariate Messgrößen effizient zu verarbeiten.
Gerhard Sartorius

2. Methoden des maschinellen Lernens

Zusammenfassung
Dieses Kapitel dient dazu, die Freiheitsgrade der Trainingsphase für die in Abschn. 1.6 zusammengestellten notwendigen Eigenschaften mit Bezug auf systemtheoretische Überlegungen im anwendungsrelevanten Umfeld zu definieren. Auf dieser Grundlage werden zum Anforderungsprofil, im Besonderen zum Komplexitätsgrad, passende Methoden maschinellen Lernens genannt und die Verarbeitungsstruktur als modularisiertes KNN der klassischen Form gegenübergestellt.
Gerhard Sartorius

3. Anforderungen zur Gestaltung eines adaptiven Systems

Zusammenfassung
In diesem Kapitel wird eine modulare Verarbeitungsstruktur vorgeschlagen, der grundlegende Bedeutung bei der Umsetzung der zusammengestellten konzeptionellen Anforderungen und für eine deterministische Arbeitsweise der Lern- und Arbeitsphase zukommt. Dazu werden zunächst einige Kriterien zur Systemgestaltung genannt.
Gerhard Sartorius

4. Ein Klassifizierungsverfahren im Überblick

Zusammenfassung
Die Verarbeitung hochdimensionaler Datensätze und die konzeptionellen Hintergründe dazu sind in diesem Buch mit einem Realisierungsbeispiel für multivariate Datensätze aufgeführt, anhand des MAE-Verfahrens erklärt und wichtige Begriffe bezüglich der konzeptionellen Anforderungen präzisiert. Das gesamte Verfahren ist in Verarbeitungsmodulen für die einzelnen Aufgabenbereiche organisiert, die im Folgenden genannt werden. Es wurde zur Mono- und Multiklassenverarbeitung entwickelt, wobei erstere bezüglich der Klassifizierung im Vordergrund steht und zweitere Möglichkeiten für spezielle Zwecke bietet. Die dazu notwendigen Vorbereitungen, Berechnungen und Darstellungen werden qualitativ im Text und quantitativ als Organisations-, Kalkulations- und Ergebnisbeispiele im Anhang mit Bezug zu den entsprechenden Textstellen aufgeführt.
Gerhard Sartorius

5. Messtechnik und maschinelles Lernen

Zusammenfassung
Die schnelle Entwicklung der Messtechnik in den letzten Jahren hat dazu geführt, dass nicht nur die Elektronik und Digitaltechnik, sondern auch die Verarbeitungsverfahren für die mit Messgeräten gewonnenen Daten bei der Repräsentation der Messergebnisse eine immer größere Rolle spielen. Bei praktischen Anwendungen stehen in der Regel Daten zur Verfügung, die fehlerbehaftet sein können. Vor der Verwendung müssen sie geprüft und aufbereitet werden. Die Daten der Messwerte sind mehr oder weniger verrauscht, ungünstig skaliert oder ungünstig formatiert. Diese Unzulänglichkeiten müssen in der Datenvorverarbeitung erkannt und so berücksichtigt werden, dass für jeden Datensatz ein für die Aufgabenstellung passendes Modell erstellt werden kann. Die klassische Messtechnik liefert Messwerte in Form von Anzeigen, Analogwerten, Digitalwerten sowie Messwerte als Zahlenwerte, die beispielsweise ein Spektrum repräsentieren. Damit die Daten auf Datenträgern abspeicherbar sind, müssen sie in eine maschinell lesbare Form umformbar sein und vor der Verwendung in einer solchen vorliegen.
Gerhard Sartorius

6. Metrik für multidimensionale Daten

Zusammenfassung
Um Objekte, Zustände oder Vorgänge durch Daten zu repräsentieren, müssen große Mengen von Messwerten erfasst und jeder einzelne einer Dimension im multidimensionalen Raum zugeordnet werden. Die Anzahl der Dimensionen bei der Darstellung der Daten kann sehr groß werden, der Rechenaufwand zur Distanzberechnung nimmt mit der Dimensionalität zu und die Rechengenauigkeit ab. Diese Rechenungenauigkeit macht sich bereits bei etwa hundert Dimensionen bemerkbar. Um diesem Effekt entgegenzuwirken, muss bei NN-Verfahren eine Metrik gewählt werden, die die Ungenauigkeiten zur Berechnung der Distanzen vermeidet oder zumindest minimalisiert. Zunächst werden in diesem Kapitel die Probleme anhand von Untersuchungen, die in der Fachliteratur zu dem Thema durchgeführt und diskutiert wurden, erörtert und Maßnahmen genannt, die eine ausreichend genaue Ermittlung der Größen zur Klassifizierung gestatten.
Gerhard Sartorius

7. Glättung einer Mannigfaltigkeit

Zusammenfassung
Die Messdaten verschiedener Messereignisse liegen als Datengruppen vor. Die Daten des Messereignisses sind wie Zufallsstichproben Gauß-verteilt. In diesem Kapitel wird eine Glättungsmethode vorgestellt, die die statistischen Kennwerte dieser Daten nutzt und die Eigenwerte dieser Daten nicht oder nur unwesentlich verändert. Eine MF, die zunächst nur aus einer diskreten Anzahl von Messpunkten im D-dimensionalen Raum besteht, weist Lücken auf und kann entweder durch Approximation oder durch Interpolation geglättet werden. Approximation wendet man bei Messpunkten an, die durch eine ausgleichende Kurve repräsentiert werden sollen, um die Fehlerquadrate zu minimieren, Interpolation, wenn die Messpunkte als exakt angenommen werden können und es erforderlich ist, Zwischenwerte einzubringen, sodass eine glatte Raumkurve entsteht.
Gerhard Sartorius

8. Distanz- und Ähnlichkeitsmaße

Zusammenfassung
Für das maschinelle Lernen sind Begriffe wie Distanz und Ähnlichkeit bei der Erstellung der mathematischen Modelle von entscheidender Bedeutung. Durch die Anwendung unterschiedlicher Metriken zur Bestimmung der Punktabstände und die Erkenntnisse der letzten Kapitel bekommt der Begriff Distanz einen neuen Interpretationsspielraum. Es stehen neue Freiheitsgrade bei der Gestaltung der Modelle zur Verfügung. Die Datenpunkte können im hochdimensionalen Raum gespeichert werden und charakteristische Information tragende Punktehäufungen sind auf bestimmte Kriterien prüfbar, um zu klären, ob sie als Erkennungsmerkmal geeignet sind oder nicht. Beispielsweise kann als Ähnlichkeitsmaß eine Proximitätszahl darauf hinweisen, wie ähnlich zwei Objekte im multidimensionalen Raum sind. Dies bietet die Möglichkeit, festzustellen, ob Objekte sicher unterschieden werden können, um die Voraussetzungen für Modelle zu schaffen, deren Anwendung eine genaue und zuverlässige Klassifikation liefert.
Gerhard Sartorius

9. Wavelet-Transformation

Zusammenfassung
Mit der Wavelet-Transformation (WT) werden vorliegende Eingangsdaten in eine Koeffizientendarstellung überführt, die Vorteile für anschließende Operationen bietet. In der Koeffizientendarstellung der Eingangsdaten können gezielt unerwünschte Komponenten und solche, die unterhalb eines Mindestwertes liegen, bei der Bildung eines Datensatzes, der möglichst eindeutig die Charakteristik eines Objektes oder eines Zustandes repräsentieren soll, ausgeschlossen werden. Die WT eignet sich zur Glättung und Komprimierung von Signalverläufen, z. B. Spektren. Bei der Entscheidung, welcher Wavelet-Typ für die hier anstehende Aufgabe zur Klassifizierung von Spektren besonders geeignet ist, fällt die Wahl auf das Haar-Wavelet. Es hat mittelwertbildende Eigenschaften und die Überführung in die Koeffizientendarstellung wirkt distanzerhaltend. Die Eigenschaften und der Realisierungsaufwand der WT, der Fourier-Transformation (FT) und anderer Transformationen, die eine Koeffizientendarstellung des Klassifizierungsobjekts ermöglichen, werden genannt.
Gerhard Sartorius

10. Nächste-Nachbarn-Verfahren und Dimensionsreduktion

Zusammenfassung
NN-Verfahren und Verfahren zur Dimensionsreduktion sind eng miteinander verwandt. Gemeinsam haben Sie die Eigenschaft, dass der geometrische Abstand zweier Neuronen als Wert der Verbindung zwischen diesen Neuronen angesehen wird. Mit diesen Verbindungen werden Wichtungsanteile bestimmt, die NN-Verbindungen und damit die relative Postion eines Neurons zu seinen NN repräsentieren. Dargestellt wird nicht das Neuron selbst, sondern die Rekonstruktion aus den Wichtungsanteilen der NN-Neuronen. Somit ist es irrelevant, ob ein Trainingspunkt Xi in der Trainingsphase oder ein Anfragepunkt Xa in der Arbeitsphase rekonstruiert wird. Punktmengen, die als geometrische Gebilde aufgefasst werden, liegen oft auf einer Mannigfaltigkeit (MF), deren Einbettungsdimension viel höher ist als die innere Dimension des zugrunde liegenden Gebildes. Mit der Dimensionsreduktion (DR) soll ein isometrisches Abbild einer im hochdimensionalen Eingangsraum befindlichen MF ermittelt werden, um anschließend mit den gefundenen Gesetzmäßigkeiten die Grundinformation dieser MF in einem geeigneten Raum zu entfalten.
Gerhard Sartorius

11. Modellbildung

Zusammenfassung
Bei vielen Anwendungen ist eine hohe Zuverlässigkeit erforderlich. Voraussetzung dafür ist, dass die Trainingsdatensätze auch tatsächlich die Charakteristik des Messobjektes repräsentieren. Darüber hinaus muss zum Erstellen des Modells eine Mindestanzahl von Trainingsdatenpunkten vorliegen, um eine hohe Zuverlässigkeit und die angestrebte Genauigkeit bei den gewonnenen Aussagen zu erreichen. Es muss sichergestellt sein, dass sich keine Messwerte mit Fehlern in der Trainingsdatenmenge befinden. Während der Trainingsphase wird die Lernrate so angepasst, dass ein Modell mit möglichst optimalen Generalisierungseigenschaften entsteht. Geeignete Methoden überprüfen dessen Korrektheit und Generalisierungsfähigkeit. Das beste Resultat wird erzielt, wenn ein Modell für einen bestimmten Zweck – im vorliegenden Fall zur Klassifizierung – gebildet wird. Dazu sind verschiedene Arten von Messungen, die in der Trainingsphase bei der Anpassung der Feinstruktur des Modells an die realen Gegebenheiten vorkommen können, dargestellt und erörtert.
Gerhard Sartorius

12. Datenvorverarbeitung

Zusammenfassung
Die n-dimensionale Eingangsstruktur eines konnektionistischen Systems zur Klassifizierung von Objekten setzt sich aus verschiedenen Quellen, wie z. B. Signalen von Temperaturmessgeräten, Weggebern, Mikrofonen, Kameras, Spektrometern oder Daten aus anderen Messgeräten zusammen. Die von diesen Sensoren gelieferten Rohdaten sind unterschiedlich strukturiert, weisen eine verschiedene Anzahl von Dimensionen auf und können parametrisiert als verbundene Werte in Paketform oder diskret vorliegen. Die Verteilung dieser Messwerte wird in der Datenvorverarbeitung analysiert. Dabei werden statistische Kennwerte ermittelt, unbrauchbare Werte entfernt und die Kennwerte im Modell M des Trainingsdatensatzes (TDS) gespeichert. Zur Anpassung der Werte an die Eingangsstruktur des Netzes kommen verschiedene Methoden zum Einsatz. Zur Bildung des Eingangsvektors sind einzelne Messwerte, spektrale Komponenten und andere Informationsquellen auch kombinierbar, um robuste charakteristische Objekteigenschaften zu bilden.
Gerhard Sartorius

13. Merkmalsraum

Zusammenfassung
Die Eingangsinformationen verschiedener Arten von Messungen zur Erfassung eines Objektes liegen in Kanälen angeordnet als Daten im D-dimensionalen Merkmalsraum vor. Die Daten sind ausreißerfrei, die Kenndaten der Verteilungen der Datengruppen ermittelt und als Teil des Modells für das zu klassifizierende Objekt gespeichert worden. Diese Ergebnisse aus der vorher durchgeführten Datenvorverarbeitung müssen nun in eine für die Art der Daten und den Verwendungszweck optimale Darstellungsform für die nächste Verarbeitungsstufe überführt werden, dass die Schritte zur Gestaltung eines generalisierungsfähigen Datenmodells und die Bildung der NN-Beziehungen optimal durchführbar sind. Danach ist es möglich die Daten direkt (unverändert), als WT-Koeffizienten, als FT-Koeffizienten oder in dimensionsreduzierter Form der Verarbeitung im Assoziationsraum zur Filterung, zur Bildung der Rekonstruktionsgewichte des NN-Verfahrens und zur Skalierung und Anpassung dem Assoziationsraum zuzuführen.
Gerhard Sartorius

14. Assoziationsraum

Zusammenfassung
Die Daten aus dem Merkmalsraum liegen am Eingang des Assoziationsraums direkt als Messdaten oder in einer anderen Darstellungsart vor. Die bisherigen Prozeduren zur Vorbereitung der Messdaten sorgen dafür, dass die Messdaten fehlerfrei sind und in einer Form vorliegen, die es erlaubt, mit wesentlichen Anteilen dieser Daten die Bildung einer MF und damit die Bildung eines rezeptiven Bereiches, der die Charakteristik des Messobjektes möglichst genau und eindeutig repräsentiert, für alle Gruppen durchzuführen. Die Ergebnisse aus der vorhergegangen Informationsgewinnung und Vorverarbeitung müssen nun zusammengeführt und dem entsprechenden Objekt zugeordnet werden. Zusätzlich können im Assoziationsraum Objektinformationen gewonnen werden, die es erlauben, Beziehungen der trainierten Objekte untereinander herzustellen, um diese für verschiedene Anwendungen in passender Form visuell darstellen zu können.
Gerhard Sartorius

15. Darstellungsraum

Zusammenfassung
Die Ergebnisse aus der vorhergegangen Informationsgewinnung und Verarbeitung liegen am Eingang des Darstellungsraums (Z-Raum) als Daten im D-dimensionalen Raum vor, müssen nun zusammengeführt und dem entsprechenden Objekt so zugeordnet werden, dass die Generalisierung im Darstellungsraum durchgeführt werden kann. Je nach Art der Anwendung liegen Messdaten als Messwerte, normierte Messwerte, WT-Koeffizienten oder als Eigenwerte am Eingang des Assoziationsraumes vor. Sie wurden einerseits im Falle einer Dimensionsreduktion mit einer als unüberwachtes KNN auffassbaren Optimierung unter Beibehaltung lokaler Nachbarschaftsbeziehungen so im niedrigdimensionalen Raum eingebettet, dass auch die globalen Zusammenhänge mithilfe der Hauptvarianzen rekonstruierbar sind und andererseits im Falle einer Koeffizientendarstellung oder direkter Werte in untransformierter Darstellung so aufbereitet, dass nur Koeffizienten oder Werte, die mit eindeutigen Informationen zur Repräsentation der charakteristischen Eigenschaften des Messobjektes beitragen, in das Modell M gelangen.
Gerhard Sartorius

16. Diversitäre Messmethoden

Zusammenfassung
Bei Klassifizierungsverfahren möchte man ein Objekt nicht nur mit einer Art Messsystem, sondern charakteristische Muster auf der Basis verschiedener physikalischer Effekte messen und verarbeiten können, um durch Kombination der gewonnenen Klassifizierungsergebnisse schnell und sicher Aussagen zu erhalten. Während der Trainingsphase wird durch Optimierung diejenige NN-Anzahl zur Einstellung der Komplexität bzw. der Feinstruktur des Modells für jede Gruppe von Messdaten festgelegt, mit der die größte Klassifizierungsleistung erreicht wird. Die Ergebnisse dieser Klassifizierungen stehen als Daten zur Verfügung und können miteinander kombiniert werden, sodass mit dem Verknüpfungsergebnis (VKE) eine Gesamtaussage angegeben wird. Die Einzelergebnisse sind rückverfolgbar und es ist dadurch möglich, die Entstehung des VKE nach dem Ursache-Wirkungsprinzip zu untersuchen.
Gerhard Sartorius

17. Simulation und Test

Zusammenfassung
Dieses Kapitel stellt den Test des Entwurfs und seine Optimierung mit synthetischen Daten vor. Die Abbildungstreue der Dimensionsreduktion in Abhängigkeit unterschiedlich verrauschter Datensätze wird für das NOP-Verfahren zur Dimensionsreduktion (unüberwacht trainierbares KNN) in Verbindung mit der Einheit SA (überwacht trainierbares KNN) bezüglich Stabilität und Genauigkeit untersucht. Zur Simulation der Trainingsphase werden der Lernmaschine mit einem Funktionsgenerator erzeugte synthetische Daten als Trainingsdatenpunkte zur Verfügung gestellt. Zum Test der Arbeitsphase wird ihr ein ebenso erzeugter Testdatensatz, der aus neuen untrainierten Datenpunkten besteht, präsentiert. Generalisierungsfähigkeit, Genauigkeit der Abbildung und damit des Verfahrens sind aus den erzielten Abbildungsergebnissen deduzierbar. In der Arbeitsphase kommen dabei zwei verschiedene Methoden zur Bestimmung der Rekonstruktionsgewichte zum Einsatz, die sich hinsichtlich des Aufwandes unterscheiden und verschiedene Vorteile bezüglich möglicher Anwendungen bieten.
Gerhard Sartorius

18. Hardware und Realisierung

Zusammenfassung
Zur Realisierung des Klassifizierungssystems gibt es verschiedene Bausteine und Komponenten, deren Charakteristika und Zusammenstellungen im Folgenden anhand unterschiedlicher Anwendungen erläutert sind. Diese Anwendungen wurden passend gewählt, um die Einsatzmöglichkeiten von Mikroprozessoren, speicherprogrammierbaren Steuerungen und komplexen Bausteine zur Realisierung des Klassifizierungsverfahrens für diese Anwendungen aufzuzeigen. Für die verschiedenen Module der Trainings- und Arbeitsphase wird detailliert der Hard- und Softwareaufwand angegeben.
Gerhard Sartorius

19. Datenanalyse

Zusammenfassung
Bei der Datenanalyse werden sogenannte ROC-Kurven (ROC steht für receiver operating curve) verwendet. Sie bieten Vorteile bezüglich der Anschaulichkeit bei der Darstellung der Klassifizierungsgüte von Klassifikatoren und Klarheit bei der Auswertung der Gruppenzugehörigkeit durch entsprechende Fehlerzuordnungen.
Gerhard Sartorius

20. Einsatzgebiete

Zusammenfassung
Die Modellbildung wird dem Konzept: Ensemble von Erwartungswerten folgend durchgeführt. Verschiedene Messereignisse, die bestimmte Eigenschaften eines Objektes aufnehmen, können zu einem Ensemble von Erwartungswerten (Abschn. 12.​1.​1) zur Bildung des rezeptiven Bereichs kombiniert werden.
Eine Auswahl möglicher Anwendungen:
1.
Klassifizierung von Spektren,
 
2.
Fusion von Sensorsignalen,
 
3.
Klassifizierung analoger Messdaten,
 
4.
Überwachung von Gebäuden, Räumen, Maschinen etc.,
 
5.
flächendeckende Untersuchung einer Oberfläche bezüglich Sporen, Keimen usw.,
 
6.
Verschleißerkennung bei Maschinen,
 
7.
Suche markanter Merkmale in Bildern, Objekterkennung u. a.
 
Gerhard Sartorius

21. Zusammenfassung der Ergebnisse

Zusammenfassung
Das MAE-Verfahren wurde mit verschiedenen Betriebssystemen und unterschiedlicher Hardware in folgenden Projekten angewendet:
1.
Klassifizierung von Spektren (Trainings- und Arbeitseinheit: PC).
 
2.
Beschreibung der Prozesskontrolle zur Ansteuerung von Aktoren und eines Schubzylinders in Abhängigkeit verschiedener Analogsignale als Klassifizierungsproblem (Trainingseinheit: PC, Arbeitseinheit: SPS).
 
3.
Positionsbestimmung von Objekten in einem Raum (Trainingseinheit: PC, Arbeitseinheit: Mikrokontroller).
 
4.
Fusion von artgleichen Sensorsignalen zur Verbesserung der Anzeigegenauigkeit (Trainingseinheit: PC, Arbeitseinheit: Mikrokontroller).
 
Gerhard Sartorius

Backmatter

Weitere Informationen