Skip to main content

2024 | Buch

Maschinelles Lernen für die Ingenieurwissenschaften

Einführung in physikalisch informierte, erklärbare Lernverfahren für KI in technischen Anwendungen

insite
SUCHEN

Über dieses Buch

Maschinelles Lernen und künstliche Intelligenz sind omnipräsente Begriffe zur Verbesserung von technischen Prozessen. Die praktische Umsetzung an realen Problemen gestaltet sich aber oft schwierig und komplex.

Dieses Lehrbuch erklärt Lernverfahren anhand von analytischen Konzepten im Zusammenspiel mit vollständigen Programmierbeispielen in Python und bezieht sich auf dabei stets auf reale technische Anwendungsszenarien. Es zeigt den Einsatz physikalisch-informierter Lernstrategien, die Einbeziehung von Unsicherheit in die Modellierung und den Aufbau von erklärbarer, vertrauenswürdiger künstlicher Intelligenz mit Hilfe spezialisierter Datenbanken.

Dieses Lehrbuch richtet sich somit sowohl an Studierende der Ingenieurswissenschaften, Naturwissenschaft, Medizin und Betriebswirtschaft als auch an Anwender aus der Industrie (vor allem Data Scientists), Entwickler*innen von Expertendatenbanken und Softwareentwickler*innen.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Daten als Grundlage von Modellen
Zusammenfassung
Maschinelles Lernen hat in den letzten Jahren Erfolge in vielen Anwendungen feiern können. Die Möglichkeiten, die es uns erschließt, sind zahlreich. Neuartige Fotofilter rechnen unser Gesicht jünger oder sorgen dafür, dass wir stets in die Kameralinse schauen. Wissen wird über intelligente Chatbots von uns schneller erschlossen als zuvor. In diesem Sinne verändern datenbasierte Modelle und Lernverfahren derzeit unsere Umgebung nachhaltig. Viele Menschen reagieren mit Skepsis. Zum Teil ist dies berechtigt, denn die künstliche Intelligenz (KI), die oft fälschlicherweise mit ihrem Untergebiet des maschinellen Lernens gleichgesetzt wird, kann nicht jedes Problem lösen. Die Erwartungshaltung an KI ist übertrieben und utopisch.
Marcus J. Neuer
Kapitel 2. Mathematische Beschreibung von Daten
Zusammenfassung
Zum Verständnis vieler Machine-Learning-Methoden sind Kenntnisse der Statistik nötig. Da die Behandlung von Unsicherheiten in Daten ein zentrales Element des Buches darstellt, wird eine Einführung in die Stochastik vorangestellt. Der Leser wird über eine Wiederholung der Mengentheorie hin zur Definition von Wahrscheinlichkeit und bedingter Wahrscheinlichkeit geführt. Relevante Werkzeuge aus der Statistik, wie die Berechnung von Erwartungswert, Varianz, Kovarianz, Korrelation und Verteilungen, werden erläutert.
Marcus J Neuer
Kapitel 3. Datenvorverarbeitung
Zusammenfassung
Die Datenvorverarbeitung stellt ein wichtiges Element in der Prozesskette von Machine-Learning-Verfahren dar. In diesem Kapitel diskutieren wir verschiedene Methoden, um eine optimale Vorbereitung für individuelle Problemfälle zu erreichen. Dabei werden Normalisierung, Triggerung, Filterung und auch mathematische Transformationen wie die FFT oder die kontinuierliche Wavelet-Transformation besprochen. Das Kapitel zeigt auch, wie man Wahrscheinlichkeitsverteilungen aus Daten extrahieren und nutzen kann.
Marcus J Neuer
Kapitel 4. Überwachtes Lernen
Zusammenfassung
In diesem Kapitel werden Konzepte des überwachten Lernens besprochen. Dabei wird ein allgemeiner Ansatz für Lernverfahren eingeführt, der als Grundlage für die folgende Ansätze dient. Beginnend mit einem naiven, evolutionären Algorithmus, werden im weiteren Verlauf der LMS-adaptive Filter, neuronale Netze, rekurrente neuronale Netze und Entscheidungsbäume diskutiert. Zu jedem Verfahren sind Beispielimplementationen angeführt, die dem Leser einen Startpunkt für eigene Projekte geben.
Marcus J Neuer
Kapitel 5. Unüberwachtes Lernen
Zusammenfassung
Unüberwachtes Lernen sucht nach Strukturen in den Daten. Im Gegensatz zum überwachten Lernen, liegen beim unüberwachten Lernen keine Label oder Zielgrößen vor. Einzig die Daten selbst sind der Ausgangspunkt eines unüberwachten Lernverfahrens und daher sind genau diese Verfahren auch hervorragend zur Vorverarbeitung geeignet. Mehr noch: durch ihre spezielle Analyse der Daten finden einige der Verfahren einfachere, niedrigdimensionale Darstellung der Eingangsdaten. Sie reduzieren damit die Dimension und ermöglichen einen besseren Blick auf die relevante Information. Unser Fokus wird in diesem Kapitel auf der klassischen Hauptkomponentenanalyse (Principal Component Analysis, PCA), dem K-Means-Clusterverfahren, dem t-Distributed-Stochastic-Neighbour-Embedding-Algorithmus (t-SNE) und dem Konzept von Autoencodern liegen.
Marcus J. Neuer
Kapitel 6. Physikalisch-informiertes Lernen
Zusammenfassung
Ein Lernverfahren kann durch gezielte Vorinformationen unterstützt werden, ein Ansatz der physikalisch-informiertes Lernen heißt. Im Rahmen dieses Konzepts zeigen wir Methoden der Datenanreicherung und der Einbettung von analytischen Ausdrücken in neuronale Netze auf. Danach werden Wege skizziert, wie Unsicherheit als Element in die Lernverfahren integriert werden kann. Dabei stehen die praktischen Aspekte im Vordergrund, die nötig sind, um derartige Ansätze im industriellen Umfeld anzuwenden. Das Kapitel endet mit einem Blick auf die Analyse von Prozesskorridoren.
Marcus J. Neuer
Kapitel 7. Erklärbarkeit
Zusammenfassung
Um Lernverfahren nachvollziehbar zu gestalten, müssen wir Eingangsvariablen, Prozesseigenheiten und Zusammenhänge zwischen den Variablen modellieren. Dazu werden Taxonomien und Ontologien vorgestellt. Sie sind Hilfsmittel, um strukturierte Informationsablagen für physikalisch-informiertes Lernen und Erklärbarkeit zu erzeugen. Das Kapitel widmet sich der Sensitivitätsanalyse und erklärt an einem Beispiel, wie man gelernte Prozessmodelle auf ihre Abhängigkeiten hin untersuchen kann. Schließlich folgt eine Diskussion von Erklärbarkeit und ein klares Rezept, wie man sie für eigene Projekte realisieren kann.
Marcus J. Neuer
Backmatter
Metadaten
Titel
Maschinelles Lernen für die Ingenieurwissenschaften
verfasst von
Marcus J Neuer
Copyright-Jahr
2024
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-68216-6
Print ISBN
978-3-662-68215-9
DOI
https://doi.org/10.1007/978-3-662-68216-6

Premium Partner