Skip to main content

2020 | Buch

Machine Learning kompakt

Ein Einstieg für Studierende der Naturwissenschaften

verfasst von: Kenny Choo, Prof. Dr. Eliska Greplova, Mark H. Fischer, Titus Neupert

Verlag: Springer Fachmedien Wiesbaden

Buchreihe : essentials

insite
SUCHEN

Über dieses Buch

Dieses essential befasst sich mit Anwendungen des maschinellen Lernens in verschiedenen Bereichen der Naturwissenschaften. Es behandelt geläufige Strukturen und Algorithmen, um Daten mit den Techniken des maschinellen Lernens zu analysieren. Zunächst werden Methoden eingeführt, die an klassischen statistischen Analysen andocken und auf soliderem mathematischem Fundament stehen. Die Autoren machen mit den verschiedenen Strukturen für künstliche neuronale Netzwerke vertraut und zeigen die jeweiligen Anwendungsgebiete.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Einführung
Zusammenfassung
Dieses Kapitel gibt einen kurzen Überblick über das Feld des maschinellen Lernens und führt bereits Grundlegende Begriffe wie Neuronen, neuronale Netzwerke, Deep Learning und Backpropagation ein. Die großen Themenstränge des Buches werden erläutert und die grundlegenden Herausforderungen für den Einsatz von neuronalen Netzwerken umrissen. Zudem wird diskutiert, welche spezifischen Herausforderungen für den Einsatz von maschinellem Lernen in den Naturwissenschaften zu beachten sind.
Kenny Choo, Eliska Greplova, Mark H. Fischer, Titus Neupert
Kapitel 2. Maschinelles Lernen ohne neuronale Netzwerke
Zusammenfassung
Obwohl maschinelles Lernen oft unmittelbar mit neuronalen Netzwerken und Deep Learning verbunden wird, gibt es viele hilfreiche Algorithmen, die auch ohne neuronale Netzwerke auskommen. In diesem Kapitel werden einige solcher Methoden, wie Hauptkomponentenanalyse und lineare Regression, besprochen. Sie haben den Vorteil, dass sie mathematisch präziser behandelt werden können und oft eine einfache erste Charakterisierung von Strukturen in komplexen Daten ermöglichen. Am Beispiel der linearen Regression wird zumdem der Workflow beim maschinellen Lernen vorgestellt und das Gegenspiel zwischen Varianz und Verzerrung diskutiert - unabhängig von neuronalen Netzwerken.
Kenny Choo, Eliska Greplova, Mark H. Fischer, Titus Neupert
Kapitel 3. Neuronale Netzwerke und überwachtes Lernen
Zusammenfassung
Dieses Kapitel ist gewissermaßen der Kern des Buches. Es behandelt im Detail neuronale Netzwerke und deren Training im Rahmen des überwachten Lernens. Zunächst werden vollständig verbundene Netzwerke diskutiert und mögliche Aktivierungs- und Verlustfunktionen benannt. Weight decay und dropout werden als Regularisierungsmöglichkeiten besprochen. Schliesslich werden mit Convolutional Neural Networks und rekurrenten neuronalen Netzen zwei fortgeschrittenere Netzwerkstrukturen eingeführt. Alle Schritte sind mit Beispielen illustriert.
Kenny Choo, Eliska Greplova, Mark H. Fischer, Titus Neupert
Kapitel 4. Unüberwachtes Lernen
Zusammenfassung
Dieses Kapitel führt Methoden des unüberwachten Lernens mittels neuronaler Netzwerke ein. Ziel ist, dass das Netzwerk eine Wahrscheinlichkeitsverteilung lernt, die ähnlich derer ist, aus der die zum Training benutzten Daten hervorgegangen sind. Es werden keine „Labels“ für die Daten benötigt. Ein so trainiertes Netzwerk kann dann zur Erzeugung neuer, komplett synthetischer Daten benutzt werden. Es werden drei Ansätze behandelt: Begrenzte Boltzmann-Maschinen, Autoencoder und Generative Adversarial Networks. Alle drei werden in ihrer Funktionsweise erklärt und mit Beispielen illustriert.
Kenny Choo, Eliska Greplova, Mark H. Fischer, Titus Neupert
Kapitel 5. Interpretierbarkeit von neuronalen Netzwerken
Zusammenfassung
Oft erfüllen neuronale Netzwerke eine Aufgabe, ohne dass wirklich klar ist, wie sie das machen. Aufgrund welcher Kriterien entscheidet beispielsweise ein Klassifikations-Netz? Antworten auf solche Fragen sind nicht nur in den Naturwissenschaften entscheidend, wo man übergeordneten Gesetzmäßigkeiten und Prinzipien auf der Spur ist, sondern auch für die Sicherheit von maschinellem Lernen relevant. In diesem Kapitel wird aufgezeigt, wie anfällig neuronale Netzwerke gegenüber Störungen sein können und wie man, beispielsweise mittels Dreaming, etwas darüber in Erfahrung bringt, was ein Netzwerk gelernt hat.
Kenny Choo, Eliska Greplova, Mark H. Fischer, Titus Neupert
Kapitel 6. Schlusskommentare
Zusammenfassung
Dieses Kapitel fasst noch einmal die wichtigsten Erkenntnisse aus dem Buch zusammen und gibt dem Leser einige praktische Tipps für die Praxis des maschinellen Lernens mit an die Hand.
Kenny Choo, Eliska Greplova, Mark H. Fischer, Titus Neupert
Backmatter
Metadaten
Titel
Machine Learning kompakt
verfasst von
Kenny Choo
Prof. Dr. Eliska Greplova
Mark H. Fischer
Titus Neupert
Copyright-Jahr
2020
Electronic ISBN
978-3-658-32268-7
Print ISBN
978-3-658-32267-0
DOI
https://doi.org/10.1007/978-3-658-32268-7

Premium Partner