Skip to main content

2024 | OriginalPaper | Buchkapitel

5. Gradientenbasiertes Lernen

verfasst von : Alexander Jung

Erschienen in: Maschinelles Lernen

Verlag: Springer Nature Singapore

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Im Folgenden betrachten wir ML-Methoden, die einen parametrisierten Hypothesenraum verwenden \(\mathcal {H}\). Jede Hypothese \(h^{(\mathbf{w})} \in \mathcal {H}\) in diesem Raum ist durch einen spezifischen Gewichtsvektor charakterisiert \(\mathbf{w}\in \mathbb {R}^{n}\). Darüber hinaus betrachten wir ML-Methoden, die eine Verlustfunktion verwenden \(L({(\mathbf{x},y)},{h^{(\mathbf{w})}})\) so dass der durchschnittliche Verlust oder das empirische Risiko \( f(\mathbf{w}) :=(1/m) \sum _{i=1}^{m} L({(\mathbf{x}^{(i)},y^{(i)})},{h^{(\mathbf{w})}})\) reibungslos vom Gewichtsvektor abhängt \(\mathbf{w}\).

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Eine Funktion \(f: \mathbb {R}^{n} \rightarrow \mathbb {R}\) wird als glatt bezeichnet, wenn sie stetige partielle Ableitungen aller Ordnungen hat. Insbesondere können wir den Gradienten \(\nabla f(\mathbf{w})\) für eine glatte Funktion \(f(\mathbf{w})\) an jedem Punkt \(\mathbf{w}\) definieren.
 
2
Das Problem, eine vollständige Eigenwertzerlegung von \(\mathbf{X}^{T} \mathbf{X}\) zu berechnen, hat im Wesentlichen die gleiche Komplexität wie die empirische Risikominimierung durch direktes Lösen von (4.​11), was wir durch die Verwendung des „günstigeren“ Algorithmus 1 vermeiden wollen.
 
Literatur
1.
Zurück zum Zitat I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016) I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016)
2.
Zurück zum Zitat W. Rudin, Principles of Mathematical Analysis, 3. Aufl. (McGraw-Hill, New York, 1976) W. Rudin, Principles of Mathematical Analysis, 3. Aufl. (McGraw-Hill, New York, 1976)
3.
Zurück zum Zitat Y. Nesterov, Introductory lectures on convex optimization, Applied Optimization, Bd. 87. (Kluwer Academic Publishers, Boston, MA, 2004) Y. Nesterov, Introductory lectures on convex optimization, Applied Optimization, Bd. 87. (Kluwer Academic Publishers, Boston, MA, 2004)
4.
Zurück zum Zitat S. Oymak, B. Recht, M. Soltanolkotabi, Sharp time-data tradeoffs for linear inverse problems. IEEE Trans. Inf. Theory 64(6), 4129–4158 (2018). (June)MathSciNetCrossRef S. Oymak, B. Recht, M. Soltanolkotabi, Sharp time-data tradeoffs for linear inverse problems. IEEE Trans. Inf. Theory 64(6), 4129–4158 (2018). (June)MathSciNetCrossRef
5.
Zurück zum Zitat T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning Springer Series in Statistics. (Springer, New York, 2001) T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning Springer Series in Statistics. (Springer, New York, 2001)
6.
Zurück zum Zitat A. Jung, A fixed-point of view on gradient methods for big data. Frontiers in Applied Mathematics and Statistics 3, 1–11 (2017)CrossRef A. Jung, A fixed-point of view on gradient methods for big data. Frontiers in Applied Mathematics and Statistics 3, 1–11 (2017)CrossRef
7.
Zurück zum Zitat N. Murata, A statistical study on on-line learning, in On-line Learning in Neural Networks. Hrsg. by D. Saad (Cambridge University Press, New York, 1998), S. 63–92 N. Murata, A statistical study on on-line learning, in On-line Learning in Neural Networks. Hrsg. by D. Saad (Cambridge University Press, New York, 1998), S. 63–92
8.
Zurück zum Zitat A. Krizhevsky, I. Sutskever, G. Hinton, Imagenet classification with deep convolutional neural network, in Neural Information Processing Systems (NIPS, 2012) A. Krizhevsky, I. Sutskever, G. Hinton, Imagenet classification with deep convolutional neural network, in Neural Information Processing Systems (NIPS, 2012)
Metadaten
Titel
Gradientenbasiertes Lernen
verfasst von
Alexander Jung
Copyright-Jahr
2024
Verlag
Springer Nature Singapore
DOI
https://doi.org/10.1007/978-981-99-7972-1_5

Premium Partner