Skip to main content
Top

2024 | OriginalPaper | Chapter

9. Merkmalslernen

Author : Alexander Jung

Published in: Maschinelles Lernen

Publisher: Springer Nature Singapore

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Kap. 2 diskutierte Merkmale als jene Eigenschaften eines Datenpunkts, die leicht gemessen oder berechnet werden können. Manchmal ergibt sich die Wahl der Merkmale natürlich aus der verfügbaren Hardware und Software. Zum Beispiel könnten wir die numerische Messung \(z\in \mathbb {R}\) die von einem Sensor geliefert wird, als Merkmal verwenden. Allerdings könnten wir dieses einzelne Merkmal mit neuen Merkmalen wie den Potenzen \(z^{2}\) und \(z^{3}\) oder das Hinzufügen einer Konstanten \(z+5\) erweitern. Jede dieser Berechnungen erzeugt ein neues Merkmal. Welche dieser zusätzlichen Merkmale sind am nützlichsten?

Dont have a licence yet? Then find out more about our products and how to get one now:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Footnotes
1
Einige Autoren definieren die Datenmatrix als \(\mathbf{Z}\!=\!\big ( \widetilde{\mathbf{z}}^{(1)}, \ldots , \widetilde{\mathbf{z}}^{(m)} \big )^{T}\!\in \!\mathbb {R}^{m\times D}\) mit „zentrierten“ Rohmerkmalsvektoren \(\widetilde{\mathbf{z}}^{(i)} - \widehat{\mathbf{m}}\), die durch Subtraktion des Durchschnitts \(\widehat{\mathbf{m}} = (1/m) \sum _{i=1}^{m} \mathbf{z}^{(i)}\) erhalten werden.
 
Literature
1.
go back to reference I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016) I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016)
2.
go back to reference G. Strang, Computational Science and Engineering (Wellesley-Cambridge Press, MA, 2007) G. Strang, Computational Science and Engineering (Wellesley-Cambridge Press, MA, 2007)
3.
go back to reference T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning. Springer Series in Statistics (Springer, New York, 2001) T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning. Springer Series in Statistics (Springer, New York, 2001)
4.
go back to reference J. Wright, Y. Peng, Y. Ma, A. Ganesh, S. Rao, Robust principal component analysis: exact recovery of corrupted low-rank matrices by convex optimization, in Neural Information Processing Systems, NIPS 2009 (2009) J. Wright, Y. Peng, Y. Ma, A. Ganesh, S. Rao, Robust principal component analysis: exact recovery of corrupted low-rank matrices by convex optimization, in Neural Information Processing Systems, NIPS 2009 (2009)
5.
go back to reference S. Roweis, EM Algorithms for PCA and SPCA. Advances in Neural Information Processing Systems (MIT Press, Cambridge, 1998), S. 626–632 S. Roweis, EM Algorithms for PCA and SPCA. Advances in Neural Information Processing Systems (MIT Press, Cambridge, 1998), S. 626–632
6.
7.
go back to reference M.E.J. Newman, Networks: An Introduction (Oxford University Press, Oxford, 2010) M.E.J. Newman, Networks: An Introduction (Oxford University Press, Oxford, 2010)
9.
go back to reference S. Wachter, Data protection in the age of big data. Nat. Electron. 2(1), 6–7 (2019)CrossRef S. Wachter, Data protection in the age of big data. Nat. Electron. 2(1), 6–7 (2019)CrossRef
10.
go back to reference A. Makhdoumi, S. Salamatian, N. Fawaz, M. Médard, From the information bottleneck to the privacy funnel, in 2014 IEEE Information Theory Workshop (ITW 2014), S. 501–505 (2014) A. Makhdoumi, S. Salamatian, N. Fawaz, M. Médard, From the information bottleneck to the privacy funnel, in 2014 IEEE Information Theory Workshop (ITW 2014), S. 501–505 (2014)
11.
go back to reference Y.Y. Shkel, R.S. Blum, H.V. Poor, Secrecy by design with applications to privacy and compression. IEEE Trans. Inf. Theory 67(2), 824–843 (2021)MathSciNetCrossRef Y.Y. Shkel, R.S. Blum, H.V. Poor, Secrecy by design with applications to privacy and compression. IEEE Trans. Inf. Theory 67(2), 824–843 (2021)MathSciNetCrossRef
12.
go back to reference Q. Du, J. Fowler, Low-complexity principal component analysis for hyperspectral image compression. Int. J. High Perform. Comput. Appl., 438–448 (2008) Q. Du, J. Fowler, Low-complexity principal component analysis for hyperspectral image compression. Int. J. High Perform. Comput. Appl., 438–448 (2008)
13.
go back to reference A. Sharma, K. Paliwal, Fast principal component analysis using fixed-point analysis. Pattern Recogn. Lett. 28, 1151–1155 (2007)CrossRef A. Sharma, K. Paliwal, Fast principal component analysis using fixed-point analysis. Pattern Recogn. Lett. 28, 1151–1155 (2007)CrossRef
14.
go back to reference S. Foucart, H. Rauhut, A Mathematical Introduction to Compressive Sensing (Springer, New York, 2012) S. Foucart, H. Rauhut, A Mathematical Introduction to Compressive Sensing (Springer, New York, 2012)
15.
go back to reference B. Schölkopf, A. Smola, Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond (MIT Press, Cambridge, 2002) B. Schölkopf, A. Smola, Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond (MIT Press, Cambridge, 2002)
Metadata
Title
Merkmalslernen
Author
Alexander Jung
Copyright Year
2024
Publisher
Springer Nature Singapore
DOI
https://doi.org/10.1007/978-981-99-7972-1_9

Premium Partner