Skip to main content

2024 | OriginalPaper | Buchkapitel

9. Merkmalslernen

verfasst von : Alexander Jung

Erschienen in: Maschinelles Lernen

Verlag: Springer Nature Singapore

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Kap. 2 diskutierte Merkmale als jene Eigenschaften eines Datenpunkts, die leicht gemessen oder berechnet werden können. Manchmal ergibt sich die Wahl der Merkmale natürlich aus der verfügbaren Hardware und Software. Zum Beispiel könnten wir die numerische Messung \(z\in \mathbb {R}\) die von einem Sensor geliefert wird, als Merkmal verwenden. Allerdings könnten wir dieses einzelne Merkmal mit neuen Merkmalen wie den Potenzen \(z^{2}\) und \(z^{3}\) oder das Hinzufügen einer Konstanten \(z+5\) erweitern. Jede dieser Berechnungen erzeugt ein neues Merkmal. Welche dieser zusätzlichen Merkmale sind am nützlichsten?

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Einige Autoren definieren die Datenmatrix als \(\mathbf{Z}\!=\!\big ( \widetilde{\mathbf{z}}^{(1)}, \ldots , \widetilde{\mathbf{z}}^{(m)} \big )^{T}\!\in \!\mathbb {R}^{m\times D}\) mit „zentrierten“ Rohmerkmalsvektoren \(\widetilde{\mathbf{z}}^{(i)} - \widehat{\mathbf{m}}\), die durch Subtraktion des Durchschnitts \(\widehat{\mathbf{m}} = (1/m) \sum _{i=1}^{m} \mathbf{z}^{(i)}\) erhalten werden.
 
Literatur
1.
Zurück zum Zitat I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016) I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016)
2.
Zurück zum Zitat G. Strang, Computational Science and Engineering (Wellesley-Cambridge Press, MA, 2007) G. Strang, Computational Science and Engineering (Wellesley-Cambridge Press, MA, 2007)
3.
Zurück zum Zitat T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning. Springer Series in Statistics (Springer, New York, 2001) T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning. Springer Series in Statistics (Springer, New York, 2001)
4.
Zurück zum Zitat J. Wright, Y. Peng, Y. Ma, A. Ganesh, S. Rao, Robust principal component analysis: exact recovery of corrupted low-rank matrices by convex optimization, in Neural Information Processing Systems, NIPS 2009 (2009) J. Wright, Y. Peng, Y. Ma, A. Ganesh, S. Rao, Robust principal component analysis: exact recovery of corrupted low-rank matrices by convex optimization, in Neural Information Processing Systems, NIPS 2009 (2009)
5.
Zurück zum Zitat S. Roweis, EM Algorithms for PCA and SPCA. Advances in Neural Information Processing Systems (MIT Press, Cambridge, 1998), S. 626–632 S. Roweis, EM Algorithms for PCA and SPCA. Advances in Neural Information Processing Systems (MIT Press, Cambridge, 1998), S. 626–632
6.
Zurück zum Zitat M.E. Tipping, C. Bishop, Probabilistic principal component analysis. J. Roy. Stat. Soc. B 21(3), 611–622 (1999)MathSciNetCrossRef M.E. Tipping, C. Bishop, Probabilistic principal component analysis. J. Roy. Stat. Soc. B 21(3), 611–622 (1999)MathSciNetCrossRef
7.
Zurück zum Zitat M.E.J. Newman, Networks: An Introduction (Oxford University Press, Oxford, 2010) M.E.J. Newman, Networks: An Introduction (Oxford University Press, Oxford, 2010)
9.
Zurück zum Zitat S. Wachter, Data protection in the age of big data. Nat. Electron. 2(1), 6–7 (2019)CrossRef S. Wachter, Data protection in the age of big data. Nat. Electron. 2(1), 6–7 (2019)CrossRef
10.
Zurück zum Zitat A. Makhdoumi, S. Salamatian, N. Fawaz, M. Médard, From the information bottleneck to the privacy funnel, in 2014 IEEE Information Theory Workshop (ITW 2014), S. 501–505 (2014) A. Makhdoumi, S. Salamatian, N. Fawaz, M. Médard, From the information bottleneck to the privacy funnel, in 2014 IEEE Information Theory Workshop (ITW 2014), S. 501–505 (2014)
11.
Zurück zum Zitat Y.Y. Shkel, R.S. Blum, H.V. Poor, Secrecy by design with applications to privacy and compression. IEEE Trans. Inf. Theory 67(2), 824–843 (2021)MathSciNetCrossRef Y.Y. Shkel, R.S. Blum, H.V. Poor, Secrecy by design with applications to privacy and compression. IEEE Trans. Inf. Theory 67(2), 824–843 (2021)MathSciNetCrossRef
12.
Zurück zum Zitat Q. Du, J. Fowler, Low-complexity principal component analysis for hyperspectral image compression. Int. J. High Perform. Comput. Appl., 438–448 (2008) Q. Du, J. Fowler, Low-complexity principal component analysis for hyperspectral image compression. Int. J. High Perform. Comput. Appl., 438–448 (2008)
13.
Zurück zum Zitat A. Sharma, K. Paliwal, Fast principal component analysis using fixed-point analysis. Pattern Recogn. Lett. 28, 1151–1155 (2007)CrossRef A. Sharma, K. Paliwal, Fast principal component analysis using fixed-point analysis. Pattern Recogn. Lett. 28, 1151–1155 (2007)CrossRef
14.
Zurück zum Zitat S. Foucart, H. Rauhut, A Mathematical Introduction to Compressive Sensing (Springer, New York, 2012) S. Foucart, H. Rauhut, A Mathematical Introduction to Compressive Sensing (Springer, New York, 2012)
15.
Zurück zum Zitat B. Schölkopf, A. Smola, Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond (MIT Press, Cambridge, 2002) B. Schölkopf, A. Smola, Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond (MIT Press, Cambridge, 2002)
Metadaten
Titel
Merkmalslernen
verfasst von
Alexander Jung
Copyright-Jahr
2024
Verlag
Springer Nature Singapore
DOI
https://doi.org/10.1007/978-981-99-7972-1_9

Premium Partner