Skip to main content

2019 | OriginalPaper | Buchkapitel

3. Grundzüge des maschinellen Lernens

verfasst von : Carsten Lanquillon

Erschienen in: Blockchain und maschinelles Lernen

Verlag: Springer Berlin Heidelberg

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

In diesem Kapitel werden Grundzüge des maschinellen Lernens dargestellt. Ziel ist es, ein allgemeines Verständnis dafür zu schaffen, was maschinelle Lernverfahren leisten können. Neben bekannten Definitionen und einem kurzen Abriss über die Entstehung maschineller Lernverfahren werden insbesondere Unterscheidungsmerkmale und Varianten sowie gängige Aufgabentypen erläutert. Erst danach werden beispielhaft verschiedene Lernverfahren vorgestellt, die besonders eingängig oder typisch sind und oft in der Praxis zum Einsatz kommen. In praktischen Anwendungen spielt aufgrund der großen Datenmengen und zusätzlicher Anforderungen zum Datenschutz das verteilte Lernen eine immer wichtigere Rolle. Als Abschluss und gleichermaßen Überleitung zur Verbindung mit Blockchain-Technologie gilt der Ausblick am Ende des Kapitels.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Diese frühe und oft zitierte Definition des maschinellen Lernens ist auch heute noch äußerst treffend. Als Quelle wird meist ein Artikel des KI-Pioniers Arthur L. Samuel angegeben [34]. Allerdings findet sich in der verfügbaren Version des Artikels dieses Zitat nicht direkt.
 
2
Hard thinks are easy, but easy things are hard. (Moravec’sches Paradox) [30].
 
3
Ein kurzer Überblick über in der Praxis oft verwendete Modelle und eine Auswahl bekannter Lernverfahren folgt in Abschn. 3.5 dieses Kapitels.
 
4
David Wolpert hat gezeigt, dass es ohne jegliche Annahmen bezüglich der Daten, keinen Grund gibt, warum ein Modell einem anderen vorgezogen werden sollte. Dies ist eine Variante des No-Free-Lunch-Theorems bekannt [40].
 
5
Für eine ausführlichere Betrachtung dieser Thematik sei der Leser beispielsweise an Beschreibungen der Umsetzung von Lernverfahren im Kontext von Hadoop Map-Reduce verwiesen [11].
 
6
Dieses Zitat wird Peter Norvig zugeschrieben und oft verwendet. Eine wissenschaftliche Quelle lässt sich dafür jedoch nicht finden.
 
Literatur
1.
Zurück zum Zitat Aggarwal, C.C.: Outlier Analysis, 2. Aufl. Springer & Incorporated, New York (2016) Aggarwal, C.C.: Outlier Analysis, 2. Aufl. Springer & Incorporated, New York (2016)
2.
Zurück zum Zitat Agrawal, R., Srikant, R.: Fast algorithms for mining association rules in large databases. In: Proceedings of the 20th International Conference on Very Large Data Bases, VLDB ’94, S. 487–499. Morgan Kaufmann Publishers Inc., San Francisco (1994) Agrawal, R., Srikant, R.: Fast algorithms for mining association rules in large databases. In: Proceedings of the 20th International Conference on Very Large Data Bases, VLDB ’94, S. 487–499. Morgan Kaufmann Publishers Inc., San Francisco (1994)
3.
Zurück zum Zitat Banko, M., Brill, E.: Scaling to very very large corpora for natural language disambiguation. In: Proceedings of the 39th Annual Meeting on Association for Computational Linguistics, ACL ’01, S. 26–33. Association for Computational Linguistics, Stroudsburg (2001). https://doi.org/10.3115/1073012.1073017 Banko, M., Brill, E.: Scaling to very very large corpora for natural language disambiguation. In: Proceedings of the 39th Annual Meeting on Association for Computational Linguistics, ACL ’01, S. 26–33. Association for Computational Linguistics, Stroudsburg (2001). https://​doi.​org/​10.​3115/​1073012.​1073017
4.
Zurück zum Zitat Bishop, C.M.: Pattern Recognition and Machine Learning. Springer, Berlin (2006)MATH Bishop, C.M.: Pattern Recognition and Machine Learning. Springer, Berlin (2006)MATH
5.
Zurück zum Zitat Boser, B.E., Guyon, I.M., Vapnik, V.N.: A training algorithm for optimal margin classifiers. In: Proceedings of the Fifth Annual Workshop on Computational Learning Theory, COLT ’92, S. 144–152. ACM, New York (1992). https://doi.org/10.1145/130385.130401. Zugegriffen: 10. Mai. 2019 Boser, B.E., Guyon, I.M., Vapnik, V.N.: A training algorithm for optimal margin classifiers. In: Proceedings of the Fifth Annual Workshop on Computational Learning Theory, COLT ’92, S. 144–152. ACM, New York (1992). https://​doi.​org/​10.​1145/​130385.​130401. Zugegriffen: 10. Mai. 2019
8.
Zurück zum Zitat Breiman, L., Friedman, J.H., Olshen, R.A., Stone, C.J.: Classification and Regression Trees. Wadsworth & Brooks, Monterey (1984)MATH Breiman, L., Friedman, J.H., Olshen, R.A., Stone, C.J.: Classification and Regression Trees. Wadsworth & Brooks, Monterey (1984)MATH
9.
Zurück zum Zitat Chahal, K.S., Grover, M.S., Dey, K.: A Hitchhiker’s guide on distributed training of deep neural networks. CoRR abs/1810.11787 (2018) Chahal, K.S., Grover, M.S., Dey, K.: A Hitchhiker’s guide on distributed training of deep neural networks. CoRR abs/1810.11787 (2018)
11.
Zurück zum Zitat Chu, C.T., Kim, S.K., Lin, Y.A., Yu, Y., Bradski, G., Ng, A.Y., Olukotun, K.: Map-reduce for machine learning on multicore. In: Proceedings of the 19th International Conference on Neural Information Processing Systems, NIPS’06, S. 281–288. MIT Press, Cambridge (2006) Chu, C.T., Kim, S.K., Lin, Y.A., Yu, Y., Bradski, G., Ng, A.Y., Olukotun, K.: Map-reduce for machine learning on multicore. In: Proceedings of the 19th International Conference on Neural Information Processing Systems, NIPS’06, S. 281–288. MIT Press, Cambridge (2006)
13.
Zurück zum Zitat Dietterich, T.G.: Ensemble methods in machine learning. In: Proceedings of the First International Workshop on Multiple Classifier Systems, MCS ’00, S. 1–15. Springer, London (2000) Dietterich, T.G.: Ensemble methods in machine learning. In: Proceedings of the First International Workshop on Multiple Classifier Systems, MCS ’00, S. 1–15. Springer, London (2000)
15.
Zurück zum Zitat Domingos, P.: The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books Inc., New York (2015) Domingos, P.: The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books Inc., New York (2015)
17.
Zurück zum Zitat Ester, M., Kriegel, H.P., Sander, J., Xu, X.: A density-based algorithm for discovering clusters a density-based algorithm for discovering clusters in large spatial databases with noise. In: Proceedings of the Second International Conference on Knowledge Discovery and Data Mining, KDD ’96, S. 226–231. AAAI Press (1996) Ester, M., Kriegel, H.P., Sander, J., Xu, X.: A density-based algorithm for discovering clusters a density-based algorithm for discovering clusters in large spatial databases with noise. In: Proceedings of the Second International Conference on Knowledge Discovery and Data Mining, KDD ’96, S. 226–231. AAAI Press (1996)
18.
Zurück zum Zitat Geng, J., Li, D., Wang, S.: Horizontal or vertical?: A hybrid approach to large-scale distributed machine learning. In: Proceedings of the 10th Workshop on Scientific Cloud Computing, ScienceCloud ’19, S. 1–4. ACM, New York (2019). https://doi.org/10.1145/3322795.3331461 Geng, J., Li, D., Wang, S.: Horizontal or vertical?: A hybrid approach to large-scale distributed machine learning. In: Proceedings of the 10th Workshop on Scientific Cloud Computing, ScienceCloud ’19, S. 1–4. ACM, New York (2019). https://​doi.​org/​10.​1145/​3322795.​3331461
20.
Zurück zum Zitat Han, J., Pei, J.: Mining frequent patterns by pattern-growth: methodology and implications. SIGKDD Explor. Newsl. 2(2), 14–20 (2000)MathSciNetCrossRef Han, J., Pei, J.: Mining frequent patterns by pattern-growth: methodology and implications. SIGKDD Explor. Newsl. 2(2), 14–20 (2000)MathSciNetCrossRef
21.
Zurück zum Zitat Han, J., Pei, J., Yin, Y.: Mining frequent patterns without candidate generation. SIGMOD Rec. 29(2), 1–12 (2000)CrossRef Han, J., Pei, J., Yin, Y.: Mining frequent patterns without candidate generation. SIGMOD Rec. 29(2), 1–12 (2000)CrossRef
22.
Zurück zum Zitat Hawkins, D.: Identification of Outliers. Chapman & Hall, London (1980) Hawkins, D.: Identification of Outliers. Chapman & Hall, London (1980)
23.
Zurück zum Zitat Jain, A.K., Dubes, R.C.: Algorithms for Clustering Data. Prentice-Hall Inc., Upper Saddle River (1988)MATH Jain, A.K., Dubes, R.C.: Algorithms for Clustering Data. Prentice-Hall Inc., Upper Saddle River (1988)MATH
24.
Zurück zum Zitat Konecný, J., McMahan, H.B., Ramage, D., Richtárik, P.: Federated optimization: distributed machine learning for on-device intelligence. CoRR abs/1610.02527 (2016) Konecný, J., McMahan, H.B., Ramage, D., Richtárik, P.: Federated optimization: distributed machine learning for on-device intelligence. CoRR abs/1610.02527 (2016)
25.
Zurück zum Zitat Konecný, J., McMahan, H.B., Yu, F.X., Richtárik, P., Suresh, A.T., Bacon, D.: Federated learning: strategies for improving communication efficiency. CoRR abs/1610.05492 (2016) Konecný, J., McMahan, H.B., Yu, F.X., Richtárik, P., Suresh, A.T., Bacon, D.: Federated learning: strategies for improving communication efficiency. CoRR abs/1610.05492 (2016)
26.
Zurück zum Zitat Li, M., Andersen, D.G., Park, J.W., Smola, A.J., Ahmed, A., Josifovski, V., Long, J., Shekita, E.J., Su, B.Y.: Scaling distributed machine learning with the parameter server. In: Proceedings of the 11th USENIX Conference on Operating Systems Design and Implementation, OSDI’14, S. 583–598. USENIX Association, Berkeley (2014) Li, M., Andersen, D.G., Park, J.W., Smola, A.J., Ahmed, A., Josifovski, V., Long, J., Shekita, E.J., Su, B.Y.: Scaling distributed machine learning with the parameter server. In: Proceedings of the 11th USENIX Conference on Operating Systems Design and Implementation, OSDI’14, S. 583–598. USENIX Association, Berkeley (2014)
27.
Zurück zum Zitat Lin, H., Zhang, H., Ma, Y., He, T., Zhang, Z., Zha, S., Li, M.: Dynamic mini-batch SGD for elastic distributed training: learning in the limbo of resources. CoRR abs/1904.12043 (2019) Lin, H., Zhang, H., Ma, Y., He, T., Zhang, Z., Zha, S., Li, M.: Dynamic mini-batch SGD for elastic distributed training: learning in the limbo of resources. CoRR abs/1904.12043 (2019)
28.
Zurück zum Zitat MacQueen, J.: Some methods for classification and analysis of multivariate observations. In: Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, Volume 1: Statistics, S. 281–297. University of California Press, Berkeley (1967) MacQueen, J.: Some methods for classification and analysis of multivariate observations. In: Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, Volume 1: Statistics, S. 281–297. University of California Press, Berkeley (1967)
29.
Zurück zum Zitat Mitchell, T.M.: Machine Learning, 1. Aufl. McGraw-Hill Inc., New York (1997)MATH Mitchell, T.M.: Machine Learning, 1. Aufl. McGraw-Hill Inc., New York (1997)MATH
30.
Zurück zum Zitat Moravec, H.: Mind Children: The Future of Robot and Human Intelligence. Harvard University Press, Cambridge (1988) Moravec, H.: Mind Children: The Future of Robot and Human Intelligence. Harvard University Press, Cambridge (1988)
31.
Zurück zum Zitat Nelson, G.: The Analytics Lifecycle Toolkit: A Practical Guide for an Effective Analytics Capability. Wiley & SAS Business Series. Wiley, Incorporated (2018)CrossRef Nelson, G.: The Analytics Lifecycle Toolkit: A Practical Guide for an Effective Analytics Capability. Wiley & SAS Business Series. Wiley, Incorporated (2018)CrossRef
32.
Zurück zum Zitat Nilsson, A., Smith, S., Ulm, G., Gustavsson, E., Jirstrand, M.: A performance evaluation of federated learning algorithms. In: Proceedings of the Second Workshop on Distributed Infrastructures for Deep Learning, DIDL ’18, S. 1–8. ACM, New York (2018). https://doi.org/10.1145/3286490.3286559 Nilsson, A., Smith, S., Ulm, G., Gustavsson, E., Jirstrand, M.: A performance evaluation of federated learning algorithms. In: Proceedings of the Second Workshop on Distributed Infrastructures for Deep Learning, DIDL ’18, S. 1–8. ACM, New York (2018). https://​doi.​org/​10.​1145/​3286490.​3286559
33.
Zurück zum Zitat Quinlan, J.R.: C4.5: Programs for Machine Learning. Morgan Kaufmann Publishers Inc., San Francisco (1993) Quinlan, J.R.: C4.5: Programs for Machine Learning. Morgan Kaufmann Publishers Inc., San Francisco (1993)
35.
Zurück zum Zitat Schapire, R.E., Freund, Y.: Boosting: Foundations and Algorithms. The MIT Press, Cambridge (2012) Schapire, R.E., Freund, Y.: Boosting: Foundations and Algorithms. The MIT Press, Cambridge (2012)
36.
Zurück zum Zitat Schölkopf, B., Smola, A.J.: Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond. MIT Press, Cambridge (2001) Schölkopf, B., Smola, A.J.: Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond. MIT Press, Cambridge (2001)
37.
Zurück zum Zitat Shearer, C.: The crisp-dm model: the new blueprint for data mining. J. Data Warehous. 5(4), (2000) Shearer, C.: The crisp-dm model: the new blueprint for data mining. J. Data Warehous. 5(4), (2000)
38.
Zurück zum Zitat Tukey, J.W.: Exploratory Data Analysis. Addison-Wesley series in behavioral science : quantitative methods. Addison-Wesley, Reading, Mass. [u.a.] (1977) Tukey, J.W.: Exploratory Data Analysis. Addison-Wesley series in behavioral science : quantitative methods. Addison-Wesley, Reading, Mass. [u.a.] (1977)
42.
Zurück zum Zitat Wu, X., Zhu, X., Wu, G., Ding, W.: Data Mining with Big Data. IEEE Transactions on Knowledge and Data Engineering 26(1), 97–107 (2014)CrossRef Wu, X., Zhu, X., Wu, G., Ding, W.: Data Mining with Big Data. IEEE Transactions on Knowledge and Data Engineering 26(1), 97–107 (2014)CrossRef
Metadaten
Titel
Grundzüge des maschinellen Lernens
verfasst von
Carsten Lanquillon
Copyright-Jahr
2019
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-60408-3_3