Skip to main content

2021 | OriginalPaper | Buchkapitel

8. Maschinelles Lernen und Data Mining

verfasst von : Wolfgang Ertel

Erschienen in: Grundkurs Künstliche Intelligenz

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Maschinelles Lernen dominiert heute Forschung und Anwendungen in der KI. Wir stellen in diesem Einführungskapitel einige einfache aber wichtige Lernalgorithmen zusammen mit wichtigen Begriffen und Methoden vor.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Python ist eine moderne Skriptsprache mit sehr übersichtlicher Syntax, mächtigen Datentypen und umfangreicher Standardbibliothek, die sich für diesen Zweck anbietet.
 
2
Der hochgestellte Index p für die Nummer eines Datenvektors wird hier und im Folgenden in Klammer gesetzt um Verwechslung mit der p-ten Potenz zu vermeiden.
 
3
Vorsicht! Dies ist kein Konvergenzbeweis für die Perzeptron Lernregel. Es zeigt nur, dass das Perzeptron konvergiert, wenn die Trainingsdatenmenge aus einem einzigen Beispiel besteht.
 
4
In diesem Beispiel und im Folgenden werden immer dann Dezimalpunkte statt Kommata verwendet, wenn Verwechslungsgefahr mit den Kommata zur Trennung der Vektorkomponenten besteht.
 
5
Die Funktionale https://static-content.springer.com/image/chp%3A10.1007%2F978-3-658-32075-1_8/289943_5_De_8_IEq103_HTML.gif und https://static-content.springer.com/image/chp%3A10.1007%2F978-3-658-32075-1_8/289943_5_De_8_IEq104_HTML.gif bestimmen, ähnlich wie \(\min \) und \(\max \), Minimum oder Maximum einer Menge oder Funktion. Sie liefern aber nicht den Wert des Minimums oder Maximums, sondern die Stelle, an der dieses auftritt, also das Argument und nicht den Funktionswert des Minimums oder Maximums.
 
6
Der Hamming-Abstand zweier Bit-Vektoren ist die Anzahl unterschiedlicher Bits der beiden Vektoren.
 
7
Um das Beispiel einfach und anschaulich zu halten, wurde der Merkmalsvektor \({\boldsymbol{x}}\) bewusst eindimensional gehalten.
 
8
Die Dreitagesneuschneesumme ist zwar eines der wichtigsten Merkmale zur Bestimmung der Gefahrenstufe. In der Praxis werden aber noch andere Attribute verwendet [Bra01]. Das hier verwendete Beispiel ist vereinfacht. Auch kann hier die Gefahrenstufe beliebige Werte zwischen eins und fünf annehmen im Gegensatz zur Praxis mit ganzzahligen Werten.
 
9
Die Konfusionsmatrix ist der Spezialfall einer Kontingenztabelle mit zwei Merkmalen.
 
10
In (7.​9) wird zur Definition der Entropie der natürliche Logarithmus verwendet. Da hier und auch bei der MaxEnt-Methode nur Entropien verglichen werden, spielt dieser Unterschied keine Rolle (siehe Aufgabe 8.14).
 
11
Besser wäre es allerdings, beim Pruning den Fehler auf den Testdaten zu verwenden. Zumindest dann, wenn die Zahl der Trainingsdaten ausreicht, um eine separate Testmenge zu rechtfertigen.
 
12
Eine Skalierung der Merkmale ist für viele Verfahren des maschinellen Lernens notwendig oder vorteilhaft.
 
13
Die Initialisierung der Clustermittelpunkte auf beliebige Punkte, die keine Datenpunkte sind, kann zu leeren Clustern führen.
 
14
Der Nearest Neighbour-Algorithmus ist nicht zu verwechseln mit der Nearest Neighbour-Methode zur Klassifikation aus Abschn. 8.3.
 
15
Ein minimal aufspannender Baum ist ein zyklenfreier ungerichteter Graph mit minimaler Summe der Kantenlängen.
 
Literatur
[Ric83]
Zurück zum Zitat Rich, E.: Artificial Intelligence. McGraw-Hill, 1983 Rich, E.: Artificial Intelligence. McGraw-Hill, 1983
[RGH+06]
Zurück zum Zitat Riedmiller, M. ; Gabel, T. ; Hafner, R. ; Lange, S. ; Lauer, M.: Die Brainstormers: Entwurfsprinzipien lernfähiger autonomer Roboter. In: Informatik-Spektrum 29 (2006), Nr. 3, S. 175–190 Riedmiller, M. ; Gabel, T. ; Hafner, R. ; Lange, S. ; Lauer, M.: Die Brainstormers: Entwurfsprinzipien lernfähiger autonomer Roboter. In: Informatik-Spektrum 29 (2006), Nr. 3, S. 175–190
[PVG+11]
Zurück zum Zitat Pedregosa, F. ; Varoquaux, G. ; Gramfort, A. u. a.: Scikit-learn: Machine Learning in Python. In: Journal of Machine Learning Research 12 (2011), S. 2825–2830. – https://scikit-learn.org Pedregosa, F. ; Varoquaux, G. ; Gramfort, A. u. a.: Scikit-learn: Machine Learning in Python. In: Journal of Machine Learning Research 12 (2011), S. 2825–2830. – https://​scikit-learn.​org
[Ros58]
Zurück zum Zitat Rosenblatt, F.: The perceptron : a probabilistic model for information storage and organization in the brain. In: Psychological Reviews 65 (1958), S. 386–408. – Wiederabdruck in [AR88], S. 92–114 Rosenblatt, F.: The perceptron : a probabilistic model for information storage and organization in the brain. In: Psychological Reviews 65 (1958), S. 386–408. – Wiederabdruck in [AR88], S. 92–114
[MP69]
Zurück zum Zitat Minsky, M. ; Papert, S.: Perceptrons. MIT Press, Cambridge, MA, 1969 Minsky, M. ; Papert, S.: Perceptrons. MIT Press, Cambridge, MA, 1969
[SA94]
Zurück zum Zitat Schaal, S. ; Atkeson, C.G.: Robot juggling: implementation of memory-based learning. In: IEEE Control Systems Magazine 14 (1994), Nr. 1, S. 57–71 Schaal, S. ; Atkeson, C.G.: Robot juggling: implementation of memory-based learning. In: IEEE Control Systems Magazine 14 (1994), Nr. 1, S. 57–71
[SE10]
Zurück zum Zitat Schneider, M. ; Ertel, W.: Robot Learning by Demonstration with Local Gaussian Process Regression. In: Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS’10), 2010 Schneider, M. ; Ertel, W.: Robot Learning by Demonstration with Local Gaussian Process Regression. In: Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS’10), 2010
[Bra01]
Zurück zum Zitat Brabec, B.: Computergestützte regionale Lawinenprognose, ETH Zürich, Diss., 2001 Brabec, B.: Computergestützte regionale Lawinenprognose, ETH Zürich, Diss., 2001
[Cle79]
Zurück zum Zitat Cleveland, W.S.: Robust Locally Weighted Regression and Smoothing Scatterplots. In: Journal of the American Statistical Association 74 (1979), Nr. 368, S. 829–836 Cleveland, W.S.: Robust Locally Weighted Regression and Smoothing Scatterplots. In: Journal of the American Statistical Association 74 (1979), Nr. 368, S. 829–836
[Ric03]
Zurück zum Zitat Richter, M.: Fallbasiertes Schließen. In: [GRS03], Kapitel 11, S. 407–430 Richter, M.: Fallbasiertes Schließen. In: [GRS03], Kapitel  11, S. 407–430
[BFOS84]
Zurück zum Zitat Breiman, L. ; Friedman, J. ; Olshen, R. A. ; Stone, C. J.: Classification and regression trees. Wadsworth, 1984 Breiman, L. ; Friedman, J. ; Olshen, R. A. ; Stone, C. J.: Classification and regression trees. Wadsworth, 1984
[SW76]
Zurück zum Zitat Shannon, C.E. ; Weaver, W.: Mathematische Grundlagen der Informationstheorie. Oldenbourg Verlag, 1976 Shannon, C.E. ; Weaver, W.: Mathematische Grundlagen der Informationstheorie. Oldenbourg Verlag, 1976
[ES99]
Zurück zum Zitat Ertel, W. ; Schramm, M.: Combining Data and Knowledge by MaxEnt-Optimization of Probability Distributions. In: PKDD’99 (3rd European Conference on Principles and Practice of Knowledge Discovery in Databases) Bd. 1704. Prague : Springer Verlag, 1999 (LNCS), S. 323–328 Ertel, W. ; Schramm, M.: Combining Data and Knowledge by MaxEnt-Optimization of Probability Distributions. In: PKDD’99 (3rd European Conference on Principles and Practice of Knowledge Discovery in Databases) Bd. 1704. Prague : Springer Verlag, 1999 (LNCS), S. 323–328
[SE00]
Zurück zum Zitat Schramm, M. ; Ertel, W.: Reasoning with Probabilities and Maximum Entropy: The System PIT and its Application in LEXMED. In: al, K. I. (Hrsg.): Operations Research Proceeedings (SOR’99), Springer Verlag, 2000, S. 274–280 Schramm, M. ; Ertel, W.: Reasoning with Probabilities and Maximum Entropy: The System PIT and its Application in LEXMED. In: al, K. I. (Hrsg.): Operations Research Proceeedings (SOR’99), Springer Verlag, 2000, S. 274–280
[Jen01]
Zurück zum Zitat Jensen, F. V.: Bayesian networks and decision graphs. Springer-Verlag, 2001 Jensen, F. V.: Bayesian networks and decision graphs. Springer-Verlag, 2001
[MDBM00]
Zurück zum Zitat Melancon, G. ; Dutour, I. ; Bousque-Melou, G.: Random Generation of Dags for Graph Drawing/Dutch Research Center for Mathematical and Computer Science (CWI). 2000 (INS-R0005). – Forschungsbericht Melancon, G. ; Dutour, I. ; Bousque-Melou, G.: Random Generation of Dags for Graph Drawing/Dutch Research Center for Mathematical and Computer Science (CWI). 2000 (INS-R0005). – Forschungsbericht
[DHS01]
Zurück zum Zitat Duda, R.O. ; Hart, P.E. ; Stork, D.G.: Pattern Classification. Wiley, 2001 Duda, R.O. ; Hart, P.E. ; Stork, D.G.: Pattern Classification. Wiley, 2001
[Rou87]
Zurück zum Zitat Rousseeuw, P. J.: Silhouettes: a Graphical Aid to the Interpretation and Validation of Cluster Analysis. In: Computational and Applied Mathematics 20 (1987), S. 53–65 Rousseeuw, P. J.: Silhouettes: a Graphical Aid to the Interpretation and Validation of Cluster Analysis. In: Computational and Applied Mathematics 20 (1987), S. 53–65
[Jor99]
Zurück zum Zitat Jordan, Michael I. (Hrsg.): Learning in graphical models. Cambridge, MA, USA : MIT Press, 1999 Jordan, Michael I. (Hrsg.): Learning in graphical models. Cambridge, MA, USA : MIT Press, 1999
[Tur50]
Zurück zum Zitat Turing, A.M.: Computing Machinery and Intelligence. In: Mind 59 (1950), S. 433–460. – Deutsche Übersetzung mit dem Titel Kann eine Maschine denken in [ZW94] Turing, A.M.: Computing Machinery and Intelligence. In: Mind 59 (1950), S. 433–460. – Deutsche Übersetzung mit dem Titel Kann eine Maschine denken in [ZW94]
[Zdz05]
Zurück zum Zitat Zdziarski, J.: Ending Spam. No Starch Press, 2005 Zdziarski, J.: Ending Spam. No Starch Press, 2005
[Tax01]
Zurück zum Zitat Tax, D.M.J.: One-class classification, Delft University of Technology, Diss., 2001 Tax, D.M.J.: One-class classification, Delft University of Technology, Diss., 2001
[BKNS00]
Zurück zum Zitat Breunig, M. ; Kriegel, H.P. ; Ng, R. ; Sander, J.: LOF: identifying density-based local outliers. In: ACM sigmod record 29 (2000), Nr. 2, S. 93–104 Breunig, M. ; Kriegel, H.P. ; Ng, R. ; Sander, J.: LOF: identifying density-based local outliers. In: ACM sigmod record 29 (2000), Nr. 2, S. 93–104
[SEP16]
Zurück zum Zitat Schneider, M. ; Ertel, W. ; Palm, G.: Expected Similarity Estimation for Large-Scale Batch and Streaming Anomaly Detection. In: Machine Learning (2016). – accepted Schneider, M. ; Ertel, W. ; Palm, G.: Expected Similarity Estimation for Large-Scale Batch and Streaming Anomaly Detection. In: Machine Learning (2016). – accepted
[BJCC14]
Zurück zum Zitat Barros, R. C. ; Jaskowiak, P. A. ; Cerri, R. ; Carvalho, A. C.: A framework for bottom-up induction of oblique decision trees. In: Neurocomputing 135 (2014), S. 3–12 Barros, R. C. ; Jaskowiak, P. A. ; Cerri, R. ; Carvalho, A. C.: A framework for bottom-up induction of oblique decision trees. In: Neurocomputing 135 (2014), S. 3–12
[Bis06]
Zurück zum Zitat Bishop, C.M.: Pattern recognition and machine learning. Springer New York:, 2006 Bishop, C.M.: Pattern recognition and machine learning. Springer New York:, 2006
[Fla12]
Zurück zum Zitat Flach, Peter: Machine Learning: The Art and Science of Algorithms that Make Sense of Data. Cambridge University Press, 2012 Flach, Peter: Machine Learning: The Art and Science of Algorithms that Make Sense of Data. Cambridge University Press, 2012
Metadaten
Titel
Maschinelles Lernen und Data Mining
verfasst von
Wolfgang Ertel
Copyright-Jahr
2021
DOI
https://doi.org/10.1007/978-3-658-32075-1_8