Künstliche Intelligenz (KI) beschäftigt sich damit, Aufgaben von Computern – früher oft als Maschinen bezeichnet – erledigen zu lassen, die typischerweise Menschen erledigen und von denen man annimmt, dass dafür eine gewisse Intelligenz erforderlich ist. Paradoxerweise sind Aufgaben, die für den Menschen einfach erscheinen, für Computer oft eine vergleichsweise große Herausforderung. Umgekehrt sind viele Aufgaben für einen Computer einfach zu lösen, die für den Menschen schwierig oder zu komplex sind. Die aktuelle Entwicklung der KI insbesondere mit Ansätzen aus dem Bereich Deep Learning verschiebt die Grenzen dessen, was mit Computern in Bezug auf konkrete Aufgabenstellungen (schwache KI) erreicht werden kann, allerdings sehr rasant. Gerade auch im Bereich Natural Language Processing (NLP) sind die Fortschritte in den letzten Jahren sehr bedeutend. Bevor wir im folgenden Kapitel auf Deep Learning mit besonders wichtigen Bestandteilen unseres KI-Werkzeugkastens eingehen, stellt dieses Kapitel zum besseren Verständnis der Thematik einen kurzen Überblick über die Entwicklung und grundlegenden Begriffe und Vorgehensweisen des machinellen Lernens dar.
Anzeige
Bitte loggen Sie sich ein, um Zugang zu Ihrer Lizenz zu erhalten.
Diese frühe und oft zitierte Definition des maschinellen Lernens ist auch heute noch äußerst treffend. Als Quelle wird meist ein Artikel des KI-Pioniers Arthur L. Samuel angegeben [155]. Allerdings findet sich in der verfügbaren Version des Artikels dieses Zitat nicht direkt.
Der Begriff Modell wird in vielen Fachbereichen und insbesondere in der Informatik häufig verwendet und ist völlig überladen. An dieser Stelle sind Modelle im Sinne von Machine-Learning-Modellen, die für uns eine Eingabe in eine gewünschte Ausgabe transformieren, zu unterscheiden von Vorgehensmodelle, die uns Menschen bei der Durchführung von Analyseprojekten helfen, deren Ziel oft die Anwendung von Machine-Learning-Verfahren, also Lernverfahren, zur Erstellung von Modellen aus Daten ist. Es geht hier also (noch) nicht um ein Modell, das eine eigenständige Durchführung eines Analyseprojekts beherrscht. Noch sind wir als Menschen, die die Analyseprojekte steuern. Allerdings nimmt dabei der Automatisierungsgrad stetig zu.
David Wolpert hat gezeigt, dass es ohne jegliche Annahmen bezüglich der Daten, keinen Grund gibt, warum ein Modell einem anderen vorgezogen werden sollte. Dies ist als Variante des No-Free-Lunch-Theorems bekannt [192].