Skip to main content

2015 | Buch

Computational Intelligence

Eine methodische Einführung in Künstliche Neuronale Netze, Evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze

verfasst von: Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher

Verlag: Springer Fachmedien Wiesbaden

Buchreihe : Computational Intelligence

insite
SUCHEN

Über dieses Buch

Die Autoren behandeln umfassend zentrale Themen der Informatik von Künstlichen Neuronalen Netzen, über Evolutionäre Algorithmen bis hin zu Fuzzy-Systemen und Bayes-Netzen. Denn: Der Anwendungsbereich „Computational Intelligence“ erlangt durch viele erfolgreiche industrielle Produkte immer mehr an Bedeutung. Dieses Buch behandelt die zentralen Techniken dieses Gebiets und bettet sie in ein didaktisches Konzept ein, welches sich gezielt an Studierende und Lehrende der Informatik wendet. Für die vorliegende 2. Auflage des Buches wurden alle Themenbereiche überarbeitet, aktualisiert und zum Teil erweitert.

Zusatzmaterialen wie Aufgaben, Lösungen und Foliensätze für Vorlesungen sowie Beispiele aus der industriellen Anwendung betonen den praktischen Charakter des Buches.

Inhaltsverzeichnis

Frontmatter
1. Einleitung
Zusammenfassung
Komplexe Problemstellungen in verschiedensten Anwendungsbereichen führen verstärkt zu Computeranwendungen, die „intelligentes Verhalten“ zeigen müssen. Diese Anwendungen leisten z.B. Entscheidungsunterstützung, steuern Prozesse, erkennen und interpretieren Muster oder bewegen sich autonom in unbekannten Umgebungen. Zur Bewältigung solcher Aufgaben sind neuartige Vorgehensweisen, Methoden, Programmierumgebungen und Werkzeuge entwickelt worden.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher

Neuronale Netze

Frontmatter
2. Einleitung
Zusammenfassung
(Künstliche) neuronale Netze (engl. artificial neural networks) sind informationsverarbeitende Systeme, deren Struktur und Funktionsweise dem Nervensystem und speziell dem Gehirn von Tieren und Menschen nachempfunden sind. Sie bestehen aus einer großen Anzahl einfacher, parallel arbeitender Einheiten, den sogenannten Neuronen. Diese Neuronen senden sich Informationen (z.B. über äußere Stimuli) in Form von Aktivierungssignalenüber gerichtete Verbindungen zu.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
3. Schwellenwertelemente
Zusammenfassung
Die Beschreibung natürlicher neuronaler Netze im vorangehenden Kapitel legt es nahe, Neuronen durch Schwellenwertelemente zu modellieren: Erhält ein Neuron genügend erregende Impulse, die nicht durch entsprechend starke hemmende Impulse ausgeglichen werden, so wird es aktiv und sendet ein Signal an andere Neuronen. Ein solches Modell wurde schon sehr früh von [McCulloch und Pitts 1943] genauer untersucht. Schwellenwertelemente nennt man daher auch McCulloch-Pitts-Neuronen. Ein anderer, oft für ein Schwellenwertelement gebrauchter Name ist Perzeptron, obwohl die von [Rosenblatt 1958, Rosenblatt 1962] so genannten Verarbeitungseinheiten eigentlich etwas komplexer sind.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
4. Allgemeine neuronale Netze
Zusammenfassung
In diesem Kapitel führen wir ein allgemeines Modell (künstlicher) neuronaler Netze ein, das i.W. alle speziellen Formen erfasst, die wir in den folgenden Kapiteln betrachten werden. Wir beginnen mit der Struktur eines (künstlichen) neuronalen Netzes, beschreiben dann allgemein die Arbeitsweise und schließlich das Training eines (künstlichen) neuronalen Netzes.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
5. Mehrschichtige Perzeptren
Zusammenfassung
Nachdem wir im vorangehenden Kapitel die Struktur, die Arbeitsweise und das Training/Lernen (künstlicher) neuronaler Netze allgemein beschrieben haben, wenden wir uns in diesem und den folgenden Kapiteln speziellen Formen (künstlicher) neuronaler Netze zu. Wir beginnen mit der bekanntesten Form, den sogenannten mehrschichtigen Perzeptren (engl. multilayer perceptrons, MLPs), die eng mit den in Kapitel 3 betrachteten Netzen von Schwellenwertelementen verwandt sind. Die Unterschiede bestehen im wesentlichen in dem streng geschichteten Aufbau des Netzes (siehe die folgende Definition) und in der Verwendung auch anderer Aktivierungsfunktionen als einem Test auf Überschreiten eines scharfen Schwellenwertes.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
6. Radiale-Basisfunktionen-Netze
Zusammenfassung
Wie mehrschichtige Perzeptren sind Radiale-Basisfunktionen-Netze vorwärtsbetriebene neuronale Netze mit einer streng geschichteten Struktur. Allerdings ist die Zahl der Schichten stets drei; es gibt also nur genau eine versteckte Schicht. Weiter unterscheiden sich Radiale-Basisfunktionen-Netze von mehrschichtigen Perzeptren durch andere Netzeingabe- und Aktivierungsfunktionen, speziell in der versteckten Schicht. In ihr werden radiale Basisfunktionen verwendet, die diesem Netztyp seinen Namen geben. Durch diese Funktionen wird jedem Neuron eine Art „Einzugsgebiet“ zugeordnet, in dem es hauptsächlich die Ausgabe des Netzes beeinflusst.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
7. Selbstorganisierende Karten
Zusammenfassung
Selbstorganisierende Karten sind mit den im vorangehenden Kapitel behandelten Radiale-Basisfunktionen-Netzen eng verwandt. Sie können aufgefasst werden als Radiale-Basisfunktionen-Netze ohne Ausgabeschicht. Oder anders ausgedrückt: die versteckte Schicht eines Radiale-Basisfunktionen-Netzes ist bereits die Ausgabeschicht einer selbstorganisierenden Karte. Diese Ausgabeschicht besitzt außerdem eine innere Struktur, da die Neuronen in einem Gitter angeordnet werden. Die dadurch entstehenden Nachbarschaftsbeziehungen werden beim Training ausgenutzt, um eine sogenannte topologieerhaltende Abbildung zu bestimmen.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
8. Hopfield-Netze
Zusammenfassung
In den vorangegangenen Kapiteln 5 bis 7 haben wir sogenannte vorwärtsbetriebene Netze betrachtet, d.h. solche, bei denen der dem Netz zugrundeliegende Graph azyklisch (kreisfrei) ist. In diesem und dem folgenden Kapitel wenden wir uns dagegen sogenannten rückgekoppelten Netzen zu, bei denen der zugrundeliegende Graph Kreise (Zyklen) hat. Wir beginnen mit einer der einfachsten Formen, den sogenannten Hopfield-Netzen [Hopfield 1982, Hopfield 1984], die ursprünglich als physikalische Modelle zur Beschreibung des Magnetismus, speziell in sogenannten Spingläsern, eingeführt wurden. In der Tat sind Hopfield-Netze eng mit dem Ising-Modell des Magnetismus [Ising 1925] verwandt (siehe unten).
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
9. Rückgekoppelte Netze
Zusammenfassung
Die im vorangehenden Kapitel behandelten Hopfield-Netze, die spezielle rückgekoppelte Netze sind, sind in ihrer Struktur stark eingeschränkt. So gibt es etwa keine versteckten Neuronen und die Gewichte der Verbindungen müssen symmetrisch sein. In diesem Kapitel betrachten wir dagegen rückgekoppelte Netze ohne Einschränkungen. Solche allgemeinen rückgekoppelten neuronalen Netze eignen sich sehr gut, um Differentialgleichungen darzustellen und (näherungsweise) numerisch zu lösen. Außerdem kann man, wenn zwar die Form der Differentialgleichung bekannt ist, die ein gegebenes System beschreibt, nicht aber dieWerte der in ihr auftretenden Parameter, durch das Training eines geeigneten rückgekoppelten neuronalen Netzes mit Beispieldaten die Systemparameter bestimmen.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher

Evolutionäre Algorithmen

Frontmatter
10. Einleitung
Zusammenfassung
Evolutionäre Algorithmen sind eine Klasse von Optimierungsverfahren, die Prinzipien der biologischen Evolution nachahmen. Sie gehören zu der Familie der Metaheuristiken, der auch Teilchenschwarm- [Kennedy und Eberhart 1995] und Ameisenkolonieoptimierung [Dorigo und Stützle 2004] angehören (die auch durch biologische Strukturen und Prozesse inspiriert sind) sowie klassische Methoden wie z.B. das simulierte Ausglühen [Metropolis et al. 1953, Kirkpatrick et al. 1983] (das einen thermodynamischen Prozess nachahmt). Das Grundprinzip evolutionärer Algorithmen besteht darin, Evolutionsprinzipien wie z.B. Mutation und Selektion auf Populationen von Lösungskandidaten anzuwenden, um eine (hinreichend gute) Näherungslösung für ein gegebenes Optimierungsproblem zu finden.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
11. Bausteine evolutionärer Algorithmen
Zusammenfassung
Evolutionäre Algorithmen sind keine festgelegten Verfahren, sondern bestehen aus mehreren Bausteinen, die auf das konkrete, zu lösende Optimierungsproblem angepasst werden müssen. Besonders die Kodierung der Lösungskandidaten sollte mit Sorgfalt gewählt werden. Obwohl es keine allgemeingültigen Regeln gibt, geben wir in Abschnitt 11.1 einige wichtige Eigenschaften an, die eine gute Kodierung aufweisen sollte. In Abschnitt 11.2 betrachten wir die Fitness-Funktion, gehen auf dieüblichsten Selektionsmethoden ein, und untersuchen, wie sich bestimmte unerwünschte Effekte durch Anpassung der Fitness-Funktion oder der Selektionsmethode vermeiden lassen. Abschnitt 11.3 wendet sich den genetischen Operatoren zu, die dem Zweck dienen, den Suchraum zu durchforsten. Wir betrachten nichtsexuelle Variation und sexuelle Rekombination sowie verwandte Techniken.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
12. Grundlegende evolutionäre Algorithmen
Zusammenfassung
Das vorangehende Kapitel ging auf alle wesentlichen Elemente von evolutionären Algorithmen ein, nämlich wie eine Kodierung für die Lösungskandidaten gewählt werden sollte, damit sie günstige Eigenschaften hat, mit welchen Verfahren Individuen nach ihrer Fitness ausgewählt, und mit welchen genetischen Operatoren Lösungskandidaten verändert und rekombiniert werden können. Mit diesen Bausteinen ausgestattet, können wir in diesem Kapitel dazuübergehen, Grundformen von evolutionären Algorithmen zu untersuchen, die klassische genetische Algorithmen (in denen Lösungskandidaten durch einfache Bitfolgen kodiert werden, siehe Abschnitt 12.1), Evolutionsstrategien (die sich auf die numerische Optimierung konzentrieren, siehe Abschnitt 12.2) und die genetische Programmierung umfassen (die versucht, Funktionsausdrücke oder sogar einfache Programmstrukturen mit Hilfe von Evolutionsprinzipien abzuleiten, siehe Abschnitt 12.3). Abschließend werfen wir einen kurzen Blick auf andere populationsbasierte Ansätze (wie die Ameisenkolonie- und Teilchenschwarmoptimierung, siehe Abschnitt 12.4).
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
13. Spezielle Anwendungen und Techniken
Zusammenfassung
Mit diesem Kapitel runden wir unsere Betrachtung evolutionärer Algorithmen ab, indem wir einen Überblick über eine Anwendung und zwei spezielle Techniken für diese Art von Metaheuristiken geben. In Abschnitt 13.1 betrachten wir eine Verhaltenssimulation für das Gefangenendilemma mit Hilfe eines evolutionären Algorithmus. In Abschnitt 13.2 befassen wir uns mit evolutionären Algorithmen für die Mehrkriterienoptimierung, speziell bei einander entgegengesetzten Kriterien. Diese liefern nicht eine einzelne Lösung, sondern versuchen die sogenannte Pareto-Grenze mit mehreren Lösungskandidaten abzubilden. Abschließend betrachten wir parallelisierte Varianten evolutionärer Algorithmen in Abschnitt 13.3.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher

Fuzzy-Systeme

Frontmatter
14. Fuzzy-Mengen und Fuzzy-Logik
Zusammenfassung
Viele Aussagen über die Welt sind nicht entweder wahr oder falsch, so daß die klassische Logik für das Schließen mit solchen Aussagen nicht angemessen ist. Weiter haben viele Konzepte, die in der menschlichen Kommunikation verwendet werden, keine scharfen Grenzen, so daß die klassische Mengenlehre zur Darstellung solcher Konzepte nicht angemessen ist. Das wesentliche Ziel der Fuzzy-Logik und Fuzzy- Mengenlehre ist es, die Nachteile der klassischen Logik und klassischen Mengelehre zu überwinden.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
15. Das Extensionsprinzip
Zusammenfassung
Im vorhergehenden Abschnitt haben wir die Erweiterung der mengentheoretischen Operationen Durchschnitt, Vereinigung und Komplement auf Fuzzy-Mengen kennengelernt. Wir wenden uns jetzt der Frage zu, wie man gewöhnliche Abbildungen für Fuzzy-Mengen verallgemeinern kann. Die Antwort ermöglicht es, Operationen wie das Quadrieren, die Addition, Subtraktion, Multiplikation und Division, aber auch mengentheoretische Begriffe wie die Hintereinanderschaltung von Relationen für Fuzzy-Mengen zu definieren.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
16. Fuzzy-Relationen
Zusammenfassung
Relationen eignen sich zur Beschreibung von Zusammenhängen zwischen verschiedenen Variablen, Größen oder Attributen. Formal ist eine (zweistellige) Relationüber den Grundmengen X und Y eine Teilmenge R des kartesischen Produkts X × Y von X und Y. Die Paare (x,y) ϵ X × Y, die zur Relation R gehören, verbindet ein Zusammenhang, der durch die Relation R beschrieben wird. Man schreibt daher häufig statt (x,y) ϵ R auch xRy.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
17. Ähnlichkeitsrelationen
Zusammenfassung
In diesem Abschnitt werden wir einen speziellen Typ von Fuzzy-Relationen, die Ähnlichkeitsrelationen, näher untersuchen, die eine wichtige Rolle bei der Interpretation von Fuzzy-Reglern spielen und ganz allgemein dazu verwendet werden können, die einem Fuzzy-System inhärente Ununterscheidbarkeit zu charakterisieren.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
18. Possibilitätstheorie und verallgemeinerte Maße
Zusammenfassung
Die Interpretation von Fuzzy-Mengen Sinne von Ähnlichkeitsrelationen ist bei weitem nicht die einzige mögliche Sichtweise, wie die Possibilitätstheorie zeigt. Es würde zu weit führen, detailliert zu erläutern, wie Fuzzy-Mengen als Possibilitätsverteilungen aufgefasst werden können. Das folgende Beispiel vermittelt eine Idee, wie Possibilitätsverteilungen interpretiert werden können.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
19. Fuzzy-Regelsysteme
Zusammenfassung
Der größte Erfolg von Fuzzy-Systemen im Bereich der industriellen und kommerziellen Anwendungen wurde zweifellos mit Fuzzy-Reglern erzielt. Die Fuzzy-Regelung bietet eine Möglichkeit, einen nicht-linearen tabellenbasierten Regler zu definieren, indem man seine nicht-lineare Übertragungsfunktion angibt, ohne jeden einzelnen Tabelleneintrag spezifizieren zu müssen. Die Fuzzy-Regelungstechnik ergab sich jedoch nicht aus klassischen regelungstechnischen Ansätzen. Tatsächlich liegen ihre Wurzeln im Bereich der regelbasierten Systeme. Fuzzy-Regler bestehen einfach aus einer Menge impräziser Regeln die zu einer wissensbasierten Interpolation eine impräzise definierte Funktion benutzt werden können [Moewes und Kruse 2012].
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
20. Fuzzy-Relationalgleichungen
Zusammenfassung
Wir betrachten Fuzzy-Regeln noch einmal aus der Sicht der Fuzzy-Relationen, die im Kapitel 16 eingeführt wurden.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
21. Hybride Systeme zur Optimierung von Fuzzy-Reglern
Zusammenfassung
Ein vielversprechendes Anwendungskonzept von Fuzzy-Reglern besteht in ihrer Kombination mit anderen Techniken aus dem Bereich der Computational Intelligence, um die Vorteile von Fuzzy-Reglern — die Interpretierbarkeit — mit denen von neuronalen Netzen — Lernfähigkeit — oder evolutionären Algorithmen — Möglichkeit zur Adaption — zu vereinen. Es gibt eine Vielzahl solcher Kombinationsansätze, die als hybride Fuzzy-Systeme bezeichnet werden. Ihr Ziel besteht in der Feinabstimmung oder Verbesserung von Fuzzy-Reglern und Regeln durch die Optimierung geeigneter Zielfunktionen.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
22. Fuzzy Clustering
Zusammenfassung
Nach einem kurzen Überblick über Fuzzy-Methoden in der Datenanalyse konzentriert sich dieses Kapitel auf die Fuzzy-Clusteranalyse—dem ältesten Fuzzy-Ansatz zur Datenanalyse. Dabei bezeichnet „Fuzzy-Clustering“ i.w. eine Familie von prototypbasierten Clusteranalyse-Methoden, die alle als die Aufgabe formuliert werden können, eine bestimmte Zielfunktion zu minimieren. Diese Methoden können aufgefaßt werden als „Fuzzifizierungen“ z.B. des klassischen c-Means-Algorithmus, der versucht, die Summe der (quadrierten) Abstände zwischen den Datenpunkten und den ihnen jeweils zugeordneten Clusterzentren zu minimieren. Um einen solchen „scharfen“ (engl. crisp) Ansatz zu „fuzzifizieren“ ist es jedoch nicht ausreichend, für die Variablen, die die Zuordnung der Datenpunkte zu den Clustern beschreiben, einfach Werte aus dem Einheitsintervall zuzulassen: das Minimum der Zielfunktion wird dann immer noch für eine eindeutige Zuordnung der Datenpunkte zu den Clustern angenommen (Partitionierung der Daten).
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher

Bayes-Netze

Frontmatter
23. Bayes-Netze
Zusammenfassung
Relationale Datenbanksysteme zählen zu den am weitesten verbreiteten Strukturierungsarten in heutigen Unternehmen. Eine Datenbank besteht typischerweise aus mehreren Tabellen, die jeweils für das Unternehmen grundsätzliche Objekte wie bspw. Kundendaten, Bestellungen oder Produktinformationen beschreiben. Jede Zeile beschreibt ein Objekt, wobei die Spalten jeweils Werte eines Attributes enthalten. Relationen zwischen diesen Objekten werden ebenfalls über Tabellen abgebildet. Ein wesentlicher Teil der Datenbanktheorie befasst sich mit der möglichst redundanzfreien und effizienten Repräsentation der Daten, wobei das Augenmerk hauptsächlich auf dem Abrufen und Ablegen von Daten liegt.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
24. Grundlagen der Wahrscheinlichkeits- und Graphentheorie
Zusammenfassung
Dieses Kapitel führt die für die Definition von Bayes- und Markov-Netzen notwendigen theoretischen Konzepte ein. Nachdem wichtige Grundlagen der Wahrscheinlichkeitstheorie — besonders die (bedingte) stochastische Unabhängigkeit — diskutiert sind, gehen wir auf relevante graphentheoretische Begriffe ein, mit besonderer Betonung sogenannter Trennkriterien. Diese Kriterien erlauben es uns später, stochastische Unabhängigkeiten durch gerichtete oder ungerichtete Graphen auszudrücken.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
25. Zerlegungen
Zusammenfassung
Ziel dieses Kapitels ist die Zusammenführung des Konzeptes der bedingten Unabhängigkeit und der Separation in Graphen. Beide wurden als dreistellige Relationen (· ╨ · | ·) auf entweder Attributen oder Knoten dargestellt und es scheint vielversprechend, die wahrscheinlichkeitstheoretischen Gegebenheiten einer Verteilung mit Hilfe eines Graphen zu beschreiben, um dann lediglich anhand graphentheoretischer Eigenschaften (Separationen) auf (bedingte) Unabhängigkeiten zu schließen. Denn letztere sind es, welche eine Zerlegung und Evidenzpropagation erst ermöglichen.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
26. Evidenzpropagation
Zusammenfassung
Nachdem wir die effiziente Repräsentation von Experten- und Domänenwissen kennengelernt haben, wollen wir nun diese nutzen, um Schlussfolgerungen zu ziehen, wenn neue Erkenntnisse (Evidenz) zur Verfügung stehen. Ziel wird es sein, die bekannt gewordene Evidenz durch das zugrunde liegende Netz zu leiten (zu propagieren), um somit sämtliche relevanten Attribute zu erreichen. Es lässt sich schon absehen, dass hierfür die Graphenstruktur eine wichtige Rolle spielen wird.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
27. Lernen Graphischer Modelle
Zusammenfassung
Wir wollen nun die dritte Frage aus Kapitel 23 beantworten, nämlich, wie graphische Modelle aus Daten generiert werden können. Bisher war die Graphenstruktur vorgegeben, nun wollen wir diese mit verschiedenen Heuristiken aus Daten ableiten.
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
28. Anhänge
Zusammenfassung
Die folgenden Anhänge behandeln Themen, die im Text vorausgesetzt wurden (Abschnitt 28.1über Geradengleichungen und Abschnitt 28.2über Regression), oder Nebenbetrachtungen, die den Fluss der Abhandlung eher gestört hätten (Abschnitt 28.3über die Aktivierungsumrechnung in einem Hopfield-Netz).
Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klawonn, Christian Moewes, Matthias Steinbrecher
Backmatter
Metadaten
Titel
Computational Intelligence
verfasst von
Rudolf Kruse
Christian Borgelt
Christian Braune
Frank Klawonn
Christian Moewes
Matthias Steinbrecher
Copyright-Jahr
2015
Electronic ISBN
978-3-658-10904-2
Print ISBN
978-3-658-10903-5
DOI
https://doi.org/10.1007/978-3-658-10904-2