Skip to main content

1998 | Buch

Data Mining

Theoretische Aspekte und Anwendungen

herausgegeben von: Prof. Dr. Gholamreza Nakhaeizadeh

Verlag: Physica-Verlag HD

Buchreihe : Beiträge zur Wirtschaftsinformatik

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter
Wissensentdeckung in Datenbanken und Data Mining: Ein überblick
Zusammenfassung
Dieser Artikel gibt einen überblick über das Gebiet der Wissensentdeckung in Datenbanken und Data Mining. Ferner gibt der Artikel eine übersicht zu existierenden Techniken, Werkzeugen und Anwendungen in wissenschaftlicher Forschung und industrieller Praxis. Die verschiedenen Phasen des Prozesses der Wissensentdeckung werden vorgestellt und analysiert. Es gibt eine Reihe von Data Mining Zielen, die sich durch Anwendung des extrahierten Wissens bearbeiteten lassen. Wir beschreiben diese Ziele und stellen die entsprechenden Verfahren vor, die zur Erreichung dieser Ziele geeignet sind. Solche Verfahren basieren auf statistischen Methoden, neuronalen Netzen, Case-Based Reasoning und symbolischen Lernverfahren. Einige wichtige Phasen des Prozesses, wie die Vorbereitung der Daten, die eigentliche Entdeckung neuen Wissens und Bewertung der Ergebnisse werden wir ausfuhrlicher diskutieren. Inzwischen hat die Wissensentdeckung in Datenbanken in verschiedenen Gebieten zahlreiche Anwendungen gefunden. Außerdem sind die Anzahl der existierenden Systeme für die Wissensentdeckung explosionsartig in die Höhe gestiegen. Aus diesem Grund ist eine Beschreibung diverser Anwendungen und die Vorstellung aller existierender Systeme nicht möglich. Wir stellen jedoch einige Anwendungen vor und beschreiben einige ausgewählte Systeme. Ein überblick über die aktuellen Forschungsthemen schließt den Artikel ab.
Gholamreza Nakhaeizadeh, Thomas Reinartz, Rüdiger Wirth
Die Rolle der Informationsverwaltung im KDD-Prozeß
Zusammenfassung
Im Zuge des relativ jungen Einsatzes von Informationssystemen zur Unterstützung des strategischen Geschäfts hat sich das Gebiet der Informationsverwaltung erheblich weiterentwickelt. Dieses Kapitel gibt einen groben Überblick über die Entwicklungsschritte und illustriert Funktionalität, Einsatzmöglichkeiten und weitere Forschungsarbeiten der Ansätze sowie ihre Einordnung in den KDD-Prozeß.
Ansätze aus dem Bereich des Data Warehousing kapseln einen Teil der aufwendigen Anwendungsanalyse-, Datenselektions- und Vorverarbeitungsphase zu einem eigenen System. Wesentliche Aufgaben sind die Transformation, Integration, Säuberung, das Laden und Aktualisieren der Daten sowie die Erzeugung von Metadaten. Ergänzt werden Ansätze des Data Warehousing meist um OLAP-Funktionalität, die problemadäquate Auswertungsmöglichkeiten darstellen.
Liegt bei OLAP die Initiative noch gänzlich beim Benutzer, so entdecken Data Mining-Verfahren Muster selbständig. Die Rolle der Informationsverwaltung erstreckt sich dabei hauptsächlich auf die Art und Weise, wie Data Mining Anfragen formuliert und möglichst effizient beantwortet werden.
Bei dem Übergang von der Unterstützung einzelner Phasen zur Unterstützung des gesamten KDD-Prozesses, genauer: der hoch-iterativen Phasen, ergeben sich eine Reihe von neuen Aufgaben und Möglichkeiten, welche anhand eines aktuellen Forschungsprojektes der Autoren verdeutlicht werden. Dies sind die Vereinfachung der oftmals sehr komplexen Ableitungsketten sowie die automatische Verwaltung der im Zuge der Prozeßausführung entstehenden vielfältigen Ergebnissen sowie die effiziente Ausführung der Ableitungsprozesse mit Hilfe optimierender Abbildungen, intelligenter Materialisierung und Verlagerung der Bearbeitung von Anfragen.
C. A. Breitner, P. C. Lockemann, J. A. Schlösser
Benutzerunterstützung für Wissensentdeckung in Datenbanken
Zusammenfassung
Der Bereich der Wissensentdeckung aus großen Datenbeständen (‚Knowledge Discovery in Databases‘, KDD) spielt eine immer größer werdende Rolle in der Wirtschaft. Ein wichtiges Akzeptanzkriterium bei der Einführung von Wissensentdeckungssverfahren in der Industrie bildet die Benutzerunterstützung. Insbesondere für ungeschulte Anwender, die mit einer Vielzahl von möglicherweise überaus komplexen Problemen konfrontiert sind, die mit Hilfe von Wissensentdeckungsverfahren gelöst werden könnten, stellt sich die Frage, wie diese Anwender unterstützt werden können. Frühere Erfahrungen aus den Bereichen Wissensakquisition und Knowledge Engineering weisen darauf hin, daß die Bereitstellung einer methodischen Vorgehensweise und das Wiederverwenden von bereits erfolgreich angewendeten (Teil-) Lösungen eine gute Basis bilden, um eine Benutzerunterstützung zu entwickeln. In unserem Ansatz spielt das Zerlegen von Aufgaben und die Anwendung von Problemlösungsmethoden (‚Problem Solving Methods‘, PSMs) zusammen mit einer halbautomatischen Konfigurierung einer Anfangslösung für ein KDD-Problem eine zentrale Rolle. Diese Anfangslösung kann dem Anwender vorgeschlagen werden, der sie als Basis für weitere Tests und Verfeinerungen benutzen kann.
Dieses Kapitel behandelt den Aspekt der Benutzerunterstützung bei der Lösung von KDD-Problemen basierend auf methodischen Arbeiten in den Bereichen KDD und Knowledge Engineering.
Robert Engels, Guido Lindner, Rudi Studer
Attributauswahlmaße für die Induktion von Entscheidungsbäumen: Ein Überblick
Zusammenfassung
Die Induktion von Entscheidungsbäumen mit Hilfe eines Top-Down-Verfahrens ist eine bekannte und weit verbreitete Technik zur Bestimmung von Klassifikatoren. Der Erfolg dieser Methode hängt stark von dem Auswahlmaß ab, mit dem beim Aufbau des Entscheidungsbaums das nächste zu testende Attribut bestimmt wird. In diesem Aufsatz geben wir einen Überblick über eine Reihe von Auswahlmaßen, die in der Vergangenheit für die Induktion von Entscheidungsbäumen vorgeschlagen wurden. Wir erläutern die den Maßen zugrundeliegenden Ideen und vergleichen die betrachteten Maße anhand experimenteller Ergebnisse.
Christian Borgelt, Rudolf Kruse
Skalierung als alternative Datentransformation und deren Auswirkungen auf die Leistungsfähigkeit von Supervised Learning Algorithmen
Empirische Studie auf Basis realer Kreditdaten aus dem Mobilfunkgeschäft
Zusammenfassung
Die Einordnung von Kreditkunden in unterschiedliche Bonitätsklassen sowie die Erstellung von Regelwerken, die eine automatische Entscheidung über die Annahme oder Ablehnung beantragter Kredite erlauben, gehören zu den Aufgaben, die mit Verfahren des Data Mining auf Basis vergangenheitsorientierter Daten gelöst werden können.
Die Bewertung der Kreditwürdigkeit eines Kunden erfolgt in aller Regel anhand von qualitativen und quantitativen Merkmalen, die bei der Beantragung eines Kredites erfaßt und dann mit Erfahrungswerten aus der Vergangenheit verglichen werden. Dieser Prozeß läßt sich prinzipiell mit Verfahren und Algorithmen des Supervised Learning modellieren.
Eine Reihe dieser Algorithmen, darunter auch einige statistische Verfahren und Neuronale Netze, lassen jedoch nur die Verarbeitung quantitativer, stetiger Merkmale zu. Um auch qualitative Merkmale in der Modellierung berücksichtigen zu können, müssen diese zuerst in quantitative Merkmale transformiert werden.
In diesem Beitrag wird neben der weit verbreiteten Binärkodierung die Skalierung als weitere Möglichkeit für die Transformation von qualitativen Daten in quantitative Daten betrachtet. Die transformierten Daten dienen in einem zweiten Schritt als Input für verschiedene Lernverfahren, mit denen jeweils ein Klassifikator für die Kreditwürdigkeitsprüfung erstellt wird. Abschließend werden die Auswirkungen der vorgestellten Datentransformationen auf die Leistungsfähigkeit verschiedener Lernverfahren auf Basis von realen Kreditdaten aus der Mobilfunkbranche ermittelt und gegenübergestellt.
Harald Kauderer, Gholamreza Nakhaeizadeh
Datensegmentierung mittels Clusteranalyse
Zusammenfassung
Auch im Rahmen von Data Mining-Prozessen spielt die Segmentierung umfangreicher Datensätze eine große Rolle. Ziel des gesamten Data-Mining Prozesses ist es, das in den Datensätzen verborgene „nützliche“ Wissen zu extrahieren. Die Segmentierung leistet dabei einen wesentlichen Beitrag, indem sie Daten in kleinere, homogene und praktisch zweckmäßige Teilmengen unterteilt. Aus einer Vielzahl möglicher Methoden zur Segmentierung werden hier statistische Verfahren zur Clusteranalyse vorgestellt. Sie bieten dem Anwender die Möglichkeit, die Segmentierung seiner Daten weitgehend automatisch durchfuhren zu lassen. Erfolg oder Mißerfolg dieser Segmentierung wird in hohem Maße durch die Wahl geeigneter Clusterverfahren beeinflußt. Da alle Clusterverfahren auf der Berechnung bestimmter Distanzmaße basieren, werden gleichfalls auch die bekanntesten Distanzmaße erläutert und ihre Eignung für spezielle Clusterverfahren diskutiert. Praxisnah wird auf die simultane Verarbeitung qualitativer und quantitativer Informationen, sogenannter gemischter Daten, eingegangen.
Udo Grimmer, Hans-Joachim Mucha
Adaptive Verfahren der Clusteranalyse und der multidimensionalen Skalierung für die Analyse und Visualisierung hochdimensionaler Datenmengen
Zusammenfassung
Es wird ein Verfahren (ACMMDS=Adaptive C-Means and Multi-Dimensional Scaling) zur explorativen Datenanalyse vorgestellt. ACMMDS ist eine Kombination des adaptiven c-means Clusteranalyseverfahrens und eines multidimensionalen Skalierungsverfahrens. Es erlaubt die Visualisierung des Clusteranalyseprozesses ‚online ‘und kann als eine mögliche Alternative zu Kohonen’s selbstorganisierender Merkmalskarte (SOM) betrachtet werden. Während SOM ein heuristischer Algorithmus ist, kann ACMMDS aus bekannten Verfahren der multivariaten Statistik hergeleitet werden. Anhand von zwei verschiedenen Datensätzen wird die Anwendung von ACMMDS gezeigt.
Friedhelm Schwenker
Kausale Interpretation von Graphen
Zusammenfassung
Während in der statistischen Literatur die Begriffe ‚kausal‘, ‚Kausalität ‘kaum Verwendung finden, sind diese Begriffe im Rahmen der Abhängigkeitsanalyse weit verbreitet. Ergebnisse der Abhängigkeitsanalyse können genutzt werden, um kausale Aussagen zu machen; diese entsprechen zum einen dem wahrscheinlichkeitstheoretischen Ansatz von P. Suppes oder dem kontrafaktischen Ansatz von D. Rubin. In der Arbeit werden diese Ansätze und ihre Beziehungen zueinander analysiert. Die Abschnitte 5 und 6 zeigen deren Beziehungen zu graphentheoretischen Ansätzen und sie geben Bedingungen an, die erfüllt sein müssen, um Graphen kausal interpretieren zu können.
P. Kischka
Datenbasierte Verhaltensanalyse mit Fuzzy Graphen
Zusammenfassung
Im Umfeld immer komplexer werdender technischer Systeme wird die Analyse des Systemverhaltens immer wichtiger. In vielen Anwendungen werden dazu Modelle generiert und ausgewertet. Aus den gewonnenen Daten können Erkenntnisse über das Verhalten extrahiert werden. Eine Möglichkeit besteht darin, ein dem Modell verhaltensähnliches Metamodell zu generieren. In diesem Beitrag wird dazu ein Ansatz vorgestellt, der aus Daten automatisch einen Fuzzy Graphen generiert, der eine kompakte Darstellung des zu approximierenden Verhaltens erlaubt und in verständlichen Wenn-Dann-Regeln dargestellt werden kann. Mit den erzeugten Regeln können Abhängigkeiten zwischen Modellparametern erkannt werden, und das Fuzzy Graph Metamodell kann zum Beispiel zur Einsparung zeit- und kostenintensiver Simulationsexperimente genutzt werden. An einem komplexen Modell eines Feldbus-Systems wird die Anwendung von Fuzzy Graph Metamodellen aufgezeigt.
Klaus-Peter Huber, Michael R. Berthold
IPF für bedingte Wahrscheinlichkeiten: Lernen in Probabilistischen Netzwerken
Zusammenfassung
Probabilistische Netzwerke (Probabilistic Independence Networks, PIN’s) stellen eine einheitliche Beschreibung der stochastischen Abhängigkeiten von Zufallsvariablen dar. Die Darstellung bezieht sich auf Graphen mit gerichteten Kanten, welche kausale Abhängigkeiten beschreiben, und auf Graphen mit ungerichtete Kanten, welche Korrelationen zwischen den Variablen beschreiben. In diesem Beitrag wird ein em—Algorithmus zum Lernen in gegeben Strukturen vorgestellt, die auch versteckte Variablen enthalten dürfen. Der Algorithmus ist eine Verallgemeinerung des em—Algorithmus’ für Boltzmann Maschinen (Byrne, 1992; Amari et al., 1992). Die e— und m—Schritte sind durch eine Verallgemeinerung des iterativen Fittings (Iterative Proportional Fitting, IPF) realisiert, welches Rand— und bedingte Verteilungen als Nebenbedingung verwendet. Weiterhin werden Hinweise zur effektiven Implementierung beruhend auf der Arbeit von (Jiroušek & Přeučil, 1995) gegeben.
Hermann von Hasseln
Wissensentdeckung in relationalen Datenbanken: Eine Herausforderung für das maschinelle Lernen
Zusammenfassung
Die bisherigen Ansätze, Wissensentdeckung in sehr großen Datenbanken möglich zu machen, konzentrieren sich auf zwei entgegengesetzte Standpunkte. Die Extreme sind hier die Wahl einfacher Hypothesensprachen oder die geschickte Wahl einer kleinen Datenmenge. Hinzu kommen oft noch weitere Datenreduktionsmethoden. Der von uns verfolgte Ansatz einer kooperativen, balancierten Arbeitsteilung zwischen zwei spezialisierten Systemen für Hypothesengenerierung und Hypothesentest zeigt, daß es sehr wohl möglich ist, nicht nur über allen Daten zu lernen und prädikatenlogische Hypothesen zu entdecken, sondern auch die gegenüber dem Begriffslernen schwierigere Regellernaufgabe zu lösen.
Peter Brockhausen, Katharina Morik
Konfidenzintervalle für den Value-at-Risk
Zusammenfassung
Für die parametrische Schätzung des Value-at-Risk (VaR) bei multinormalverteilten Renditen und linearer Portfoliostruktur werden exakte und asymptotische Konfidenzintervalle angegeben und verglichen.1
Stefan Huschens
Ist ein fairer Vergleich von Data Mining Algorithmen möglich?
Zusammenfassung
Das Ziel dieser Arbeit ist es, DEA (Data Envelopment Analysis) zum Vergleich von Data-Mining-Algorithmen (DM-Algorithmen) einzusetzen. Die theoretischen Grundlagen werden zuerst dargestellt und es wird gezeigt, wie das DEA-Konzept, als eine Multi-Kriteria-Metrik, zum Vergleich von DM-Algorithmen verwendet werden kann. Anhand eines Beispiels aus der Literatur werden die Anwendungsmöglichkeiten der DEA dargestellt und analysiert.
W. Jammernegg, M. Luptáčik, G. Nakhaeizadeh, A. Schnabl
Zur Interessantheit bei der Entdeckung von Wissen in Datenbanken
Zusammenfassung
Zu dem Prozeß der Entdeckung von Wissen in Datenbanken gehört auch, die Interessantheit von Aussagen, die Data-Mining-Methoden liefern, zu bewerten. Die meisten bisherigen Ansätze verwenden nur objektive oder einzelne subjektive Interessantheitsfacetten, oder sie sind auf spezielle Aussagentypen beschränkt. Wir präsentieren einen Ansatz zur Bewertung, Filterung und Sortierung von Data-Mining—Ergebnissen durch Messung multipler subjektiver Interessantheitsfacetten. Es wird das Wissen über Benutzer beschrieben, das zur Bewertung notwendig ist. Wir zeigen die Messung einzelner Interessantheitsfacetten und stellen eine Methode zur Sortierung von Data-Mining-Ergebnissen vor. Zur Evaluierung des Ansatzes sind erzeugte Interessantheitsbewertungen mit dem Feedback von Experten verglichen worden. Die Konzepte werden anhand eines Beispiels aus dem Anwendungsgebiet Medizin veranschaulicht.
Michael Müller, Carsten Hausdorf, Josef Schneeberger
Modellselektion für Neuronale Netzwerke
Zusammenfassung
Obwohl Neuronale Netzwerke meist ad hoc entworfen und eingesetzt wurden, ist eine sorgfältige Modellselektion gerade bei meist hochparameterisierten nichtlinearen Modellen wie Neuronalen Netzwerke von großer Bedeutung. Irrelevante Eingangsvariablen, Neuronen und Gewichte können die Modellvarianz erhöhen und die Vorhersageleistung stark beeinträchtigen. Die hier beschriebene Methode zur Modellselektion hat zum Ziel, den out-of-sample Fehler zu minimieren und beruht deshalb auf einer möglichst genauen aber effizienten Schätzung dieses Fehlers. Im Gegensatz zu linearen Modellen sind analytische Verfahren unter Umständen schwierig zu berechnen. Resampling Verfahren wie Cross—Validation oder Bootstrap dagegen erfordern normalerweise erheblichen Rechenaufwand. Wir beschreiben ein Verfahren, das im Kern auf einer effizienten Form von Cross-Validation für nichtlineare Modelle beruht und Variablenselektion mittels einer Sensitivitätsanalyse und Gewichtspruning einschließt. Wir beschreiben zwei Anwendungsbeispiele: die Vorhersage der Standard & Poor’s Kreditwürdigkeitsbewertung von Unternehmen und die Variablenselektion für ein Neuronales Netzwerk zur Vorhersage des US Index of Industrial Production.
Joachim Utans
Die statistische Verteilung der Gewichte von neuronalen Netzen bei finiten Datenmengen
Zusammenfassung
Statistische Hypothesentests gehören zu den leistungsfähigsten Verfahren für die Modellselektion von neuronalen Netzen. Ihre Herleitung beruht jedoch auf einer asymptotischen Beweisführung, so daß die Zulässigkeit von asymptotischen Tests bei finiten Datenmengen hinterfragt werden muß. Anhand eines Beispiels zeigt dieser Beitrag, daß die Annahmen der asymptotischen Theorie bereits bei Vorliegen von nur 200 Beobachtungen Gültigkeit besitzen. Damit existiert ein Hinweis darauf, daß die Anwendung von Hypothesentests auch bei kleinen Datenmengen zu zuverlässigen Ergebnissen führen wird.
U. Anders
Entwicklung eines Bonitätsindexes auf der Basis von Wirtschaftsauskünften der Vereine Creditreform mit Künstlichen Neuronalen Netzen
Zusammenfassung
In Wirtschaftsauskünften sind eine Vielzahl von numerischen und nicht-numerischen Informationen eines Unternehmens enthalten, wie Firmenalter, Branchenzugehörigkeit, Gesellschafterstruktur oder Zahlungsverhalten. Welche der verschiedenen Informationen für die Bonitätsbeurteilung eines Unternehmens relevant sind, galt es im Rahmen eines Forschungsvorhabens des Instituts für Revisionswesen in Kooperation mit einer Kreditversicherung und einer Auskunftei zu untersuchen. Neben der Validierung des bisher eingesetzten Bonitätsindexes ist ein neuer Indikator entwickelt worden. Die Untersuchung beschränkte sich nicht nur auf die Analyse der bisher von der Auskunftei als bonitätsrelevant eingestuften Merkmale, sondern schöpfte möglichst weitgehend das Informationspotential einer Wirtschaftsauskunft aus. Für die Analyse waren die Auskunftsinformationen in codierter und nicht codierter Form abgelegt. In der ersten Stufe des Forschungsvorhabens waren nur die Merkmale des bisher eingesetzten Indikators untersucht worden. In der zweiten Stufe ist die Menge der zu analysierenden Merkmale um Merkmale, die regelgestützt aus den Auskunftsdaten ableitbar waren, erweitert worden. Manuell zu erfassende Merkmale wurden in der dritten Stufe untersucht. Zur Analyse der Auskunftsinformationen sind Backpropagation-Netze mit verschiedenen Pruning-Strategien eingesetzt worden. Das Ergebnis ist ein Backpropagation-Netz, das die Bonität eines Unternehmens mit einer höheren Zuverlässigkeit über einen Mehrjahreszeitraum beurteilt, als der bisher eingesetzte Creditreform-Bonitätsindex.
Jörg Baetge, Carsten Uthoff
Multi Task Learning zur Prognose von Aktienkursen unter Berücksichtigung der Integration von Finanzmarktdaten
Zusammenfassung
Untersuchungen zeigen, daß eine Vielzahl von Interdependenzen zwischen internationalen Finanzmärkten, verschiedenen Teilmärkten und einzelnen Finanzwerten beobachtbar sind. Prognosemodelle, welche eine einzelne isolierte Betrachtung vornehmen, ignorieren daher eine wichtige Informationsquelle: Wissen aus dem Zusammenspiel der verschiedenen Märkte und Finanzwerte.
In diesem Beitrag stellen wir die Methode des Multi Task Learnings (MTL) für Neuronale Netze vor. MTL berücksichtigt diese Wechselbeziehungen und geht über die einfache simultane Prognose der betrachteten Werte hinaus. Der MTL-Ansatz wird anhand eines Prognosewettbewerbs des deutschen Aktienmarkts mit einfachen Partialmodellen verglichen. Die Ergebnisse deuten dabei auf eine Überlegenheit der neuronalen MTL-Methode hin.
Kai Bartlmae, Thomas Schneckenburger
Neuronale Kointegration
— Ein Anwendungsbeispiel zur Wechselkursprognose
Zusammenfassung
Neuere Studien und Forschungsarbeiten auf dem Gebiet der Wechselkursprognosen, welche das Konzept der Kointegration als Modellierungstechnik verwenden, haben gezeigt, daß langfristig gültige Beziehungen am Devisenmarkt vorhanden sind und entdeckt werden können. Auch Neuronale Netzwerke als spezialisierte, multivariate, nichtlineare Methode etablieren sich immer häufiger im Zusammenhang mit Währungsprognosen. In Verbindung mit dem Konzept der Kointegration sind Neuronale Netzwerke bisher nur auf der zweiten Stufe des Engle/Granger-Verfahrens zur Schätzung der Fehlerkorrekturmodelle eingesetzt worden.
Dieser Beitrag versucht daher, die rein lineare Kombination der kointegrierten Zeitreihen bereits in der ersten Stufe des Engle/Granger-Verfahrens durch die Anwendung Neuronaler Netzwerke zur Modellierung der Gleichgewichtsbeziehungen zu verbessern. Das Abschneiden der linearen und nichtlinearen Kombination der nichtstationären Zeitreihen zur Berechnung des langfristigen DEM/USD-Gleichgewichtskurses wird anhand einer Performance-Evaluierung verglichen.
Folke Axel Rauscher
Risikomessung mit Shortfall—Maßen
Zusammenfassung
Das gängige Maß zur Risikobeurteilung einer Kapitalanlage im Investment—Banking ist nach wie vor die Standardabweichung. Bei asymmetrischen Renditeverteilungen führt die Standardabweichung zu einer Fehleinschätzung des Risikos. Der Shortfall—Ansatz ist ein Risikokonzept, bei dem das Risiko relativ zu einer vom Investor gewünschten Mindestrendite gemessen wird. In diesem Beitrag wird nach einem Einblick in die Portfoliotheorie und den Markowitz-Ansatz der Shortfall— Ansatz dargestellt. Schließlich werden mit Hilfe des Programmpaketes MAMBA, das auf der Basis des Shortfall—Ansatzes entwickelt wurde, einige Analysen durchgeführt, welche die Anwendung der Shortfall—Risikomaße verdeutlichen sollen.
Andrea Szczesny
Backmatter
Metadaten
Titel
Data Mining
herausgegeben von
Prof. Dr. Gholamreza Nakhaeizadeh
Copyright-Jahr
1998
Verlag
Physica-Verlag HD
Electronic ISBN
978-3-642-86094-2
Print ISBN
978-3-7908-1053-0
DOI
https://doi.org/10.1007/978-3-642-86094-2