Skip to main content
Erschienen in: Neural Processing Letters 6/2023

31.03.2023

A Feature Selection Method Using Conditional Correlation Dispersion and Redundancy Analysis

verfasst von: Li Zhang

Erschienen in: Neural Processing Letters | Ausgabe 6/2023

Einloggen

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Many irrelevant and redundant features are commonly found in high-dimensional small sample data. Feature selection effectively solves high-dimensional minor sample problems by removing many irrelevant and redundant features and improving the algorithm's accuracy. In some information-theoretic-based feature selection algorithms, the problem is that choosing different parameters means choosing different feature selection algorithms. How to dynamically circumvent the pre-determined a priori parameters become an urgent problem to be solved. The paper proposes a dynamic weighted conditional relevance dispersion and redundancy analysis (WRRFS) algorithm for feature selection. Firstly, the algorithm uses mutual information to calculate feature correlations and redundancy between features. Secondly, calculate the mean of the feature correlation terms, and the parameter weights of the conditional feature correlation terms are dynamically adjusted using the standard deviation. Finally, WRRFS is validated against other feature selection algorithms on three classifiers using 12 different datasets with classification accuracy metrics (f1_macro,f1_micro, and f1_weighted). The experimental results show that the WRRFS algorithm can improve the quality of feature subsets and increase classification accuracy.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
13.
Zurück zum Zitat Gavin B, Adam P, Ming-Jie Z et al (2012) Conditional likelihood maximisation: a unifying framework for information theoretic feature selection. J Mach Learn Res 13:27–66MathSciNetMATH Gavin B, Adam P, Ming-Jie Z et al (2012) Conditional likelihood maximisation: a unifying framework for information theoretic feature selection. J Mach Learn Res 13:27–66MathSciNetMATH
24.
Zurück zum Zitat Yang HH, Moody J (1999) Data visualization and feature selection: new algorithms for nonGaussian data. In: Proceedings of the 12th international conference on neural information processing systems. MIT Press, Denver, CO, pp 687–693 Yang HH, Moody J (1999) Data visualization and feature selection: new algorithms for nonGaussian data. In: Proceedings of the 12th international conference on neural information processing systems. MIT Press, Denver, CO, pp 687–693
26.
Zurück zum Zitat François F (2004) Fast binary feature selection with conditional mutual information. J Mach Learn Res 5:1531–1555MathSciNetMATH François F (2004) Fast binary feature selection with conditional mutual information. J Mach Learn Res 5:1531–1555MathSciNetMATH
37.
Zurück zum Zitat Juanying X, Mingzhao W, Ying Z et al (2014) Several feature selection algorithms based on the discernibility of a feature subset and support vector machines. Chin J Comput 37(08):1704–1718 Juanying X, Mingzhao W, Ying Z et al (2014) Several feature selection algorithms based on the discernibility of a feature subset and support vector machines. Chin J Comput 37(08):1704–1718
40.
Zurück zum Zitat Lin D, Tang X (2006) Conditional infomax learning: an integrated framework for feature extraction and fusion. In: Proceedings of the 9th European conference on computer vision—volume part I. Springer, Graz, pp 68–82. https://doi.org/10.1007/11744023_6 Lin D, Tang X (2006) Conditional infomax learning: an integrated framework for feature extraction and fusion. In: Proceedings of the 9th European conference on computer vision—volume part I. Springer, Graz, pp 68–82. https://​doi.​org/​10.​1007/​11744023_​6
Metadaten
Titel
A Feature Selection Method Using Conditional Correlation Dispersion and Redundancy Analysis
verfasst von
Li Zhang
Publikationsdatum
31.03.2023
Verlag
Springer US
Erschienen in
Neural Processing Letters / Ausgabe 6/2023
Print ISSN: 1370-4621
Elektronische ISSN: 1573-773X
DOI
https://doi.org/10.1007/s11063-023-11256-7

Weitere Artikel der Ausgabe 6/2023

Neural Processing Letters 6/2023 Zur Ausgabe