Zum Inhalt

Patch Pruning Strategy Based on Robust Statistical Measures of Attention Weight Diversity in Vision Transformers

  • 2026
  • OriginalPaper
  • Buchkapitel
Erschienen in:

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Dieses Kapitel stellt eine neuartige Strategie zum Beschneiden von Patches für Vision Transformers (ViTs) vor, die sich auf die Vielfalt der Aufmerksamkeitsgewichte in verschiedenen Köpfen konzentriert. Die Methode zielt darauf ab, die Rechenkomplexität von ViTs zu reduzieren, die proportional zum Quadrat der Anzahl der Patches ist, indem redundante Patches beschnitten werden, die nicht wesentlich zur endgültigen Vorhersage beitragen. Die vorgeschlagene Strategie behält Flecken mit hoher Variabilität der Aufmerksamkeitswerte über verschiedene Köpfe hinweg bei, was auf vielfältigere Aufmerksamkeitsdarstellungen hindeutet, während diejenigen mit geringer Variabilität zurückgeschnitten werden. Die Methode wird auf vorausgebildete ViT-Modelle angewendet, ohne deren Architektur zu ändern, wodurch Verbesserungen bei den Rechenkosten und dem Durchsatz sowohl während des Trainings als auch bei der Schlussfolgerung erreicht werden. Bei Aufgaben zur Bildklassifizierung reduziert die Methode effektiv die Anzahl der Patches bei minimaler Leistungsminderung, was sie zu einem praktischen Ansatz für die Leichtgewichtung von Modellen macht. Das Kapitel untersucht auch die Verwendung sich überschneidender Flächen, um eine höhere Klassifizierungsgenauigkeit bei FLOPs zu erreichen, die mit denen ohne Schnitt vergleichbar oder niedriger sind. Die Ergebnisse zeigen, dass die vorgeschlagene Methode hinsichtlich Genauigkeit und Effizienz die bestehenden Schnittmethoden übertrifft.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Titel
Patch Pruning Strategy Based on Robust Statistical Measures of Attention Weight Diversity in Vision Transformers
Verfasst von
Yuki Igaue
Hiroaki Aizawa
Copyright-Jahr
2026
Verlag
Springer Nature Singapore
DOI
https://doi.org/10.1007/978-981-95-4398-4_9
Dieser Inhalt ist nur sichtbar, wenn du eingeloggt bist und die entsprechende Berechtigung hast.
    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, NTT Data/© NTT Data, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, WSW Software GmbH/© WSW Software GmbH, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG