Zum Inhalt

Reducing communication overhead through one-shot model pruning in federated learning

  • 05.05.2025
Erschienen in:

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Der Artikel befasst sich mit dem kritischen Problem des Kommunikationsaufwands beim föderierten Lernen, einem dezentralen Ansatz für maschinelles Lernen, der den Datenschutz schützt. Er hebt die Herausforderungen hervor, die von der Verteilung nicht-IID-basierter Daten ausgehen, und die Notwendigkeit effizienter Kommunikationsstrategien zur Steigerung der operativen Effizienz. Die Autoren stellen FedSNIP vor, eine Erweiterung ihrer bisherigen Arbeit, bei der ein einmaliger Modellschnitt auf Basis der Verbindungsempfindlichkeit verwendet wird, um den Kommunikationsaufwand zu verringern. Der Artikel bewertet die Leistung von FedSNIP anhand von Datensätzen wie CIFAR-10 und UCI-HAR und vergleicht sie mit bestehenden Methoden wie FedAvg, FedDLR und CMFL. Es untersucht auch die Verwendung sparsamer Matrixkomprimierungsformate, einschließlich CSR, COO und CSC, um den Datentransfer weiter zu optimieren. Die Ergebnisse zeigen die Effektivität von FedSNIP bei der Aufrechterhaltung der Modellgenauigkeit bei gleichzeitiger signifikanter Verringerung der übertragenen Datenmenge, was es zu einer vielversprechenden Lösung für praktische föderale Lerneinsätze macht. Der Artikel schließt mit einer Diskussion über zukünftige Forschungsrichtungen, einschließlich adaptiver Beschneidungsstrategien und Kundenauswahl auf der Grundlage von Sparquoten, um die Effizienz und Robustheit föderierter Lernsysteme weiter zu verbessern.

Sie sind noch kein Kunde? Dann Informieren Sie sich jetzt über unsere Lizenzmodelle:

Einzelzugang

Starten Sie jetzt Ihren persönlichen Einzelzugang. Erhalten Sie sofortigen Zugriff auf mehr als 170.000 Bücher und 540 Zeitschriften - pdf-Downloads und Neu-Erscheinungen inklusive.

Jetzt ab 54,00 € pro Monat!                                        

Mehr erfahren

Zugang für Unternehmen

Nutzen Sie Springer Professional in Ihrem Unternehmen und geben Sie Ihren Mitarbeitern fundiertes Fachwissen an die Hand. Fordern Sie jetzt Informationen für Firmenzugänge an.

Erleben Sie, wie Springer Professional Sie in Ihrer Arbeit unterstützt!

Beraten lassen
Titel
Reducing communication overhead through one-shot model pruning in federated learning
Verfasst von
Rómulo Bustincio
Allan M. de Souza
Joahannes B. D. da Costa
Luis F. G. Gonzalez
Luiz F. Bittencourt
Publikationsdatum
05.05.2025
Verlag
Springer International Publishing
Erschienen in
Annals of Telecommunications / Ausgabe 9-10/2025
Print ISSN: 0003-4347
Elektronische ISSN: 1958-9395
DOI
https://doi.org/10.1007/s12243-025-01097-x
Dieser Inhalt ist nur sichtbar, wenn du eingeloggt bist und die entsprechende Berechtigung hast.
Bildnachweise
AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Bild 1 Verspätete Verkaufsaufträge (Sage-Advertorial 3/2026)/© Sage, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen in 2025 und 2026/© amgun | Getty Images