Zum Inhalt

Computer Vision – ECCV 2022

17th European Conference, Tel Aviv, Israel, October 23–27, 2022, Proceedings, Part V

  • 2022
  • Buch

Über dieses Buch

Das 39-bändige Set, bestehend aus den LNCS-Büchern 13661 bis 13699, stellt die referierten Beiträge der 17. Europäischen Konferenz für Computervision, ECCV 2022, dar, die vom 23. bis 27. Oktober 2022 in Tel Aviv, Israel, stattfand. Die 1645 in diesem Verfahren präsentierten Arbeiten wurden sorgfältig geprüft und aus insgesamt 5804 Einreichungen ausgewählt. Die Beiträge behandeln Themen wie Computervision, maschinelles Lernen, tiefe neuronale Netzwerke, Verstärkungslernen, Objekterkennung, Bildklassifizierung, Bildverarbeitung, Objekterkennung, semantische Segmentierung, menschliche Pose, 3D-Rekonstruktion, Stereovision, Computerfotografie, neuronale Netzwerke, Bildcodierung, Bildrekonstruktion, Objekterkennung, Bewegungseinschätzung.

Inhaltsverzeichnis

Nächste
  • current Page 1
  • 2
  • 3
  1. Frontmatter

  2. Adaptive Image Transformations for Transfer-Based Adversarial Attack

    Zheng Yuan, Jie Zhang, Shiguang Shan
    Das Kapitel diskutiert die Anfälligkeit von tiefen neuronalen Netzwerken gegenüber feindlichen Angriffen und stellt den Adaptive Image Transformation Learner (AITL) vor, eine neuartige Architektur, die die Übertragbarkeit von feindlichen Beispielen verbessert. Im Gegensatz zu bestehenden Methoden, die feste Bildtransformationen verwenden, wählt AITL adaptiv die effektivste Transformationskombination für jedes Bild aus. Umfangreiche Experimente im ImageNet zeigen signifikante Verbesserungen bei den Angriffserfolgsraten sowohl gegenüber normalerweise trainierten Modellen als auch gegenüber Verteidigungsmodellen und unterstreichen die Überlegenheit der vorgeschlagenen Methode im Bereich feindlicher Angriffe.
  3. Generative Multiplane Images: Making a 2D GAN 3D-Aware

    Xiaoming Zhao, Fangchang Ma, David Güera, Zhile Ren, Alexander G. Schwing, Alex Colburn
    Das Kapitel befasst sich mit der Entwicklung einer neuen Methode, um ein 2D GAN 3D-bewusst zu machen, indem ein zusätzlicher Zweig zur Erzeugung von Alphakarten eingeführt wird, die auf die Tiefe konditioniert sind und den Diskriminator in Pose konditionieren. Dieser Ansatz, der als "Generative Multiplane Images" (GMPI) bezeichnet wird, gewährleistet eine einheitliche Ansicht und effizientes Rendering und zeigt signifikante Verbesserungen des 3D-Bewusstseins bei minimalen Anpassungen an der bestehenden GAN-Architektur. Die Methode wurde anhand dreier hochauflösender Datensätze validiert, was ihre Wirksamkeit und Effizienz im Vergleich zu modernen Methoden aufzeigt. Die Studie hebt auch die Grenzen traditioneller 2D-GAN-Bewertungsmetriken hervor und schlägt geeignetere Metriken zur Bewertung 3D-bewusster generativer Modelle vor.
  4. AdvDO: Realistic Adversarial Attacks for Trajectory Prediction

    Yulong Cao, Chaowei Xiao, Anima Anandkumar, Danfei Xu, Marco Pavone
    Das Kapitel vertieft sich in das kritische Thema der feindlichen Angriffe auf Flugbahnvorhersagesysteme in autonomen Fahrzeugen (AVs) und hebt deren Potenzial hervor, AVs in die Irre zu führen, um unsichere Entscheidungen zu treffen. Es führt eine neue Angriffsmethode ein, AdvDO, die ein differenzierbares dynamisches Modell verwendet, um realistische gegnerische Flugbahnen zu erzeugen. Die Autoren zeigen, dass diese Angriffe Vorhersagefehler deutlich erhöhen und zu schwerwiegenden Folgen wie Kollisionen führen können. Das Kapitel bewertet auch die Effektivität der vorgeschlagenen Angriffe auf hochmoderne Vorhersagemodelle und untersucht Minderungsstrategien durch feindseliges Training. Der einzigartige Fokus auf den Realismus und die Effektivität gegnerischer Angriffe macht dieses Kapitel zu einer wertvollen Ressource für Forscher und Praktiker im Bereich der AV-Sicherheit.
  5. Adversarial Contrastive Learning via Asymmetric InfoNCE

    Qiying Yu, Jieming Lou, Xianyuan Zhan, Qizhang Li, Wangmeng Zuo, Yang Liu, Jingjing Liu
    Das Kapitel stellt einen neuartigen Ansatz für kontrastives Lernen vor, der sich der Herausforderung der Identitätsverwirrung widmet, wenn Modelle widrigen Stichproben ausgesetzt sind. Indem sie eine asymmetrische Verlustfunktion von InfoNCE vorschlagen, behandeln die Autoren gegnerische Proben als minderwertige Positive oder harte Negative, wodurch die widersprüchlichen Auswirkungen von kontrastivem Lernen und konträren Trainingszielen effektiv abgemildert werden. Experimentelle Ergebnisse zeigen die überlegene Leistung dieses Ansatzes bei der Verbesserung sowohl der Standard- als auch der robusten Genauigkeit über verschiedene Datensätze und Trainingsstrategien hinweg. Die Kompatibilität der Methode mit bestehenden Rahmenwerken und ihr Potenzial zur Übertragbarkeit machen sie zu einem bedeutenden Beitrag im Bereich des selbstüberwachten Lernens und der gegnerischen Robustheit.
  6. One Size Does NOT Fit All: Data-Adaptive Adversarial Training

    Shuo Yang, Chang Xu
    Das Kapitel geht auf die Herausforderungen ein, die sich durch widersprüchliche Beispiele des Deep Learning ergeben, insbesondere ihre Auswirkungen auf die Brüchigkeit tiefer neuronaler Netzwerke. Es werden die üblichen, feindseligen Trainingsmethoden und ihre Grenzen diskutiert und der Zielkonflikt zwischen natürlicher Genauigkeit und Robustheit hervorgehoben. Die Autoren stellen einen neuen Ansatz namens Data-Adaptive Adversarial Training (DAAT) vor, der die Störungsgröße für jedes Trainingsbeispiel adaptiv anpasst, um die natürliche Genauigkeit besser zu erhalten und gleichzeitig die Robustheit zu erhöhen. Die Methode verwendet ein Kalibriernetzwerk, das auf natürliche Daten trainiert ist, um die Störungsgröße zu bestimmen, wodurch sichergestellt wird, dass die Verallgemeinerungsfähigkeit erhalten bleibt. Empirische Experimente zeigen die Effektivität von DAAT bei der Verbesserung sowohl der natürlichen Genauigkeit als auch der Robustheit, was es zu einer vielversprechenden Lösung im Bereich des gegnerischen Trainings macht.
  7. UniCR: Universally Approximated Certified Robustness via Randomized Smoothing

    Hanbin Hong, Binghui Wang, Yuan Hong
    Das Kapitel "UniCR: Universally Approximated Certified Robustness via Randomized Smoothing" geht den Schwachstellen maschineller Lernklassifikatoren gegenüber feindlichen Störungen und den jüngsten Fortschritten in der zertifizierten Abwehr nach. Es führt das UniCR-Rahmenwerk ein, das randomisierte Glättung nutzt, um eine universell anwendbare Methode zur Zertifizierung der Robustheit von Klassifikatoren gegenüber Störungen und Geräuschverteilungen anzubieten. Das Rahmenwerk automatisiert den Zertifizierungsprozess und validiert die Dichtheit des zertifizierten Radius, was eine deutliche Verbesserung gegenüber bestehenden Methoden darstellt. Das Kapitel untersucht auch die Optimierung der Funktion der Rauschwahrscheinlichkeit, um die zertifizierte Robustheit zu verbessern, und demonstriert die Praktikabilität und Effektivität des UniCR-Rahmenwerks durch umfangreiche Experimente an verschiedenen Datensätzen.
  8. Hardly Perceptible Trojan Attack Against Neural Networks with Bit Flips

    Jiawang Bai, Kuofeng Gao, Dihong Gong, Shu-Tao Xia, Zhifeng Li, Wei Liu
    Das Kapitel behandelt einen ausgeklügelten Trojaner-Angriff auf neuronale Netzwerke, der Bit-Flips beinhaltet und darauf abzielt, hochwirksame und kaum wahrnehmbare Auslöser zu erzeugen. Die Methode namens Hardly Perceptible Trojan (HPT) modifiziert Pixelwerte und -positionen in Bildern, um schwer erkennbare Trojaner-Bilder zu erzeugen. HPT wird als Mixed-Integer-Programmierproblem formuliert und mittels eines Optimierungsalgorithmus gelöst, der auf der Methode der Wechselrichtungsmultiplikatoren (ADMM) beruht. Das Kapitel stellt umfangreiche Experimente zu verschiedenen Datensätzen und Modellen vor, die zeigen, dass HPT eine überlegene Angriffsleistung bei gleichzeitiger Aufrechterhaltung hoher Wahrnehmungsqualität erzielt. Die Ergebnisse unterstreichen die potenziellen Bedrohungen und die Notwendigkeit fortgeschrittener Abwehrmaßnahmen gegen derartige Angriffe in entfalteten neuronalen Netzwerken.
  9. Robust Network Architecture Search via Feature Distortion Restraining

    Yaguan Qian, Shenghui Huang, Bin Wang, Xiang Ling, Xiaohui Guan, Zhaoquan Gu, Shaoning Zeng, Wujie Zhou, Haijiang Wang
    Das Kapitel untersucht die Schwachstellen von Deep Neural Networks (DNNs) anhand widersprüchlicher Beispiele und die Bedeutung der Netzwerkstruktur für die Verbesserung der Robustheit. Es führt die Methode Robust Network Architecture Search (RNAS) ein, die Verzerrungsbeschränkungen nutzt, um Architekturen zu finden, die resistent gegen feindliche Angriffe sind. Die RNAS-Methode, die auf Differentiable Architecture Search (DARTS) basiert, nutzt eine multiobjektive zweistufige Optimierung, um die Anfälligkeit des Netzwerks zu minimieren. Umfangreiche Experimente mit verschiedenen Datensätzen zeigen die Überlegenheit des RNAS bei der Erreichung modernster Robustheit. Das Kapitel unterstreicht die Bedeutung von Merkmalsverzerrungen bei der Fehlklassifizierung, die durch widersprüchliche Beispiele verursacht werden, und die Übertragbarkeit der RNAS-Architektur auf verschiedene Datensätze.
  10. SecretGen: Privacy Recovery on Pre-trained Models via Distribution Discrimination

    Zhuowen Yuan, Fan Wu, Yunhui Long, Chaowei Xiao, Bo Li
    Im Kapitel "SecretGen: Privacy Recovery on Pre-trained Models via Distribution Discrimination" wird ein neuartiges Rahmenwerk, SecretGen, vorgestellt, das darauf ausgelegt ist, private Trainingsdaten von vortrainierten Modellen wiederherzustellen. Dieses Rahmenwerk adressiert die Schwachstellen in der Privatsphäre, die Transferlernparadigmen innewohnen und die sich in verschiedenen Bereichen zunehmend durchsetzen. SecretGen besteht aus einem Generation-Backbone, einem Pseudo-Label-Prädiktor und einem latenten Vektor-Selektor, der optimiert wurde, um datenschutzsensible Trainingsinstanzen zu rekonstruieren, ohne dass Ground Truth Labels oder Whitebox-Zugriff auf das Zielmodell erforderlich sind. Die Autoren führen umfassende Experimente mit Gesichtsdatensätzen durch und zeigen, dass SecretGen sowohl in Whitebox- als auch in Blackbox-Einstellungen bestehende Methoden deutlich übertrifft. Zusätzlich bewertet das Kapitel die Robustheit von SecretGen gegenüber Verteidigungsmechanismen und führt Ablationsstudien durch, um die Wirksamkeit seiner Designentscheidungen zu überprüfen. Die Arbeit hebt die potenziellen Risiken hervor, die mit der Veröffentlichung vorab trainierter Modelle im Internet verbunden sind, und fordert weitere Forschungen zu Datenrettungs- und Verteidigungsmechanismen.
  11. Triangle Attack: A Query-Efficient Decision-Based Adversarial Attack

    Xiaosen Wang, Zeliang Zhang, Kangheng Tong, Dihong Gong, Kun He, Zhifeng Li, Wei Liu
    Im Kapitel "Triangle Attack: A Query-Efficiency Decision-Based Adversarial Attack" wird eine neue Methode zur Generierung gegnerischer Beispiele vorgestellt, die tiefe neuronale Netzwerke (DNNs) mit minimalen Abfragen täuschen kann. Der Triangle Attack (TA) nutzt geometrische Eigenschaften, um Störungen im Niederfrequenzraum zu minimieren, was ihn hocheffizient und effektiv macht. Die Methode ist vor allem im Kontext sicherheitsrelevanter Anwendungen wie Gesichtserkennung und autonomes Fahren relevant, wo die Anfälligkeit für feindliche Beispiele erhebliche Bedrohungen darstellt. Durch die Konstruktion von Dreiecken im Frequenzraum optimiert TA feindliche Störungen ohne die Notwendigkeit einer Gradientenschätzung oder Beschränkung des feindlichen Beispiels auf die Entscheidungsgrenze. Umfangreiche Experimente mit Standardmodellen und Anwendungen in der realen Welt zeigen die überlegene Leistung von TA und unterstreichen ihre praktische Anwendbarkeit und ihr Potenzial, das Feld der feindlichen Angriffe und Abwehrmaßnahmen voranzutreiben.
  12. Data-Free Backdoor Removal Based on Channel Lipschitzness

    Runkai Zheng, Rongjun Tang, Jianze Li, Li Liu
    Das Kapitel geht dem Problem der Backdoor-Angriffe auf tiefe neuronale Netzwerke nach und hebt die Schwere derartiger Bedrohungen in sicherheitskritischen Bereichen hervor. Es führt in das Konzept des Channel Lipschitzness ein und zeigt, wie es genutzt werden kann, um sensible Kanäle im Zusammenhang mit Backdoor-Triggern zu identifizieren und zu beschneiden. Die vorgeschlagene Methode des Channel Lipschitzness Based Pruning (CLP) ist datenfrei, effizient und robust und zeigt vielversprechende Ergebnisse bei der Verringerung der Angriffserfolge bei gleichzeitiger Aufrechterhaltung hoher Genauigkeit sauberer Daten. Umfangreiche Experimente zu verschiedenen Angriffen und Datensätzen bestätigen die Wirksamkeit von CLP und leisten damit einen bedeutenden Beitrag im Bereich der Modellsicherheit.
  13. Black-Box Dissector: Towards Erasing-Based Hard-Label Model Stealing Attack

    Yixu Wang, Jie Li, Hong Liu, Yan Wang, Yongjian Wu, Feiyue Huang, Rongrong Ji
    Das Kapitel geht auf die Risiken von Model-Steal-Angriffen auf Cloud-basierte maschinelle Lernmodelle ein und konzentriert sich auf das herausfordernde Szenario, in dem nur harte Etiketten verfügbar sind. Es stellt den Black-Box-Dissector vor, eine Methode, die eine CAM-gesteuerte Löschstrategie und ein selbstentwickeltes KD-Modul einsetzt, um die für frühere Methoden typische Leistungsverschlechterung abzumildern. Der Ansatz wird durch umfangreiche Experimente an vier weit verbreiteten Datensätzen validiert, was seine Überlegenheit gegenüber modernsten Methoden zeigt. Darüber hinaus wird die Wirksamkeit der Methode durch die Umgehung fortschrittlicher Verteidigungsmechanismen und ihre praktische Anwendung in realen Anwendungen wie AWS Marketplace unter Beweis gestellt. Das Kapitel schließt mit der Hervorhebung des Potenzials der Methode, nachgelagerte Aufgaben wie übertragbare feindliche Angriffe zu verbessern, was sie zu einer wertvollen Ressource für Fachleute auf diesem Gebiet macht.
  14. Learning Energy-Based Models with Adversarial Training

    Xuwang Yin, Shiying Li, Gustavo K. Rohde
    Dieses Kapitel befasst sich mit der Anwendung von Adversarial Training (AT), um das Lernen von energiebasierten Modellen (EBMs) zu verbessern. Traditionelle EBMs stehen vor Herausforderungen in Bezug auf Recheneffizienz und Trainingsstabilität, während AT vielversprechend darin ist, hochklassige Features zu erlernen. Die Autoren untersuchen den Mechanismus, durch den AT Datenverteilungen lernt, und schlagen verbesserte Techniken zur generativen Modellierung vor. Sie zeigen, dass binäres AT als ein Lernalgorithmus mit annähernder maximaler Wahrscheinlichkeit angesehen werden kann, der bei Bildübersetzungsaufgaben konkurrenzfähige Erzeugungsleistung und Robustheit erreicht. Das Kapitel unterstreicht auch die starke verteilungsfeindliche Robustheit des vorgeschlagenen Ansatzes, was auf sein Potenzial bei der Erkennung abnormaler Eingaben und feindlich erzeugter Inhalte hindeutet.
  15. Adversarial Label Poisoning Attack on Graph Neural Networks via Label Propagation

    Ganlin Liu, Xiaowei Huang, Xinping Yi
    Das Kapitel vertieft das wachsende Interesse an neuronalen Graphennetzen (Graph Neural Networks, GNNs) für verschiedene Aufgaben der Computervision und des maschinellen Lernens und beleuchtet ihre Anwendungen in den Bereichen Knotenklassifizierung, Klassifizierung von Graphen und Linkvorhersage. Es führt ein neuartiges Rahmenwerk für Angriffe auf Etikettenvergiftungen ein, das die Ausbreitung von Etiketten nutzt, um vorhersagende Etiketten und maximale Gradienten zu generieren, um Trainingsdaten zu vergiften. Diese Methode ist besonders effektiv für die Klassifizierung mehrerer Klassen von Knoten und erfordert keinen Zugriff auf die Modellparameter neuronaler Netzwerke in GCNs. Die Autoren demonstrieren die Effektivität und Effizienz ihrer vorgeschlagenen Methode durch umfangreiche Experimente an verschiedenen GNN-Modellen und Datensätzen und zeigen ihr Potenzial auf, die Leistung der Knotenklassifikationsaufgaben signifikant zu reduzieren.
  16. Revisiting Outer Optimization in Adversarial Training

    Ali Dabouei, Fariborz Taherkhani, Sobhan Soleymani, Nasser M. Nasrabadi
    Das Kapitel "Revisiting Outer Optimization in Adversarial Training" widmet sich der kritischen Frage der feindlichen Suszeptibilität in tiefen neuronalen Netzwerken (DNNs) und der Effektivität von adversarial Training (AT) bei der Verbesserung der Robustheit. Er beleuchtet die Mängel des konventionellen MSGD-Optimierers in AT und führt die Methode des beispielhaft normalisierten Gradientenabstiegs mit Momentum (ENGM) ein. ENGM ist so konzipiert, dass es weniger empfindlich auf Gradientennorm und Varianz reagiert, was eine überlegene Leistung und Verallgemeinerung in AT bietet. Das Kapitel liefert auch empirische Belege und Ablationsstudien, um die Wirksamkeit von ENGM und seine schnellen Annäherungen zu bestätigen. Insgesamt bietet dieses Kapitel wertvolle Erkenntnisse und praktische Lösungen zur Verbesserung der Robustheit von DNNs in sicherheitsrelevanten Anwendungen.
  17. Zero-Shot Attribute Attacks on Fine-Grained Recognition Models

    Nasim Shafiee, Ehsan Elhamifar
    Das Kapitel geht der Anfälligkeit von Deep Neural Networks (DNNs) für feinkörnige Erkennungsmodelle nach und konzentriert sich dabei insbesondere auf Zero-Shot-Attributangriffe. Traditionelle universelle Störungen versäumen es, die subtilen Unterschiede zwischen feinkörnigen Klassen zu erfassen. Das vorgeschlagene kompositorische Rahmenwerk erzeugt attributbasierte universelle Störungen (AUPs) und lernt, sie für effektive und verallgemeinerbare Angriffe zu komponieren. Experimentelle Ergebnisse zeigen die überlegene Leistung des kompositorischen Modells gegenüber bestehenden Methoden und unterstreichen seine Fähigkeit, gut über verschiedene Architekturen und Datensätze hinweg zu übertragen.
  18. Towards Effective and Robust Neural Trojan Defenses via Input Filtering

    Kien Do, Haripriya Harikumar, Hung Le, Dung Nguyen, Truyen Tran, Santu Rana, Dang Nguyen, Willy Susilo, Svetha Venkatesh
    Das Kapitel geht auf die Schwachstellen tiefer neuronaler Netzwerke (DNNs) gegenüber Trojaner-Angriffen ein und unterstreicht die Notwendigkeit robuster Abwehrmechanismen. Es werden zwei neuartige Filterabwehrmechanismen eingeführt, Variational Input Filtering (VIF) und Adversarial Input Filtering (AIF), die verlustbehaftete Datenkomprimierung und feindseliges Lernen nutzen, um potenzielle Trojaner-Trigger im Input des Modells zu bereinigen. Zusätzlich wird der Mechanismus "Filtering-then-Contrasting" (FtC) vorgeschlagen, um die Ergebnisse des Modells mit und ohne Eingabefilterung zu vergleichen und so die Genauigkeit sauberer Datenvorhersagen zu verbessern. Durch umfangreiche Experimente zeigt das Kapitel die überlegene Leistung dieser Abwehrmechanismen gegen verschiedene fortgeschrittene trojanische Angriffe und zeigt ihre Wirksamkeit und Robustheit.
Nächste
  • current Page 1
  • 2
  • 3
Titel
Computer Vision – ECCV 2022
Herausgegeben von
Shai Avidan
Gabriel Brostow
Moustapha Cissé
Giovanni Maria Farinella
Tal Hassner
Copyright-Jahr
2022
Electronic ISBN
978-3-031-20065-6
Print ISBN
978-3-031-20064-9
DOI
https://doi.org/10.1007/978-3-031-20065-6

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Noriis Network AG/© Noriis Network AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock