Zum Inhalt

Statistische Versuchsplanung

Design of Experiments (DoE)

  • 2026
  • Buch

Über dieses Buch

Die statistische Versuchsplanung (Design of Experiments, DoE) kommt in Entwicklung und Fertigung häufig zum Einsatz. Das Buch richtet sich an Ingenieur*innen und Naturwissenschaftler*innen, die technische Systeme systematisch analysieren und optimieren möchten.

DoE bietet ein universell einsetzbares Verfahren zur Untersuchung komplexer Zusammenhänge und eignet sich gleichermaßen für Produkt- und Prozessoptimierung. Der Schwerpunkt liegt auf der Planung und Umsetzung praxisnaher Versuchsreihen. Darüber hinaus zeigt das Buch, wie DoE den effizienten Einsatz von Simulationen unterstützt.
DoE ist heute zunehmend in Datenanalyse-, Simulations- und Machine-Learning-Prozesse eingebettet. Daher behandelt das Buch neben der klassischen DoE auch Metamodelle und moderne Optimierungsverfahren. Es bildet damit eine klare Grundlage für die methodische Auswahl.

Die dritte Auflage wurde umfassend aktualisiert. Neue Versuchspläne, aktuelle Softwarefunktionen und ein Viertel neuer Quellen sind integriert. Die Clusteranalyse kam hinzu. So bietet die dritte Auflage einen aktuellen, fundierten und zugleich praxisnahen Leitfaden für alle, die DoE wirksam einsetzen möchten.

Inhaltsverzeichnis

  1. Frontmatter

  2. 1. Grundlagen

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Die statistische Versuchsplanung ist eine Methode zur effizienten Planung und Auswertung von Versuchsreihen, die bereits in den 1920er Jahren entwickelt wurde. Sie ist in vielen Ingenieursdisziplinen universell einsetzbar und bietet eine standardisierte Vorgehensweise zur Darstellung der Ergebnisse. Der Text behandelt die Grundbegriffe der Methode, wie Faktor, Effekt und Wechselwirkung, und geht auf die Vorbereitung einer Versuchsreihe ein. Besonders hervorgehoben wird die Bedeutung der statistischen Versuchsplanung für die effiziente Planung und Auswertung von Versuchsreihen sowie die universelle Anwendbarkeit in verschiedenen Ingenieursdisziplinen. Der Text bietet eine neutrale Darstellung, die den Leser nicht an eine bestimmte Software bindet, und betont die Bedeutung der Methode für die effiziente Planung und Auswertung von Versuchsreihen. Die Auswertung von Versuchsplänen wird anhand einer Fallstudie erörtert, wobei Effektendiagramme und Wechselwirkungsdiagramme als standardisierte graphische Darstellungen der aus den Versuchsergebnissen abgeleiteten Beschreibungsfunktion dienen. Das lineare Beschreibungsmodell wird als leistungsfähiges Werkzeug zur Quantifizierung der Zusammenhänge zwischen Faktoren und Qualitätsmerkmalen vorgestellt. Der Text betont die Bedeutung der statistischen Versuchsplanung für die effiziente Planung und Auswertung von Versuchsreihen sowie die universelle Anwendbarkeit der Methode in verschiedenen Ingenieursdisziplinen.
  3. 2. Versuchspläne

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Das Kapitel behandelt die verschiedenen Arten von Versuchsplänen und deren Anwendungen in der statistischen Versuchsplanung. Es beginnt mit einer Einführung in die Bedeutung von Versuchsplänen und deren historischen Hintergrund. Anschließend werden Screening-Versuchspläne vorgestellt, die eine effiziente Untersuchung einer hohen Zahl von Faktoren ermöglichen. Detailuntersuchungen werden oft mit einem quadratischen Beschreibungsmodell durchgeführt, um Nichtlinearitäten Rechnung zu tragen. Das Kapitel diskutiert auch die Grenzen dieses Modells und stellt maßgeschneiderte Versuchspläne für spezielle Anwendungsfälle vor. Abschließend wird die historische Entwicklung der Versuchsplanung, insbesondere die Rolle der griechisch-lateinischen Quadrate, beleuchtet. Das Kapitel bietet eine umfassende Übersicht über die verschiedenen Versuchspläne und deren Einsatzmöglichkeiten, wobei besonders die praktische Anwendung und die Grenzen der Modelle betont werden.
  4. 3. Kontrollverfahren

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    In diesem Kapitel werden die wesentlichen Kontrollverfahren für die statistische Versuchsplanung vorgestellt. Es beginnt mit einer Einführung in die Bedeutung von Kontrollverfahren bei der Durchführung von Versuchsreihen und betont deren Rolle bei der Sicherstellung der Genauigkeit und Zuverlässigkeit der Ergebnisse. Der Text behandelt verschiedene Aspekte der Versuchsplanung, einschließlich der Erstellung eines Versuchsplans, der Verwendung von Beschreibungsmodellen und der Bewertung der Genauigkeit der Vorhersagen. Besonders hervorgehoben werden die Half-Normal-Plot und die Varianzanalyse als Methoden zur Unterscheidung zwischen wahren und scheinbaren Effekten. Zudem werden Löschdiagnosen wie PRESS, DFFITS, DFBETA und die Cook-Distanz eingeführt, die helfen, die Robustheit und Stabilität des Modells zu bewerten. Abschließend wird die Box-Cox-Transformation als Methode zur Verbesserung der Modellgenauigkeit durch Transformation des Qualitätsmerkmals diskutiert. Das Kapitel schließt mit der Empfehlung, Bestätigungsläufe durchzuführen, um die Vorhersagen zu validieren und absolute Gewissheit zu erlangen.
  5. 4. Statistische Modellbildung

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Zusammenfassung
    Nachdem wir in den vorigen Kapiteln einen Weg in die Anwendung der statistischen Versuchsplanung gefunden haben, wird es in der Folge darum gehen, Kapitel 3 aufzugreifen und die dort zu findende Darstellung der wesentlichen Kontrollverfahren zu vertiefen beziehungsweise, wo sinnvoll, zu ergänzen.
  6. 5. Varianten der statistischen Versuchsplanung

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    In diesem Kapitel werden verschiedene Varianten der statistischen Versuchsplanung vorgestellt, die über die klassische Methode hinausgehen. Ein zentraler Schwerpunkt liegt auf der Optimierung mehrerer Qualitätsmerkmale gleichzeitig, was durch die Multiple-Response-Optimisation ermöglicht wird. Dabei werden Rampenfunktionen verwendet, um die Qualitätsmerkmale dimensionslos zu machen und ihre Gewichtung anzupassen. Ein weiterer wichtiger Aspekt ist das Parameterdesign, das darauf abzielt, Systeme robuster zu machen, indem Störgrößen und Signalgrößen berücksichtigt werden. Das Toleranzdesign ergänzt dies, indem es die Auswirkungen von Bauteiltoleranzen auf die Systemleistung untersucht. Die Principal Component Analysis (PCA) wird als Methode eingeführt, um die Abhängigkeiten zwischen den Qualitätsmerkmalen zu analysieren und die Anzahl der unabhängigen Freiheitsgrade zu reduzieren. Abschließend wird die Anwendung der statistischen Versuchsplanung auf kategoriale Faktoren behandelt, die nicht numerisch sind, sondern in festen Stufen eingestellt werden. Das Kapitel bietet eine umfassende Anleitung zur Anwendung dieser Methoden in der Praxis und zeigt auf, wie sie zur Verbesserung der Systemleistung beitragen können.
  7. 6. DoE Beispiele

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Das Kapitel präsentiert zwei praxisnahe Beispiele zur Anwendung der statistischen Versuchsplanung (DoE) in der industriellen Entwicklung. Das erste Beispiel behandelt die Optimierung einer Schutzplanke, wobei der Fokus auf der Identifikation relevanter Parameter und der Analyse von Qualitätsmerkmalen liegt. Es wird gezeigt, wie ein Screening-Array verwendet wird, um die wichtigsten Faktoren zu bestimmen und wie die Principal Component Analysis (PCA) genutzt wird, um Zusammenhänge zwischen den Qualitätsmerkmalen zu untersuchen. Das zweite Beispiel beschäftigt sich mit der Optimierung eines Ventiltriebs in einem Verbrennungsmotor. Hier wird eine Multiple Response Optimization durchgeführt, um nichtlineare Zusammenhänge und Wechselwirkungen zwischen den Faktoren und den Qualitätsmerkmalen zu analysieren. Die Ergebnisse zeigen, wie durch die DoE-Methode in Kombination mit der PCA der Einfluss von acht Faktoren auf vier unterschiedliche Qualitätsmerkmale quantifiziert und eine Verbindung zwischen den Qualitätsmerkmalen aufgezeigt werden kann. Beide Beispiele verdeutlichen die Effizienz und den Nutzen der DoE-Methode in der Praxis und bieten wertvolle Einblicke in die systematische Optimierung technischer Systeme.
  8. 7. Computer-Experiment

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Computer-Experimente haben sich seit der Entwicklung des ersten funktionstüchtigen Computers, des Z3 von Konrad Zuse im Jahr 1941, zu einem unverzichtbaren Werkzeug in der technischen Entwicklung etabliert. Sie ermöglichen die Simulation komplexer Systeme, die Analyse von Faktor-Zusammenhängen und die Optimierung von Systemantworten. Ein zentrales Thema des Kapitels ist der Aufbau und die Analyse von Computer-Experimenten, die aufgrund ihrer Komplexität und langen Simulationszeiten eine effiziente Nutzung von Computer-Ressourcen erfordern. Dabei werden Ersatzmodelle, auch Metamodelle genannt, verwendet, die das technische System oder das komplexe Simulationsmodell ausreichend genau beschreiben und nur minimale Computer-Ressourcen erfordern. Ein weiterer Schwerpunkt liegt auf dem Vergleich von Computer- und physikalischen Experimenten, wobei Computer-Experimente deterministisch sind und keine Messfehler aufweisen. Zudem ermöglichen sie eine flexiblere Stufenwahl und einfache Änderung von Faktoren. Das Kapitel behandelt auch spezielle Testfelder für Computer-Experimente, wie den Latin Hypercube, der eine gleichmäßige Verteilung der Testpunkte im Faktorraum ermöglicht und Pseudo-Wiederholungen vermeidet. Ein weiteres wichtiges Thema ist die Erstellung von Metamodellen, die sich flexibel an komplexe Zusammenhänge anpassen können, sowie die Analyse und Optimierung von Systemen mittels dieser Metamodelle. Abschließend wird die Bedeutung von Computer-Experimenten für die Verkürzung des Entwicklungsprozesses und die Verbesserung der Produktqualität hervorgehoben.
  9. 8. Versuchspläne für komplexe Zusammenhänge

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    In diesem Kapitel werden Versuchspläne für komplexe Zusammenhänge detailliert behandelt, mit einem Fokus auf die Analyse und Optimierung technischer Systeme. Es werden verschiedene Methoden zur Erzeugung und Bewertung von Testfeldern vorgestellt, darunter Monte-Carlo- und Quasi-Monte-Carlo-Methoden, Latin Hypercubes und gleichverteilte Testfelder. Der Text erklärt, wie diese Methoden zur Erstellung von Testfeldern beitragen, die eine gleichmäßige Verteilung der Testpunkte im Faktorraum gewährleisten. Zudem werden Gütekriterien wie Diskrepanz und MiniMaxp diskutiert, die zur Bewertung der Qualität der Testfelder verwendet werden. Ein weiterer Schwerpunkt liegt auf der Optimierung von Testfeldern durch gezielte Vertauschung von Elementen und der Reduktion des Rechenaufwands. Praktische Anwendungen und Herausforderungen, wie die Anpassung von Testfeldern an experimentelle Grenzen und die Voranalyse von Messdaten, werden ebenfalls behandelt. Das Kapitel schließt mit einer Diskussion über die Anzahl der benötigten Messungen und der Bedeutung einer robusten Versuchsdurchführung. Die Erkenntnisse und Methoden, die in diesem Kapitel vorgestellt werden, sind entscheidend für die erfolgreiche Analyse und Optimierung komplexer technischer Systeme.
  10. 9. Metamodelle

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Metamodelle sind vereinfachte Modelle, die komplexe Simulationsmodelle mit geringeren Rechenzeiten abbilden. Sie werden aus Daten eines raumfüllenden Testfelds erzeugt und ermöglichen eine schnelle Analyse technischer Systeme. Der Fachbeitrag erklärt die Grundlagen von Metamodellen und deren Bedeutung in der technischen Analyse. Es werden verschiedene Metamodell-Typen wie lineare Regression, Polynome und Splines vorgestellt, sowie deren spezifische Anwendungen und Vorteile. Der Beitrag diskutiert auch die Herausforderungen bei der Implementierung von Metamodellen und bietet praktische Beispiele zur Veranschaulichung. Besonders hervorgehoben wird die Bedeutung von Metamodellen in der Optimierung technischer Systeme und deren Einsatz in verschiedenen Branchen.
  11. 10. Optimierung

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Das Kapitel behandelt die Optimierung von Systemeigenschaften durch die Bestimmung von Faktoreinstellungen, die ausgewählte Zielgrößen optimieren. Es werden verschiedene Optimierungsverfahren vorgestellt, darunter exakte Lösungsmethoden und heuristische Ansätze wie Simuliertes Abkühlen und genetische Optimierung. Besonders hervorgehoben werden die Herausforderungen bei der Optimierung mehrerer Zielgrößen und die Verwendung von Pareto-Grenzen zur Bestimmung optimaler Kompromisse. Der Text bietet eine detaillierte Analyse der verschiedenen Methoden und deren Anwendungen in der Praxis, einschließlich der Berücksichtigung von Randbedingungen und der Bewertung der Qualität von Pareto-Grenzen. Abschließend werden die Vor- und Nachteile der verschiedenen Verfahren diskutiert und Empfehlungen für die Auswahl der geeigneten Methode gegeben.
  12. 11. Korrelationsanalyse

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Die Korrelationsanalyse ist ein zentrales Werkzeug in der Statistik, um Zusammenhänge zwischen Variablen zu untersuchen. In diesem Kapitel wird zunächst die lineare Pearson-Korrelation detailliert erläutert, die eine Normalverteilung und einen linearen Zusammenhang zwischen den Variablen voraussetzt. Es wird gezeigt, wie die Pearson-Korrelation berechnet wird und welche Grenzen sie hat, insbesondere bei nicht normalverteilten Daten oder Ausreißern. Anschließend werden Rangkorrelationen wie die Spearman- und Kendall’s τ-Korrelation vorgestellt, die robust gegenüber Ausreißern sind und keine Annahmen über die Verteilung der Daten machen. Diese Methoden sind besonders nützlich, wenn die Daten nicht linear zusammenhängen oder Ausreißer vorhanden sind. Ein weiterer wichtiger Aspekt ist die Unterscheidung zwischen Schein- und verdeckten Korrelationen, die oft zu falschen Schlussfolgerungen führen können. Scheinkorrelationen entstehen, wenn eine dritte Variable den scheinbaren Zusammenhang verursacht, während verdeckte Korrelationen auftreten, wenn sich gegenläufige Trends gegenseitig auslöschen. Das Kapitel erklärt auch, wie die Signifikanz einer Korrelation bestimmt wird, einschließlich der Verwendung von Hypothesentests und Permutationstests. Abschließend wird die Analyse nichtlinearer Korrelationen behandelt, die mit klassischen Methoden nicht erkannt werden können. Hier wird eine Methode vorgestellt, die auf lokalen Korrelationen basiert und die Nachbarschaftsdichte verwendet, um nichtlineare Zusammenhänge zu identifizieren. Diese Methode ermöglicht es, auch komplexe, nichtlineare Abhängigkeiten zwischen Variablen zu erkennen und zu quantifizieren. Das Kapitel bietet somit eine umfassende Übersicht über die verschiedenen Methoden der Korrelationsanalyse und deren Anwendungen in der Praxis.
  13. 12. Komponentenanalyse

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Die Komponentenanalyse ist ein leistungsfähiges Werkzeug zur Strukturierung und Vereinfachung von Daten, insbesondere wenn die Variablen miteinander korrelieren oder redundante Informationen enthalten. Der Fachbeitrag erklärt die Grundlagen der Hauptkomponentenanalyse (PCA) und Faktoranalyse, die beide lineare Modelle zwischen den Variablen mittels der Kovarianzmatrix aufstellen. Die PCA sucht einen niedrig-dimensionalen Unterraum, der die Daten am besten beschreibt, wobei die neuen Hauptkomponenten orthogonal zueinander stehen und die Originaldaten nach absteigender Varianz abbilden. Die Faktoranalyse hingegen schließt aus empirischen Beobachtungen auf latente Variablen (Faktoren). Der Text vertieft auch die Kernel-Hauptkomponentenanalyse (kPCA) und die Unabhängige Komponentenanalyse (ICA), die für nichtlinear separierbare Daten geeignet sind. Die kPCA transformiert Daten in einen Eigenschaftsraum, in dem sie linear separierbar sind, während die ICA unabhängige Komponenten aus vermischten Signalen extrahiert. Der Beitrag bietet praktische Beispiele und mathematische Herleitungen, um die Anwendung dieser Methoden zu verdeutlichen. Abschließend wird die Bedeutung der Komponentenanalyse für die Datenanalyse und Modellbildung hervorgehoben, insbesondere in der Technologie, Forschung und Entwicklung sowie in der Datenanalyse.
  14. 13. Clusteranalyse

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Die Clusteranalyse ist eine Methode des unüberwachten Lernens, die dazu dient, ähnliche Individuen in einem Datensatz in Gruppen (Cluster) zusammenzufassen. Diese Methode ist besonders nützlich, wenn der Datensatz zunächst unbekannt ist und ein grundlegendes Verständnis der Datenstruktur erforderlich ist. Der Fachbeitrag erklärt die verschiedenen Arten der Clusteranalyse, darunter partitionierende, hierarchische, dichtebasierte und gitterbasierte Verfahren. Besonders detailliert wird auf die hierarchische Clusteranalyse und die DBSCAN-Methode eingegangen, die in der Praxis häufig verwendet werden. Der Beitrag zeigt auch, wie Clusterinformationen zur Reduzierung der Datenmenge oder zur Klassifizierung neuer Daten verwendet werden können. Zudem werden die Vor- und Nachteile der verschiedenen Clusterverfahren diskutiert, um den Lesern zu helfen, das passende Verfahren für ihre spezifischen Anwendungen zu wählen. Der Fachbeitrag bietet somit einen umfassenden Überblick über die Clusteranalyse und deren praktische Anwendungen.
  15. 14. Sensitivitätsanalyse

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Sensitivitätsanalysen sind ein zentrales Werkzeug, um den Einfluss von Variablen auf Systemantworten zu verstehen. In diesem Kapitel werden drei Hauptbereiche der Sensitivitätsanalyse vorgestellt: Faktor Screening, lokale Sensitivitätsanalyse und globale Sensitivitätsanalyse. Faktor Screening dient der qualitativen Unterscheidung von signifikanten und nicht signifikanten Faktoren. Die lokale Sensitivitätsanalyse untersucht den Einfluss von Faktoren bei bestimmten Funktionswerten oder speziellen Faktorkombinationen, was beispielsweise für Stabilitätsanalysen genutzt wird. Die globale Sensitivitätsanalyse ermittelt den Einfluss von Faktoren über ihren gesamten Definitionsbereich und ist besonders geeignet, um die Signifikanz einzelner Faktoren zu vergleichen. Für lineare Modelle werden verschiedene Methoden wie normierte Regressionskoeffizienten, Partialsumme der Quadrate, partieller Determinationskoeffizient, Predictive Error Sum of Squares und partielle Korrelationsfaktoren vorgestellt. Bei nichtlinearen Modellen, die durch Neurale Netzwerke oder Support Vector Machines erzeugt werden, sind spezielle Verfahren wie das Korrelationsverhältnis und Sobol’s Kennzahl erforderlich. Diese Methoden ermöglichen eine genaue und aussagekräftige Analyse der Sensitivität von Faktoren auf Systemantworten, auch bei komplexen und nichtlinearen Zusammenhängen. Das Kapitel bietet eine umfassende Übersicht über die verschiedenen Ansätze und deren Anwendungsbereiche, was es zu einem wertvollen Ressourcen für Professionals in der Datenanalyse und Modellierung macht.
  16. 15. Strategie

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    Das Kapitel beschäftigt sich mit der strategischen Anwendung der statistischen Versuchsplanung (DoE) und bietet praktische Hinweise für die Umsetzung in der Praxis. Es beginnt mit einer qualitativen Systembeschreibung, die als zentraler Dreh- und Angelpunkt der DoE dargestellt wird. Hier werden Systemgrenzen, Qualitätsmerkmale und Faktoren definiert, die für den Versuchsplan relevant sind. Der Ablauf einer DoE-Anwendung wird in drei Phasen unterteilt: qualitative Systembeschreibung, Versuchsdurchführung und Auswertung, sowie Optimierung. Besonders betont wird die Bedeutung der Teamarbeit und der strukturierten Vorgehensweise, um komplexe Probleme effizient zu lösen. Der Text geht auch auf die Durchführung und Auswertung von Versuchen ein, wobei ein zweistufiges Vorgehen empfohlen wird: zunächst ein Screening der Faktoren und anschließend eine detaillierte Untersuchung der relevanten Faktoren. Die Verwendung von Software und die Integration von CAE-Modellen werden ebenfalls behandelt, wobei die Vorteile und Herausforderungen dieser Methoden diskutiert werden. Abschließend wird die Bedeutung von Hybrid Analytics für die Datenintegration und -analyse in Unternehmen hervorgehoben, wobei die Kombination spezialisierter Analysewerkzeuge mit plattformübergreifenden Reporting- und BI-Systemen betont wird. Der Text bietet eine umfassende Anleitung für die praktische Anwendung der DoE und zeigt auf, wie durch eine strukturierte Vorgehensweise und Teamarbeit effiziente Lösungen für komplexe Probleme gefunden werden können.
  17. 16. Strategie für komplexe Systeme

    Karl Siebertz, David van Bebber, Thomas Hochkirchen
    In diesem Kapitel wird eine detaillierte Strategie für die Analyse komplexer Systeme vorgestellt. Der Prozess ist in mehrere Schritte unterteilt, darunter Vorbereitung und Planung, Erstellung eines Versuchsplans, Experimentdurchführung, Datenanalyse und Optimierung. Jeder Schritt wird ausführlich beschrieben, wobei besondere Aufmerksamkeit der Vorbereitungsphase gewidmet wird, da diese oft vernachlässigt wird und entscheidend für den Projekterfolg ist. Der Text betont die Bedeutung einer gründlichen Planung und die Klärung grundlegender Fragen wie Ziele, Ressourcen und Qualitätsmerkmale. Zudem werden Strategien für die Erstellung von Versuchsplänen, die Durchführung von Experimenten und die Erzeugung von Metamodellen diskutiert. Die Analyse der Daten und Metamodelle sowie die Optimierung der Systeme sind weitere zentrale Themen. Abschließend wird die Bedeutung einer umfassenden Dokumentation hervorgehoben, um die Nachvollziehbarkeit und Wiederverwendbarkeit der Ergebnisse zu gewährleisten. Dieser Fachbeitrag bietet wertvolle Einblicke und praktische Anleitungen für Professionals, die komplexe Systeme analysieren und optimieren möchten.
  18. Backmatter

Titel
Statistische Versuchsplanung
Verfasst von
Karl Siebertz
David van Bebber
Thomas Hochkirchen
Copyright-Jahr
2026
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-73091-1
Print ISBN
978-3-662-73090-4
DOI
https://doi.org/10.1007/978-3-662-73091-1

Die PDF-Dateien dieses Buches entsprechen nicht vollständig den PDF/UA-Standards, bieten jedoch eingeschränkte Bildschirmleseunterstützung, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen zur einfachen Navigation sowie durchsuchbaren und auswählbaren Text. Nutzer von unterstützenden Technologien können Schwierigkeiten bei der Navigation oder Interpretation der Inhalte in diesem Dokument haben. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen. 

    Bildnachweise
    MKVS GbR/© MKVS GbR, Nordson/© Nordson, ViscoTec/© ViscoTec, BCD Chemie GmbH, Merz+Benteli/© Merz+Benteli, Robatech/© Robatech, Ruderer Klebetechnik GmbH, Xometry Europe GmbH/© Xometry Europe GmbH, Atlas Copco/© Atlas Copco, Sika/© Sika, Medmix/© Medmix, Kisling AG/© Kisling AG, Dosmatix GmbH/© Dosmatix GmbH, Innotech GmbH/© Innotech GmbH, Hilger u. Kern GmbH, VDI Logo/© VDI Wissensforum GmbH, Dr. Fritz Faulhaber GmbH & Co. KG/© Dr. Fritz Faulhaber GmbH & Co. KG, ECHTERHAGE HOLDING GMBH&CO.KG - VSE, mta robotics AG/© mta robotics AG, Bühnen, The MathWorks Deutschland GmbH/© The MathWorks Deutschland GmbH, Spie Rodia/© Spie Rodia, Schenker Hydraulik AG/© Schenker Hydraulik AG