Skip to main content
Top
Published in:

Open Access 22-10-2024 | Schwerpunkt

Formative Evaluation digitaler Weiterbildung im Handwerk: Eine Prozessbeschreibung zur Förderung der digitalen Transformation im Tischler- und Steinmetzhandwerk

Authors: Ina Friedrich, Melisa Tasliarmut, Holger Hoffmann, Marc Schwarzkopf, Angelika C. Bullinger

Published in: HMD Praxis der Wirtschaftsinformatik | Issue 6/2024

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Traditionell werden im Tischler- und Steinmetzhandwerk spezifische Fachkenntnisse durch das Prinzip des „learning by doing“ unter Anleitung qualifizierter Kolleg:innen oder im Fall von Maschinen durch herstellergebundene Präsenzschulungen vermittelt. Diese Art der Weiterbildung wird jedoch nur in seltenen Fällen hinsichtlich des Lernerfolgs, der Usability, der Didaktik sowie der zielgruppenspezifischen Passung systematisch evaluiert. Digitale Weiterbildungsformate gewinnen für die Vermittlung dieser Kompetenzen zunehmend an Bedeutung, da sie den Wissenszuwachs zeit- und ortsunabhängig ermöglichen und im dynamischen Arbeitsumfeld des Handwerks Unterbrechungen des Lernprozesses zulassen. In der bestehenden Literatur fehlen jedoch Vorgehensmodelle zur Entwicklung und Evaluation sowie Erkenntnisse über die konkreten Bedürfnisse von Lerner:innen im Handwerk.
Dieser Beitrag präsentiert daher einen formativen Evaluationsprozess, der auf den Prinzipien des Design-based Research und des User-centered Design basiert. Er erläutert detailliert die Planung des Evaluationsprozesses und der eingesetzten Methoden sowie die daraus resultierenden Ergebnisse. Der Evaluationsansatz fördert nicht nur die kollaborative Arbeit mit Praktiker:innen, sondern berücksichtigt auch die Bedürfnisse der Lerner:innen im Handwerk durch einen iterativen Evaluationsprozess. Im Rahmen von mehrfachen Design- und Redesign-Phasen wurden Konstrukte wie Usability, Lernmotivation und Akzeptanz durch qualitative und quantitative Methoden erhoben. Die Ergebnisse zeigen, dass eine intensive Nutzer:innenintegration und die fortlaufende Anpassung digitaler Bildungsangebote hilfreich für die erfolgreiche Umsetzung digitaler Lehr- und Lernformate im Handwerk sind. Die Resultate unterstreichen die Bedeutung einer formativen Evaluation als Instrument zur Entwicklung nutzer:innenzentrierter digitaler Bildungsressourcen und leisten einen wichtigen Beitrag zur Evaluation von digitalen Bildungsangeboten im Handwerk.
Notes

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

1 Einleitung

Fachkräfte im Tischler- und Steinmetzhandwerk erlangen aktuell praxisorientiertes Fachwissen, indem sie entweder durch erfahrene Kolleg:innen angelernt werden oder an mehrtägigen Schulungen teilnehmen, die für maschinenbezogenes Wissen von den Herstellern angeboten werden. Die diversen Lernvoraussetzungen der Teilnehmer:innen, gekennzeichnet durch unterschiedliche formale Qualifikationen und die Notwendigkeit, diese Schulungen parallel zum laufenden Betrieb zu integrieren, können aus ökonomischen und zeitlichen Gründen nur selten adäquat berücksichtigt werden (Tasliarmut et al. 2022). Darüber hinaus werden die Teilnehmer:innen in der Regel nicht in die Konzeption der Lerninhalte einbezogen und es findet nur in seltenen Fällen eine Wirksamkeitsprüfung statt.
Im Zuge der fortschreitenden Digitalisierung gewinnen Online-Lernumgebungen, die zeit- und ortsunabhängiges Lernen ermöglichen, zunehmend an Bedeutung (De Witte und Chénier 2023). Allerdings sind im Handwerk passgenaue digitale Lösungen im Vergleich zu anderen industriellen Sektoren bisher unterrepräsentiert (Bosbach et al. 2024). Unternehmen in diesem Sektor zeigen sich zwar aufgeschlossen gegenüber Digitalisierungsmaßnahmen, sehen jedoch den Mangel an interner Kompetenz und Qualifikation als wesentliches Hindernis (Ehlert und Hennecke 2022). Gleichzeitig liegt die Herausforderung darin, dass konkrete Empfehlungen und Modelle zur Gestaltung digitaler Lehr-Lernarrangements speziell für das Handwerk fehlen (ZWH 2021). Das bedeutet zum einen, dass eine umfassende Integration der Nutzer in die Entwicklung noch nicht ausreichend erfolgt ist und andererseits, dass systematische Evaluationen zur Gewährleistung der Lehrqualität und -effektivität sowie der Passung bislang vernachlässigt wurden. In der Folge können wiederum die Akzeptanz und Wirksamkeit der digitalen Lösungen eingeschränkt sein.
Demnach rücken Unterstützungsmaßnahmen für die Implementierung digitaler Technologien und den Ausbau digitaler Kompetenzen verstärkt in den Fokus (Bosse et al. 2019; Thonipara et al. 2020), um die (Weiter‑)Bildung im Handwerk zukunftsfähig zu gestalten. Der Einbezug der Mitarbeiter:innen und die Berücksichtigung ihrer Bedürfnisse sind entscheidend für den Erfolg der digitalen Transformation. Dies erfordert eine strukturierte Vorgehensweise und die frühzeitige Integration der Interessen des Handwerkssektors sowie der Nutzer:innen bereits in der Konzeptionsphase von digitalen Weiterbildungsangeboten (Bosbach et al. 2024). Eine solche Vorgehensweise stellt sicher, dass die Bildungsangebote präzise auf die Bedürfnisse des Handwerks zugeschnitten sind und somit Wirksamkeit und Akzeptanz gewährleisten.
Um diesen Herausforderungen zu begegnen, wurde die Entwicklung eines digitalen Weiterbildungsangebots zur Vermittlung von CNC-Kenntnissen begleitet und mittels eines formativen Evaluationsprozesses iterativ optimiert. Formative Evaluationen zielen darauf ab, Feedback zu liefern, das zur Optimierung von Bildungsmaßnahmen oder Programmen genutzt wird, um die Effektivität zu erhöhen und die gewünschten Ziele effizienter zu erreichen (Scriven 1996). Das Weiterbildungsangebot beabsichtigt, eine Schnittstelle zur Anwendung digitaler Technologien zu etablieren, indem es CNC-Kenntnisse mittels digitaler Lernmethoden vermittelt. Die spezifischen Lernbedürfnisse des heterogenen Handwerkssektors im Kontext digitaler Bildungsformate wurden bislang nur unzureichend adressiert und fokussierten sich überwiegend auf betriebliche oder kompetenzorientierte Anforderungen (BIBB 2022; Guhlemann et al. 2023). Im Bereich der CNC-Kompetenzen ist die Forschung weniger umfassend und tendiert dazu, sich vornehmlich auf didaktisch-technische Aspekte in der Entwicklung digitaler Angebote zu konzentrieren (Goppold et al. 2022). Die formative Evaluation bietet aus einer Kosten-Nutzen-Perspektive einen strategisch und ökonomisch sinnvollen Ansatz (Brown und Gerhardt 2002), da sie im Gegensatz zur summativen Evaluation, die am Ende einer Produktentwicklung die Wirksamkeit prüft, bereits in einer frühen Konzeptionsphase unter Einbezug der Nutzer:innen ansetzt und die schrittweise Optimierung anstrebt. Sie begleitet den gesamten Entwicklungsprozess eines Weiterbildungsangebotes und zielt darauf, kontinuierlich spezifische Verbesserungsmöglichkeiten unter Berücksichtigung der Nutzer:inneninteressen zu identifizieren (Sarodnick und Brau 2016). Gleichzeitig beschreiben bisherige Forschungsarbeiten nur selten konkrete evaluierte Konstrukte oder Mixed-Methods-Evaluationsprozesse in der Praxis, sondern konzentrieren sich häufig lediglich auf die Konkretisierung einzelner Methoden des Prozesses (Gould et al. 2008; Yamada et al. 2016; Mavrikis et al. 2019; Hayat et al. 2021; Tasliarmut et al. 2024).
Ziel dieses Beitrags ist daher die Vorstellung eines formativen Evaluationsprozesses bei der Entwicklung eines digitalen Weiterbildungsangebots im Tischler- und Steinmetzhandwerk. Basierend auf dem Design-based Research (DBR) und User-centered Design-Ansatz (UCD) wurde ein digitales Lehrangebot zur Vermittlung von CNC-Kompetenzen entwickelt und durch iterative Evaluationen optimiert. Die heterogen zusammengesetzte Gruppe der Nutzer:innen, charakterisiert durch diverse formale Qualifikationen, partizipierte in mehreren Erprobungszyklen. Hierbei kam ein Mixed-Methods-Ansatz zur Anwendung, der Aspekte wie Usability, Lernmotivation und Akzeptanz einbezog. Die Darstellung des Evaluationsprozesses und der Ergebnisse dient als Vorlage für die formative Evaluation nutzer:innenzentrierter Weiterbildungsangebote und ermöglicht dadurch die Entwicklung nachhaltiger, an den Anforderungen der Nutzer:innen ausgerichteter digitaler Weiterbildungsangebote. Dies trägt langfristig maßgeblich zur Stärkung der digitalen Kompetenzen im Handwerkssektor bei.

2 Nutzer:innenzentrierte Entwicklung und Evaluation

Die Entwicklung und Erprobung des digitalen Weiterbildungsbildungsangebotes folgen dem DBR-Ansatz, um Lerner:innen im Handwerk die Möglichkeit zu bieten, konkrete, praxisrelevante Probleme zu erkunden und somit eine effektive Transferleistung in ihre beruflichen Kontexte zu ermöglichen. Der DBR-Ansatz wird angewendet, da er in der ersten Phase („Vorprüfung“) theoriegeleitet praxisrelevante Probleme identifiziert. Dies ist besonders geeignet, um im vorliegenden Kontext eine Theorie-Praxis-Lücke zu vermeiden (Schmiedebach und Wegner 2021). Um die inhaltlichen Interessen des Handwerks und die forschungsseitig begleitete Entwicklung, Erprobung und Evaluation zusammenzubringen, ist eine enge Zusammenarbeit zwischen Wissenschaftler:innen und Praktiker:innen notwendig. Dieser interdisziplinäre Fokus wird ebenfalls vom DBR adressiert (Anderson und Shattuck 2012). Der kollaborative Ansatz des DBR gewährleistet somit die Relevanz und Durchführbarkeit der Interventionen im praktischen Bildungsalltag, was für eine nachhaltige Implementierung von digitalen Lernszenarien unabdingbar ist.
Allerdings kommt der Entwicklung von digitalen Weiterbildungsformaten im Handwerk eine besondere Rolle zu: das Lernangebot richtet sich an eine heterogene Zielgruppe aus Fachkräften, Quereinsteiger:innen und anderen Weiterbildungsinteressierten, deren individuelle Lernvoraussetzungen, Lernstrategien und Lernpräferenzen zu berücksichtigen sind. Für die Erfassung dieser unterschiedlichen Bedürfnisse ist im DBR-Ansatz keine eigene Phase vorgesehen, da die vom Ansatz angedachten Adressaten eine homogenere Gruppe darstellen, wie beispielsweise eine Schulklasse, deren Mitglieder sich durch ähnliche Bildungshintergründe, Altersstufen und Lernerfahrungen auszeichnen.
Die Vorteile des kollaborativen Ansatzes des DBR mit Einbezug wichtiger Stakeholder (Fachverbände, Didaktiker:innen, Lehrpersonen) werden daher durch den UCD-Prozess gemäß DIN EN ISO 9241-210 (2020) ergänzt. Der UCD-Prozess fokussiert in der initialen Phase („Zielgruppenanalyse“) die detaillierte Erfassung wesentlicher Charakteristika der Zielgruppe, einschließlich ihrer Aufgaben, Ziele und Umgebungsbedingungen. Diese präzise Analyse des Nutzungskontextes ist entscheidend, um die Akzeptanz und das anhaltende Engagement der Nutzer:innen zu fördern. Die initiale Zielgruppenanalyse ermöglicht es, basierend auf dem Feedback der Nutzer:innen, kontinuierlich Schlussfolgerungen für die Weiterentwicklung zu ziehen und fundierte Einsichten in den Nutzungskontext sowie die spezifischen Anforderungen der Zielgruppe zu erlangen. Die Anwendung der UCD-Richtlinien sichert somit die systematische Integration von Nutzer:innengruppen in den Entwicklungsprozess (Bevan 2009). Die Kombination aus DBR und UCD fördert eine fortlaufende Optimierung des Bildungsangebots, wobei die stetige Einbindung der Nutzer:innen sicherstellt, dass das finale Produkt deren Bedürfnisse und Erwartungen effektiv erfüllt. Beide Ansätze verfolgen die Nutzung verschiedener Methoden und betonen iterative Verbesserungsprozesse im Zuge wiederholter Testzyklen, um die Wirksamkeit der Interventionen kontinuierlich zu steigern. Durch die iterative Entwicklung und Optimierung des digitalen Lernangebotes können Stakeholder ebenso wie die Zielgruppe bereits frühzeitig auf erste Entwicklungsstände zugreifen und somit in der Entwicklung Probleme, Kritik und Wünsche im Vorfeld übermitteln.
Die Verknüpfung der DBR- und UCD-Ansätze bilden damit die Basis für die Entwicklung digitaler Lernangebote, die die spezifischen Bedürfnisse und Erwartungen der Zielgruppe berücksichtigen. Dieser integrative und iterative Ansatz stellt sicher, dass die Weiterbildungsangebote nicht nur in der Theorie, sondern auch in der Anwendung überzeugen. In diesem Zusammenhang spielt die formative Evaluation eine zentrale Rolle, da sie es ermöglicht, die Effektivität und Akzeptanz der Bildungsangebote fortlaufend zu überprüfen und zu optimieren. Durch formatives Feedback können spezifische Anpassungen vorgenommen werden, die auf realen Nutzer:innenerfahrungen basieren und so die Brücke zwischen theoretischer Planung und praktischer Umsetzung schlagen. Dadurch wird ein tieferes Verständnis der Lernprozesse und -ergebnisse ermöglicht, welches für die fortlaufende Verbesserung und Anpassung des Weiterbildungsangebots unerlässlich ist (Hense 2010; Gollwitzer und Jäger 2014; Sarodnick und Brau 2016). Typische Datenerhebungsinstrumente bei formativen Evaluationen umfassen offene und strukturierte Interviews, Fokusgruppen, die Methode des lauten Denkens (Konrad 2010) sowie standardisierte Fragebögen. Darüber hinaus eignen sich im Kontext von digitalen Weiterbildungsangeboten auch Logfiles, um objektive Daten über das Nutzungsverhalten zu erhalten und Implikationen über Fehleranfälligkeit und Effizienz der Einzelkomponenten eines Lernangebotes abzuleiten (Huber und Bannert 2023). In der Folge ergeben sich objektive Daten, die auf beobachteten oder gemessenen Ergebnissen basieren, und subjektive Daten, welche die Meinungen der Nutzer:innen oder Einschätzungen von Expert:innen widerspiegeln (Hix und Hartson 1993; Gediga und Hamborg 2002).

3 Gestaltung des formativen Evaluationsprozesses

Der formative Evaluationsprozess wurde in Übereinstimmung mit den Prinzipien des UCD und DBR geplant und orientierte sich vom zeitlichen Ablauf an existierenden Strukurierungsmodellen der Evaluationsforschung (Gollwitzer und Jäger 2014). Hierbei wird zwischen der „ex-ante“ Konzeptionsphase (auch prospektive Evaluation), der „on-going“ Implementierungsphase (auch Prozessevaluation) sowie der „ex-post“ summativen Outputbewertung (auch Ergebnisevaluation) unterschieden. Die Phasen und damit einhergegangene Gestaltungsentscheidungen für den vorliegenden Kontext sind Abb. 1 zu entnehmen. Da der Fokus auf den „ex-ante“- und „on-going“-Phasen lag, werden diese in den Abschn. 3.1 und 3.2 vorgestellt. In Ergänzung zur allgemeinen Evaluationsstrukturierung gemäß Abb. 1, die aufgrund ihrer weitgefassten Darstellung für die Evaluation von Digitalisierungstransformationen im Allgemeinen anwendbar ist, sollen die konkreten Erhebungs- und Auswertungsinstrumentarien vorgestellt werden, wie sie über drei Erprobungsphasen hinweg umgesetzt wurden. Diese detaillierte Vorstellung ermöglicht es, die methodischen Entscheidungen, die für jede der drei Erprobungen getroffen wurden, nachzuvollziehen.

3.1 „Ex-ante“-Phase

Die „ex-ante“-Phase umfasste alle Vorüberlegungen zu den vorliegenden handwerksspezifischen Rahmenbedingungen. Dazu gehörte die Ausformulierung des zu evaluierenden Inhaltsbereiches, die antizipierten allgemeinen Zieldimensionen, die Planung der Datenerhebung und -auswertung, des Feldzugangs und die Zeitplanung (vgl. Abb. 1). Ausgehend vom DBR wurde für das Weiterbildungsangebot zunächst der allgemeine Evaluationsbereich definiert und besteht demzufolge aus einem Web Based Training (WBT) in Form eines digitalen CNC-Lernplatzes zur Vermittlung von CNC-Basiskenntnissen durch fünf CAD (Computer-Aided Design) – und fünf CAM (Computer-Aided Manufacturing)-gestützte Aufgaben. CAD bezieht sich auf das rechnergestützte Konstruieren von Teilen oder Produkten, die anschließend mithilfe von CAM in definierten Fertigungsabläufen geplant und erstellt werden. Im Rahmen des Weiterbildungsangebots bilden beide Softwareanwendungen die essenzielle Basis für die Herstellung eines Teils oder Produktes an der CNC-Maschine durch Prozesse wie Schneiden, Bohren oder Fräsen. Nach Abschluss des webbasierten Trainings folgt eine kurze Präsenzphase an der CNC-Maschine, während der ein Werkstück aus den CAD-/CAM-Aufgaben praktisch hergestellt wird. Die Transferierbarkeit der Lernaufgaben wird in Vorbereitung auf die Präsenzphase an der CNC-Maschine durch die Entwicklung von zwei Wissenstests zu den Bestandteilen der CNC-Maschine sowie zum Produktionsprozess bei der Herstellung eines Produktes an der CNC-Maschine gewährleistet. Nach erfolgreicher Absolvierung dieser vorgelagerten Tests können die Teilnehmer:innen an ausgewählten Standorten einen Präsenzphasentermin innerhalb des Lernplatzes buchen. Vor Ort werden Sie von einer Lehrperson bei der Herstellung des Werkstücks an der CNC-Maschine geleitet und unterstützt. Ziel der Präsenzphase ist die Vermittlung von Praxiskönnen und eine Validierung der im Lernplatz erlernten CNC-Kenntnisse. Die Implementierung des Lernplatzes erfolgte auf dem Open Source Lernmanagementsystem ILIAS mit dem Ziel die Nutzer:innengruppe von Fachkräften, Quereinsteiger:innen und Weiterbildungsinteressierten vorrangig aus dem Tischler- und Steinmetzhandwerk zu adressieren. Das digitale Weiterbildungsangebot bietet den Vorteil, dass es das Erlernen von Basiskenntnissen im Umgang mit CNC-Technik unabhängig von der Teilnehmendenzahl sowie zeit- und ortsflexibel ermöglicht. Es vermittelt CNC-Kenntnisse, die nicht an spezielle Maschinenhersteller oder das Wissen erfahrener Kolleg:innen gebunden sind, und gewährleistet somit einen personenunabhängigen und niedrigschwelligen Einstieg. Als allgemeine Zieldimensionen, die langfristig erfüllt werden sollen, um ein positives Nutzungserlebnis und Lerneffekte zu garantieren, wurden gestalterische, akzeptanz- und lernmotivationsbezogene Kriterien festgelegt.
Angesichts des Defizits an bestehenden Referenzwerten oder wissenschaftlichen Publikationen, die die spezifischen Lernbedürfnisse und Erwartungen von Personen im Handwerkssektor in Bezug auf digitale Bildungsformate z. B. in Hinblick auf zeitliche Ressourcen oder Präferenzen für Gamification untersuchen, war eine tiefergehende Zielgruppenanalyse erforderlich. Diese ermöglichte eine präzise Differenzierung der Zieldimensionen. Zur Zielgruppenanalyse gemäß des UCD-Prozesses wurden Charakteristika und Anforderungen der Zielgruppe bzw. des Nutzungkontextes mittels Fragebögen, Interviews auf Handwerksmessen mit einem Telepräsenzroboter (TPR), Personas, Customer Journeys und User Stories systematisch erfasst (Tasliarmut et al. 2022; Friedrich et al. 2024). Diese vorangestellte Maßnahme in der „ex-ante“-Phase berücksichtigte die Integration der Zielgruppe in den Entwicklungsprozess und stellte sicher, dass das erste Design des Lernplatzes eng an die spezifischen Bedürfnisse und Präferenzen der Nutzer:innen ausgerichtet wurde. So konnten relevante Informationen über die Erwartungen der Nutzer:innen gesammelt werden, die beispielsweise ihre Beweggründe für Weiterbildungen offenlegten sowie den Status quo zu CNC-Kenntnissen und zur Verfügbarkeit von technischen und zeitlichen Ressourcen darlegten. Im Rahmen der Zielgruppenanalyse wurde ein Anforderungskatalog als Medium zur stetigen Orientierung über die iterativen Redesignphasen erstellt.
Die vorgesehenen Erhebungsphasen beliefen sich auf drei Erprobungen mit vorangestellten Lernlaboren, um dem hohen Komplexitätsgrad bei der Entwicklung eines digitalen Weiterbildungsangebotes gerecht zu werden (Hense 2010) und adäquate Zeiträume für die Datenerhebung und -auswertung sowie die daran anschließenden erneuten iterativen Entwicklungszyklen zu gewährleisten. Bei einer Anwendung des Prozesses in anderen Kontexten sollte eine entsprechende Anpassung je nach Evaluationsgegenstand erfolgen. Die sogenannten Lernlabore wurden im Sinne eines Prätests vorgeschaltet, um offensichtliche Programmierfehler oder Inkonsistenzen in den Inhalten zu identifizieren und entsprechende Anpassungen vorzunehmen, bevor der Lernplatz einem breiteren Publikum zur Evaluation zur Verfügung gestellt wird. Hierfür bearbeiteten ausgewählte Lerntester:innen die verfügbaren Inhalte und notierten in einem Template Auffälligkeiten, wie Bugs, Rechtschreibfehler und generelle Inkonsistenzen. Auf Fragebögen und Interviews wurde in dieser Phase zur schnelleren Umsetzbarkeit der Anmerkungen verzichtet. Um die Rekrutierung der für die Lernlabore und Erprobungen notwendigen Teilnehmer:innen zu gewährleisten, wurde bereits in der „ex-ante“-Phase der Austausch mit nutzer:innennahen Stakeholdern wie Fachverbänden, Handwerkskammern, handwerksnahen Bildungseinrichtungen sowie Fachmessenbesucher:innen gesucht.
Zu den Vorüberlegungen gehörte ebenfalls, dass im Anschluss an die Lernlabore die mehrwöchige Erprobungsphase zur Datensammlung mittels eines Mixed-Methods-Ansatzes begann und danach die Datenauswertung anschließt. Die aus den Daten gewonnenen Ergebnisse sollten wiederum in eine anwendungsbezogene Datenexplikation mit Einordnung und Priorisierung in thematische Schwerpunkte in das Redesign einfließen. Dieser Ablauf (Zieldimensionen bestimmen, Instrumente erstellen oder anpassen, Lernlabore durchführen, Anpassungen vornehmen) sollte über drei Erprobungen bzw. vier Prototypendesigns hinweg in der „on-going“-Phase je nach Ist-Stand auf notwendige Änderungen geprüft werden, wobei nach dem vierten Design die summative Evaluation („ex-post“-Phase) anschließen sollte.

3.2 „On-going“-Phase

Die „on-going“-Phase legte den Schwerpunkt auf die konkrete Umsetzung der Maßnahmen zur formativen Evaluation gemäß der „ex-ante“-Konzeption. Für jede Designschleife wurden die Zieldimensionen in Abhängigkeit vom Ist-Stand des Lernplatzes reflektiert und Erhebungs- sowie Auswertungsinstrumentarien zusammengestellt. Für die formative Evaluation wurde eine Kombination aus qualitativen und quantitativen Methoden für die Erhebung der Zieldimensionen gewählt. Zum Einsatz kamen Fragebögen, Interviews, die Methode des lauten Denkens, die Hospitation der Präsenzphase gefolgt von Fokusgruppen sowie Logfileanalysen. Die komplementär eingesetzten Methoden sollten nicht nur gestalterische, akzeptanz- und lernmotivationsbezogene Ergebnisse liefern und Probleme identifizieren, sondern auch konkrete Verbesserungs- und Lösungsvorschläge generieren.
Die Zieldimension des in der ersten Erprobung noch rudimentären Prototyps lag im intuitiven Aufbau des Lernplatzes (Navigation, Platzierung der Buttons, Nutzungspfade, didaktisches Heranführen). Entsprechend wurde zur Erfassung der unmittelbaren Teilnehmer:innenreaktionen die Methode des lauten Denkens herangezogen (Konrad 2010). Die Methode des lauten Denkens während der Bearbeitung sowie teilstandardisierte (Online‑)Interviews im Anschluss der Testung des Lernplatzes dienten der Gewinnung von spezifischen Gedanken, Emotionen, Stärken, Schwächen und Verbesserungsvorschlägen bei der Bedienung. Die Interviews dienten vor allem der zeitnahen Diskussion über die während des lauten Denkens benannten Auffälligkeiten sowie der Erhebung allgemeiner Wünsche und Präferenzen der Lerner:innen. Des Weiteren wurden unmittelbar nach der Methode des lauten Denkens vier Kurzfragebögen eingesetzt, die demografische Daten erfassten und in denen die drei Inhaltsbereiche (CAD, CAM, Exkurs) bezüglich ihrer Usability und der Lernmotivation bewertet wurden. Die Kurzfragebögen wurden als Methode gewählt, um erstmalig eingesetzte Instrumentarien zur Usability und Lernmotivation zu pilotieren.
Der Fokus der zweiten Erprobung lag auf dem Design und neuen Funktionalitäten im Lernplatz, sodass die intuitive Bedienung sowie Nützlichkeit der Hilfestellungen als Zieldimensionen festgelegt wurden. Mittlerweile lag ein überarbeiteter Lernplatz vor, der durch einen erweiterten Funktionsumfang und einhergehend einer erhöhten Bearbeitungszeit gekennzeichnet war. Die Rückmeldungen der Lerner:innen aus der ersten Erprobungsphase beeinflussten maßgeblich die Auswahl der Methoden. Insbesondere die Hinweise der Lerner:innen auf limitierte zeitliche Ressourcen im Alltag, die eine Präferenz für selbstständiges Lernen nach individueller Verfügbarkeit nahelegten, führten dazu, dass ab der zweiten Erprobung auf die Methode des lauten Denkens verzichtet wurde. Zudem äußerten die Teilnehmer Kritik an der redundanten Wiederholung von Fragebogeninstrumenten zur Bewertung verschiedener Bestandteile des Lernplatzes. Folglich wurden ab der zweiten Erprobung Nutzungsdaten, sogenannte Logfiles, als objektive Datenquelle herangezogen, um die Informationsqualität zwischen den verschiedenen Methoden zu vergleichen und die Entbehrlichkeit bestimmter Fragebögen zu evaluieren (Tasliarmut et al. 2024). Logfiles erlauben das Tracking von vorab definierten Aktionen, Zugriffszeiten, URLs oder Fehlermeldungen. Im Gegensatz zu den vorgenannten retrospektiven subjektiven Methoden erfassen sie kontinuierlich und in Echtzeit Interaktionen mit dem digitalen Lernangebot und liefern Erkenntnisse über Nutzungsmuster und -präferenzen (Hadwin et al. 2007; Huber und Bannert 2023). Weiterhin wurden die demografischen Daten, die interaktionsbezogene Technikaffinität, die Usability, die Lernmotivation und der aufgabenspezifische bzw. allgemeine Eindruck mittels vier in den Lernplatz integrierten Fragebögen erfasst. Diese Fragebögen zielten darauf ab, sowohl einzelne Komponenten als auch die Gesamteinschätzung des Lernplatzes zu bewerten. Zudem enthielten sie offene (optionale) Fragen, die auf die Erfassung von positiven und negativen Aspekten sowie Idealvorstellungen abzielten. Um die Bearbeitungsdauer pro Fragebogen zu kürzen und somit Ausfälle zu vermeiden, wurden die Konstrukte in der Regel auf mehrere Kurzfragebögen aufgeteilt. Durch die zeitunabhängige Bearbeitung der Lernplatzaufgaben über die mehrwöchige Erprobungsphase hinweg bestand somit die Möglichkeit, Pausen einzulegen.
In der dritten Erprobung stand neben fünf Lernaufgaben auch eine erstmalig durchführte Präsenzphase an einer CNC-Maschine im Mittelpunkt. Die Zieldimensionen umfassten einerseits gestalterische, funktionelle und lernmotivationsbezogene Kriterien für die Lernaufgaben und andererseits die Akzeptanz sowie die Wirksamkeit der Präsenzphase als ergänzendes Angebot, um die digital erlernten Inhalte zu festigen. Aufgrund der zeitunabhängigen Bearbeitung der fünf Lernaufgaben wurden sechs Fragebögen als primäre Evaluationsmethode ausgewählt, da nicht alle Lerner:innen an der nachgelagerten Präsenzphase teilnehmen konnten. Dies ermöglichte eine unmittelbare Bewertung der Lernaufgaben im Lernplatz, um eine umfassende Einschätzung zu gewährleisten. Die Logfileanalyse, die sich in der zweiten Erprobung als effektive zusätzliche Methode erwiesen hatte, wurde erneut implementiert.
Für die Evaluierung der Präsenzphase wurden die Methoden der Hospitation, Fragebögen sowie Fokusgruppen ausgewählt, um die variierenden Arbeitsrealitäten von unterschiedlich großen Bildungseinrichtungen und Unternehmen angemessen zu berücksichtigen. Zum einen wurde die Präsenzphase vor Ort bei einer Bildungsstätte begleitet und protokolliert, zum anderen wurde der Einsatz eines Telepräsenzroboters (Modell Double 3) zur Beobachtung pilotiert. Lerner:innen und Lehrpersonen an den verschiedenen Präsenzstandorten wurden sowohl zu ihrer Wahrnehmung und möglichen Verbesserungsvorschlägen bezüglich der Wissenstests als auch zur Gestaltung und Lernwirksamkeit der Präsenzphase im Rahmen von Fokusgruppen und zwei Fragebögen befragt. Die Fokusgruppen sollten sicherstellen, dass Diskussionen zur Gestaltung und Wirksamkeit unter Berücksichtigung verschiedener fachbezogener und lernmotivatorischer Hintergründe geführt werden. Alle qualitativen Methoden wurden entweder mittels Aufnahmegerät oder innerhalb der Videokonferenz unter Beachtung der Datenschutzrichtlinien aufgezeichnet. Ein Überblick, welche Methoden und inhaltlichen Spezifika je Erprobung priorisiert wurden, ist Abb. 2 zu entnehmen.
In Tab. 1 sind für jede Erprobung spezifisch angewandten Konstrukte bzw. inhaltlichen Spezifika, die aufbauend auf den identifizierten Zieldimensionen zusammengestellt wurden, dargestellt. Darüber hinaus sind der Tabelle Beispielitems zu entnehmen, die als Impuls für zukünftige Evaluationsprojekte dienen können.
Tab. 1
Inhaltliche und instrumentbezogene Spezifika sowie ihr Einsatz über die drei Erprobungen hinweg
Inhalt (Spezifika)
Beispiele
Iteration (1/2/3)
Demografische Angaben (eigene Zusammenstellung von Items)
Alter, Geschlecht, schulischer/beruflicher Abschluss, Berufsfeld, Berufserfahrung, CAD/CAM/CNC-Kenntnisse, Erfahrungen mit CAD/CAM-Software
1/2/3
Interaktionsbezogene Technikaffinität (ATI) (Franke et al. 2019)
Z. B. „Ich beschäftige mich gern genauer mit technischen Systemen.“
1/2/3
Usability (System Usability Scale (SUS)) (Gao et al. 2020)
Z. B. „Ich kann mir gut vorstellen, dass ich den Lernplatz häufig nutzen würde.“
1/2/3
Lernmotivation (in Anlehnung an SINUS-Skala Intrinsische Lernmotivation) (Seidel et al. 2003)
Z. B. „Beim Durcharbeiten der ersten Aufgabe war ich mit Freude dabei.“
1/2/3
Allgemeiner Eindruck (Lautes Denken)
Kategorisierung der Äußerungen: technische Schwierigkeiten, Emotionen, Hilfestellungen, Vorschläge, Globaler Eindruck, Inhalt
1
Allgemeiner Eindruck (eigene Zusammenstellung von Items)
Bewertung Lernvideos, Aufgabenstellung, Übersichtlichkeit, Bedienung, Rückmeldungen, Wissen, Zufriedenheit insgesamt/einzelne Lernplatzbestandteile; z. B. „Die grafische Darstellung beim Programmieren war schwer lesbar.“
2/3
Aufgabenspezifische Abfrage (eigene Zusammenstellung von Items)
Einschätzung des Schwierigkeitsgrades, Abfrage nach (technischen, inhaltlichen) Problemen; z. B. „Wie schwierig empfandest du die CAD-Zeichenaufgabe?“
2/3
Allgemeiner Eindruck (teilstandardisiertes Interview)
Positive/negative Rückmeldung, Navigation, Schwierigkeitsgrad, Detailgrad, Zusatzangebote, Motivation über Bearbeitung hinweg; z. B. „Wenn du an den Lernplatz zurückdenkst, inwiefern hast du die Hilfestellungen genutzt?“
1/2
Eindruck zur Präsenzphase (Fokusgruppe)
Einschätzung der Wirksamkeit jeweils durch Lehrpersonen & Lerner:innen; z. B. für Lehrende „Wie würden Sie die Interaktion und das Engagement der Teilnehmenden während der Präsenzphase einschätzen?“
3
Nutzungsdaten (Logfiles)
Interaktionen mit dem System, z. B. User-IDs, Seiten-IDs, Zugriffszeiten
2/3

3.3 Datenanalyse und Konsequenzen

Nach Ablauf des festgelegten Erprobungszeitraums wurden die auf LimeSurvey gesammelten Fragebogendaten mittels IBM SPSS (Version 28) deskriptiv ausgewertet und interpretiert. Die Transkription der Interviews und Fokusgruppen erfolgte nach Kriterien der Standardorthografie. Im Anschluss erfolgte die Auswertung der offenen Fragen aus den Fragebögen, des lauten Denkens, der Interviews sowie Fokusgruppen gemäß den Kriterien einer qualitativen Inhaltsanalyse für die Gewinnung relevanter Informationen (Gläser und Laudel 2010). Die Erhebungsdaten dienten auch der Evaluation der eingesetzten Instrumente, um zu einem frühen Zeitpunkt gemäß „on-going“-Phase das Untersuchungsdesign gegenstandsadäquat anzupassen (Richey et al. 2004). Die aus den Erprobungsergebnissen abgeleiteten Verbesserungspotenziale wurden thematisch geclustert und in Form von Workshops gemeinsam mit den Stakeholdern analysiert, wobei Probleme und resultierende Konsequenzen u. a. zum Design und Inhalt diskutiert wurden. In diesen Workshops erfolgte ebenfalls eine gemeinsame Priorisierung und die Zuweisung von Verantwortlichkeiten für das nachfolgende Redesign. Die gewonnenen Erkenntnisse wurden über diese Workshops sowie durch die stetige Anpassung von Anforderungskatalogen verbreitet und flossen direkt in das Redesign des digitalen Weiterbildungsangebots ein.

3.4 Stichproben

Die Rekrutierung der Erprobungsteilnehmer:innen aus dem Tischler- und Steinmetzhandwerk für jede Erprobungsphase wurde durch beteiligte Stakeholder wie Fachverbände und Umsetzungspartner:innen durchgeführt. Dieser Prozess wurde von der Notwendigkeit geleitet, die gemäß des UCD-Prozesses identifizierte Zielgruppe adäquat zu repräsentieren. Bei den Teilnehmenden handelt es sich um Personen im Tischler- und Steinmetzhandwerk, welche keine bis fortgeschrittene Erfahrungen mit CNC-Maschinen hatten. Die Bandbreite der formalen Qualifikationen erstreckte sich von Auszubildenden bis zu Personen mit Meisterqualifikation und Lehrerfahrung. Die demnach heterogene Gruppe der Erprobungsteilnehmer:innen zeichnet die im Vorfeld gemäß dem UCD-Prozess erstellte Zielgruppe nach.
Die Anzahl der Rückläufe für die unterschiedlichen Erprobungen und Methoden finden sich in Tab. 2. Dabei handelt es sich jeweils um die bereinigte Zahl, da unvollständig oder doppelt ausgefüllte Fragebögen nicht in die Datenauswertung einflossen.
Tab. 2
Anzahl der Teilnehmenden
Erprobung und genaue Bezeichnung der Methode
Anzahl der Teilnehmenden
1. Erprobung
11 Registrierungen
Fragebogen „CAD“, „CAM“, „Exkurs“
n = 11
Lautes Denken, Kurzinterviews
n = 11
2. Erprobung
23 Registrierungen
Fragebogen „Notizzettel“
n = 17
Fragebogen „CAM“
n = 14
Fragebogen „CAD“
n = 21
Fragebogen „Abschluss“
n = 16
Logfiles
n = 23
Interviews
n = 14
3. Erprobung
59 Registrierungen
Fragebogen „1. Aufgabe“
n = 29
Fragebogen „Schwierigkeitsgrad 2. Aufgabe“
n = 31
Fragebogen „3. Aufgabe“
n = 22
Fragebogen „Schwierigkeitsgrad 4. Aufgabe“
n = 22
Fragebogen „5. Aufgabe & Abschluss“
n = 21
Fragebogen „CNC-Wissenstests“
n = 13
Fragebogen „Präsenzphase Lehrpersonen“
n = 15
Fragebogen „Präsenzphase Lerner:innen“
n = 7
Fokusgruppe „Lehrpersonen“
n = 5
Fokusgruppe „Lerner:innen“
n = 4
Logfiles
n = 59

4 Ergebnisse der formativen Evaluation

In diesem Abschnitt werden zunächst verdichtet die Kernergebnisse aus den drei Erprobungsphasen vorgestellt, bevor auf den Nutzen der eingesetzten Methoden und Vorgehensweisen eingegangen wird. Auf eine umfassende Darstellung aller Ergebnisse wird aufgrund der Datenmenge verzichtet.

4.1 Ergebnisse der ersten Erprobung

Bei der ersten Erprobung wurden die Methode des lauten Denkens zum Erfassen der ersten Eindrücke, anschließende Kurzinterviews sowie Fragebögen zu Usability und Lernmotivation genutzt. Ein nicht antizipierter Nebeneffekt der Methode des lauten Denkens war, dass einige Teilnehmer:innen, die zu Beginn der Erprobung gebeten wurden, alle ihre Gedanken zu teilen, dies auch während des Ausfüllens der Fragebögen fortsetzten. So konnte beispielsweise festgestellt werden, dass beim System Usability Scale (SUS)-Fragebogen der Begriff „Inkonsistenzen“ (Item 6) unverständlich war. Dieses Item konnte für die weiteren Erprobungen angepasst werden und verdeutlichte zusammen mit dem sichtbaren Unverständnis einiger Begriffserklärungen (z. B. „NC-Code“) die Notwendigkeit leichter Sprache in den Evaluationsmethoden und im Lernplatz. Zusätzlich wurde während der Begleitung der Nutzung beobachtet, dass einige Bedienelemente (z. B. der „Weiter“-Button) übersehen wurden. Insgesamt zeigte der Einsatz des lauten Denkens in Kombination mit den anschließenden Kurzinterviews, in denen u. a. der Schwierigkeitsgrad thematisiert wurde, bedeutende Defizite im Aufbau des Lernplatzes auf und machte deutlich, dass eine Einstiegsseite mit Vorstellungsvideos notwendig sei. Die Fragebögen zur Usability und Lernmotivation fielen tendenziell sehr positiv aus. Beispielsweise erreichte der SUS-Score (System Usability Scale) für die drei Inhaltsbereiche des Lernplatzes (CAD, CAM, Exkurs) auf einer hundertprozentigen Skala einen durchschnittlichen Wert von 88 %, wobei ein derartiger Wert ein gutes Resultat darstellt. Dieses Ergebnis ist insofern einzuordnen, als dass soziale Erwünschtheit durch die Begleitung eine Rolle gespielt haben könnte. Der Mehrwert der Fragebögen ist demnach im Vergleich zu den Kurzinterviews sowie der Methode des lauten Denkens in der ersten Erprobung als gering einzustufen.

4.2 Ergebnisse der zweiten Erprobung

Nachfolgend wurden größere Anpassungen am Funktionsumfang des Lernplatzes vorgenommen; zum Beispiel wurde die Darstellung und Didaktik der CAD- und CAM-Aufgaben angepasst, welche im Vergleich zum ersten Prototyp umfangreicher und nach einem geänderten didaktischen Konzept gestaltet wurden. Aufgrund der in der ersten Erprobung identifizierten Defizite im Aufbau des Lernplatzes, wurden eine Startseite mit Einstiegsvideos sowie ergänzende Zusatzangebote implementiert. Teilnehmer:innen konnten die erste Lernaufgabe ohne Begleitung erproben und die in den Lernplatz integrierten vier Kurzfragebögen beantworten. Auffälligkeiten betrafen die fehlende Nützlichkeit der didaktischen Rückmeldungen in den Aufgaben und die mangelnde Intuitivität der Navigation. Aus den qualitativen Antworten wurde deutlich, dass die Platzierung der Buttons suboptimal gestaltet war. Beim Versuch vergrößerte Bilder zu schließen wurden beispielsweise bearbeitete Aufgaben geschlossen, was aufgrund der fehlenden Zwischenspeicherung zu Frustration führte. Aus diesen Gründen verschlechterte sich der SUS-Score im Vergleich zur ersten Erprobung für den gesamten Lernplatz auf 72,96 %. Insgesamt lässt sich feststellen, dass die zusammengestellten Fragebögen zu den Rückmeldungen, aufgetretenen Problemen und zum Schwierigkeitsgrad ein angemessenes Kosten-Nutzen-Verhältnis aufwiesen. Hingegen ließ sich für die Abfrage der Nutzungshäufigkeit der Zusatzangebote eine Diskrepanz zwischen den Antworten in den Fragebögen und den Logfiles feststellen (Tasliarmut et al. 2024). Demzufolge ist es für die formative Evaluation von Weiterbildungsangeboten empfehlenswert, objektive Nutzungsdaten bei der Einführung neuer Bestandteile zu analysieren, um Erinnerungsverzerrungen durch subjektive Einschätzungen von Teilnehmer:innen zu umgehen.

4.3 Ergebnisse der dritten Erprobung

Im Rahmen des Redesigns nach der 2. Phase der formativen Evaluation wurden insgesamt fünf Lernaufgaben mit steigender Schwierigkeit erstellt und Bugs entfernt. Auch erfolgten designtechnische und funktionelle Anpassungen, z. B. um das versehentliche Schließen von Aufgaben über eine farbliche Umgestaltung zu verhindern. Rückmeldungen wurden z. B. als Pop-up implementiert, um die Sichtbarkeit zu erhöhen. In Vorbereitung für die Präsenzphase wurden außerdem zwei Tests zu CNC-Spezifika (Bestandteile und Produktionsprozess) hinzugefügt. Um in dieser Phase der Lernplatzentwicklung den Schwierigkeitsgrad, die neuen CNC-Tests, die Usability und die Präsenzphase bewerten zu lassen, wurden primär Kurzfragebögen eingesetzt (vgl. Tab. 2). Der Einsatz von Fragebögen zur Erfassung des Schwierigkeitsgrades und aufgetretener Probleme erwies sich als sinnvoll, da ein direkter Vergleich zwischen den fünf Aufgaben ermöglicht wurde. So konnte das didaktische Konzept, das einen Niveauanstieg anstrebte, über die Antworten validiert werden. Auch konnten Defizite in den CAM-Aufgaben, dessen Bewertungen über alle fünf Aufgaben hinweg einen negativen Versatz im Vergleich zu dem CAD-Aufgaben enthielten, aufgedeckt werden. Dies lag den qualitativen Antworten zufolge insbesondere daran, dass Bugs auftraten und die Rückmeldungen zu unspezifisch waren. Der SUS-Score verzeichnete im Vergleich zur vorherigen Erprobung einen Anstieg auf 75,93 %.
Der im Zuge der Präsenzphase für die Hospitation pilotierte Telepräsenzroboters erwies sich als geeignet, da er eine effektive Präsenz und Interaktion in Echtzeit ermöglichte, ohne die Notwendigkeit physischer Anwesenheit, was die Zugänglichkeit und Flexibilität der Beobachtungsprozesse signifikant verbesserte. Trotz der erhöhten Lautstärke in der Werkstatt wurde die Hospitation mit dem TPR durch die fahrende Person positiv gewertet. Darüber hinaus wurde durch die Beobachtung an einer Bildungsstätte sowie Fokusgruppen mit Lehrpersonen und Lerner:innen deutlich, wie divers die Rahmenbedingungen je Präsenzstandort sind. Neben variierenden zeitlichen Ressourcen für die Herstellung einer anhand einer Aufgabe aus dem Lernplatz zu erstellenden Obstkiste (zwischen 4 und 8 h) waren unterschiedliche Maschinenkonfigurationen und Wissensstände die Hauptanmerkungen. Insgesamt lässt sich ableiten, dass für die erstmalige Erschließung der Präsenzphase die Beobachtung sowie Fokusgruppen mit Lehrpersonen und Lerner:innen unabdinglich sind. Abschließend ist für die Bewertung der Lernaufgaben bzw. des Lernplatzes die Implementierung von Kurzfragebögen zur Usability und zum Schwierigkeitsgrad empfehlenswert.

4.4 Einordnung des Nutzens der eingesetzten Methoden

Essenziell für die Durchführung der formativen Evaluation war die Einbindung nutzer:innennaher Stakeholder, welche kontinuierlichen Zugang zur Zielgruppe ermöglichten, was die fortlaufende Integration der Nutzer:innenperspektive sicherstellte und das Multiplikationspotenzial innerhalb der Betriebe durch die Fachverbände erhöhte. Diese Zusammenarbeit förderte die Sensibilisierung der Nutzer:innen und Umsetzungspartner:innen für notwendige methodisch-didaktische Anpassungen. Die effektive Einbindung von Stakeholdern bildet demnach eine solide Grundlage für die vorgestellte formative Evaluation deren angewandte Methoden nachfolgend nach Wirksamkeit und Praktikabilität eingeordnet werden.
Hinsichtlich der Darstellung gegenüber den Umsetzungspartner:innen eigneten sich insbesondere die Ergebnisse der qualitativen Methoden, da diese durch ihre Unmittelbarkeit in der Regel sofort verständlich in Bezug auf aufgetretene Probleme und Verbesserungsvorschläge waren. Der hohe Informationsgehalt rechtfertigte den nicht unerhebliche Zeitaufwand für Transkription und Auswertung der Daten. Der Mangel an Validität lässt sich durch Transparenz in Bezug auf die Dokumentation des Vorgehens ausgleichen. Darüber hinaus verlangte die gesonderte Ansprache der Teilnehmer:innen für die Teilnahme an den Interviews und Fokusgruppen einen hohen zeitlichen Aufwand, da diese zum Teil mehrfach kontaktiert werden mussten.
Die quantitativen Methoden, wie Logfiles und Fragebogendaten, erforderten dahingehend einen Mehraufwand hinsichtlich der Transformation in ein leicht verständliches und präsentierbares Format für die Umsetzungspartner:innen. Der sofortige Nutzen der Fragebogendaten war für diese nicht direkt ersichtlich, jedoch boten sie im Kontext der Vergleichbarkeit der Ergebnisse validierter Instrumente über drei Erprobungsphasen hinweg einen deutlichen Zugewinn. Dies äußert sich besonders in den Bereichen der Usability, der Akzeptanz und der Lernmotivation.
Zudem lieferte ein validiertes Instrument wie der SUS-Score widersprüchliche Ergebnisse durch den anfänglichen sehr hohen Score in der ersten Erprobung und einer deutlichen Abnahme bei den nachfolgenden Erprobungen. Der Verlauf des SUS-Scores ließ sich unter Zuhilfenahme der qualitativen Daten interpretieren. Während die Lerner:innen beim ersten Prototyp Begeisterung über die Idee eines digitalen CNC-Lernplatzes äußerten und insbesondere die Baumstruktur als intuitiv empfanden, sank die Usabilityeinschätzung für den zweiten Prototyp, der erstmalig komplexere Aufgaben implementierte. Deren Funktionen waren zwar in Zügen nutzbar, allerdings wurde insbesondere für die Gestaltung der Oberfläche und dem Fehlen von Speicherungsmöglichkeiten Unmut geäußert, was sich auch in der Usabilityeinschätzung widerspiegeln könnte. Diese Probleme wurden wiederum für den dritten Prototyp behoben, weshalb ein leichter Anstieg des Scores zu erkennen war. Gleichzeitig wurden vier weitere Lernaufgaben mit steigendem Schwierigkeitsgrad implementiert. Hinsichtlich dieser wurde betont, dass die Rückmeldungen bei auftretenden Problemen nicht hilfreich waren. So konnten zwar Verlinkungen zu unterschiedlichen Hilfestellungen genutzt werden, allerdings könnte die Unspezifität als benutzer:innenunfreundlich wahrgenommen worden sein, weshalb der eingangs erfasste SUS-Score nicht erreicht werden konnte.
Über alle drei Erprobungen hinweg kritisierten einige Teilnehmer:innen die Länge und Anzahl der Fragebögen. Die variierende Anzahl an ausgefüllten Fragebögen für die zweite und dritte Erprobung deutet darauf hin, dass möglicherweise die Platzierung der Fragebögen im Lernplatz nicht ausreichend sichtbar war oder dass die Teilnehmer:innen zum Zeitpunkt der Befragung möglicherweise nicht motiviert waren, diese auszufüllen. Dies legt nahe, dass sowohl die visuelle Integration der Fragebögen in den Evaluationsbereich als auch die situative Bereitschaft der Teilnehmer:innen zum Ausfüllen der Fragebögen zukünftig Beachtung finden sollten.
Die Logfiles bildeten eine fundierte Basis um unabhängig von intendierten Teilnehmer:innenfeedback Diskrepanzen aufzudecken. Dafür ist es essenziell im Vorfeld der Logfile-Aufzeichnung eine sorgfältige Planung der zu dokumentierenden Logs und Interaktionen durchzuführen.

5 Fazit und Ausblick

Der vorgestellte Prozess einer formativen Evaluation eines digitalen Weiterbildungsangebots im Tischler- und Steinmetzhandwerk unterstreicht die zentrale Rolle einer methodisch fundierten, nutzer:innenzentrierten Gestaltung in der der digitalen Weiterbildung. Durch die Integration der DBR- und UCD-Ansätze wurde ein adaptives und responsives Entwicklungsframework geschaffen, das es ermöglicht, ein Weiterbildungsangebot präzise auf die spezifischen Bedürfnisse der Nutzer:innen abzustimmen. Die systematische und fortwährende Erfassung der Zielgruppenanforderungen mittels diversifizierter Methoden und die Integration relevanter Stakeholder trugen signifikant zur Berücksichtigung der spezifischen Charakteristika des Handwerkssektors und damit verbunden zur Optimierung des Lernangebotes bei (Li und Earnest 2015). Diese fortlaufenden Bemühungen führten während der iterativen Erprobungen nicht nur zur Behebung von „programmiertechnischen Kinderkrankheiten“, sondern ermöglichten auch funktionale, gestalterische und lernmotivationsbezogene Verbesserungen (Hochholdinger et al. 2007). Die Evaluation wurde während der „on-going“-Phase adaptiv gestaltet und orientierte sich reaktiv an den Erkenntnissen aus den erhobenen Daten. Dies ermöglichte eine flexible Anpassung der Evaluationsmethoden an die sich ändernden Anforderungen und Bedürfnissen der Nutzer:innen.
Durch die Anwendung des Mixed-Methods-Ansatz und den resultierenden subjektiven (Fragebögen, Interviews) und objektiven Daten (Logfiles) konnte zudem die Validität der erhobenen Informationen überprüft werden. Insbesondere ließ sich mithilfe der Logfiles teilweise eine Erinnerungsverzerrung bei den Antworten der Fragebögen (z. B. hinsichtlich der Nutzungsintensität) identifizieren. Andererseits lieferten die qualitativen Daten spezifische Problemfelder und Verbesserungsvorschläge für das digitale Weiterbildungsangebot. Die angewandten Forschungsmethoden können, bei geeigneter Studienkonzeption, zum Vergleich des weiterentwickelten Lernplatzes mit den jeweiligen Vorgängerversionen genutzt werden. Jedoch limitierten unterschiedliche Stichprobenzusammensetzungen die Möglichkeit eines umfassenden experimentellen Vergleichs dieser Varianten.
Bisher wurde nicht umfassend erforscht, wie Personen im Handwerk digital lernen und welche spezifischen Bedürfnisse für die Transferierbarkeit von praktischem Wissen in den digitalen Raum erfüllt sein müssen. Der präsentierte formative Evaluationsprozess und die damit verbundenen Erkenntnisse erwiesen sich im Kontext des gemäß DBR und UCD entwickelten digitalen Weiterbildungsangebots als gegenstandsadäquat. Der in diesem Beitrag beschriebene Prozess ist so konzipiert, dass er als Handlungsimpuls für zukünftige Evaluationen digitaler Lernangebote dient, besonders in Bereichen, in denen das Handwerk mit technischen Systemen interagiert. Gleichzeitig stellt er eine bedeutende Ergänzung zur Forschung über digitale Bildung im Handwerk dar und bildet eine solide Grundlage für weitere Arbeiten, die darauf abzielen, durch die Entwicklung und Evaluation von Weiterbildungsangeboten die digitale Transformation in diesem Sektor voranzutreiben. Angesichts der sich schnell entwickelnden technologischen Landschaft wird die kontinuierliche Anpassung und Verbesserung der Bildungsressourcen entscheidend sein, um die Wettbewerbsfähigkeit und Innovationskraft des Handwerks zu erhalten und zu stärken.

Förderung

Diese Forschungsarbeit wurde vom Bundesministerium für Bildung und Forschung bzw. Bundesinstitut für Berufsbildung (Projekt ComP-ASS, FKZ: 21INVI3202) unterstützt. Der Geldgeber hatte keinen Einfluss auf das Studiendesign, die Erhebung, die Analyse und Interpretation der Daten, auf das Verfassen des Berichts oder die Einreichung des Artikels.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Our product recommendations

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Literature
go back to reference Bevan N (2009) International standards for usability should be more widely used. J Usability Stud 4:106–113 Bevan N (2009) International standards for usability should be more widely used. J Usability Stud 4:106–113
go back to reference BIBB (2022) VET data report Germany 2019. Facts and analyses to accompany the federal government report on vocational education and training—selected findings. BIBB, Bonn BIBB (2022) VET data report Germany 2019. Facts and analyses to accompany the federal government report on vocational education and training—selected findings. BIBB, Bonn
go back to reference Ehlert A, Hennecke HJ (2022) Personenzentrierte Digitalisierung zur Zukunftssicherung des Handwerks: Ergebnisse des Forschungsprojekts „Athene 4.0“. HANDWERK.NRW e. V, Düsseldorf Ehlert A, Hennecke HJ (2022) Personenzentrierte Digitalisierung zur Zukunftssicherung des Handwerks: Ergebnisse des Forschungsprojekts „Athene 4.0“. HANDWERK.NRW e. V, Düsseldorf
go back to reference Friedrich I, Schwarzkopf M, Bullinger AC (2024) Zielgruppenidentifikation und Anforderungsanalyse: Ein praxisorientiertes Vorgehensmodell. In: GfA e. V. (Hrsg) Arbeitswissenschaft in-the-loop: Mensch-Technologie-Integration und ihre Auswirkung auf Mensch, Arbeit und Arbeitsgestaltung. 70. Kongress der Gesellschaft für Arbeitswissenschaft e. V. GfA-Press, Dortmund Friedrich I, Schwarzkopf M, Bullinger AC (2024) Zielgruppenidentifikation und Anforderungsanalyse: Ein praxisorientiertes Vorgehensmodell. In: GfA e. V. (Hrsg) Arbeitswissenschaft in-the-loop: Mensch-Technologie-Integration und ihre Auswirkung auf Mensch, Arbeit und Arbeitsgestaltung. 70. Kongress der Gesellschaft für Arbeitswissenschaft e. V. GfA-Press, Dortmund
go back to reference Gediga G, Hamborg KC (2002) Evaluation in der Software-Ergonomie: Methoden und Modelle im Software-Entwicklungsprozess. Z Psychol 210(1):40–57 Gediga G, Hamborg KC (2002) Evaluation in der Software-Ergonomie: Methoden und Modelle im Software-Entwicklungsprozess. Z Psychol 210(1):40–57
go back to reference Gläser J, Laudel G (2010) Experteninterviews und qualitative Inhaltsanalyse: Als Instrumente rekonstruierender Untersuchungen. VS, WiesbadenCrossRef Gläser J, Laudel G (2010) Experteninterviews und qualitative Inhaltsanalyse: Als Instrumente rekonstruierender Untersuchungen. VS, WiesbadenCrossRef
go back to reference Gollwitzer M, Jäger RS (2014) Evaluation kompakt. Beltz, Weinheim, Basel Gollwitzer M, Jäger RS (2014) Evaluation kompakt. Beltz, Weinheim, Basel
go back to reference Goppold M, Müller ML, Thiem S, Tackenberg S, Frenz M, Nitsch V (2022) Lernmedienentwicklung für handlungs- und gestaltungsorientiertes, Augmented Reality-gestütztes Lernen aus Fehlern an CNC-Drehmaschinen – Zielkonflikte zwischen didaktischem Anspruch und technischer Umsetzung. Berufs- Wirtschaftspädagogik Online : Bwp@ 43:1–26. https://doi.org/10.18154/RWTH-2023-00952CrossRef Goppold M, Müller ML, Thiem S, Tackenberg S, Frenz M, Nitsch V (2022) Lernmedienentwicklung für handlungs- und gestaltungsorientiertes, Augmented Reality-gestütztes Lernen aus Fehlern an CNC-Drehmaschinen – Zielkonflikte zwischen didaktischem Anspruch und technischer Umsetzung. Berufs- Wirtschaftspädagogik Online : Bwp@ 43:1–26. https://​doi.​org/​10.​18154/​RWTH-2023-00952CrossRef
go back to reference Guhlemann K, Best C, Ali A (2023) Handwerk 4.0: Bedarf und Existenz digitaler Kompetenzen und Qualifizierungsvorlieben im Handwerksbetrieb vor dem Hintergrund der Implementierung und Etablierung der neuen Servicesoftware Athene 4.0. In: Lattemann C, Robra-Bissantz S (Hrsg) Personennahe Dienstleistungen der Zukunft – Edition HMD. Springer, Wiesbaden, S 135–148 https://doi.org/10.1007/978-3-658-38813-3_8CrossRef Guhlemann K, Best C, Ali A (2023) Handwerk 4.0: Bedarf und Existenz digitaler Kompetenzen und Qualifizierungsvorlieben im Handwerksbetrieb vor dem Hintergrund der Implementierung und Etablierung der neuen Servicesoftware Athene 4.0. In: Lattemann C, Robra-Bissantz S (Hrsg) Personennahe Dienstleistungen der Zukunft – Edition HMD. Springer, Wiesbaden, S 135–148 https://​doi.​org/​10.​1007/​978-3-658-38813-3_​8CrossRef
go back to reference Li J, Earnest J (2015) Das Beste aus zwei Welten – Vorteile einer Kombination von qualitativen und quantitativen. Forschungsmethoden. Wzb Mitteilungen 150:30–33 Li J, Earnest J (2015) Das Beste aus zwei Welten – Vorteile einer Kombination von qualitativen und quantitativen. Forschungsmethoden. Wzb Mitteilungen 150:30–33
go back to reference Richey RC, Klein J, Nelson W (2004) Developmental research: studies of instructional design and development. In: Jonassen D (Hrsg) Handbook of research for educational communications and technology. Lawrence-Erlbaum Associates, New Jersey, S 1099–1130 Richey RC, Klein J, Nelson W (2004) Developmental research: studies of instructional design and development. In: Jonassen D (Hrsg) Handbook of research for educational communications and technology. Lawrence-Erlbaum Associates, New Jersey, S 1099–1130
go back to reference Sarodnick F, Brau H (2016) Methoden der Usability Evaluation: wissenschaftliche Grundlagen und praktische Anwendung, 3. Aufl. Hogrefe, Bern Sarodnick F, Brau H (2016) Methoden der Usability Evaluation: wissenschaftliche Grundlagen und praktische Anwendung, 3. Aufl. Hogrefe, Bern
go back to reference Seidel T, Prenzel M, Duit R, Lehrke M (2003) Technischer Bericht zur Videostudie „Lehr-Lern-Prozesse im Physikunterricht“. IPN-Materialien. Leibniz-Institut für die Pädagogik der Naturwissenschaften, Kiel Seidel T, Prenzel M, Duit R, Lehrke M (2003) Technischer Bericht zur Videostudie „Lehr-Lern-Prozesse im Physikunterricht“. IPN-Materialien. Leibniz-Institut für die Pädagogik der Naturwissenschaften, Kiel
go back to reference Tasliarmut M, Langer D, Birke J, Zeiner-Fink S, Bullinger AC (2022) Digital literacy & motivation: creating personas with mixed-methods to tailor online training to the craft industry. In: Gómez C, López Martinéz A, Lees J (Hrsg) ICERI2022 proceedings 15th annual international conference of education, research and innovation, IATED academy. In, S 5261–5268 https://doi.org/10.21125/iceri.2022.1280CrossRef Tasliarmut M, Langer D, Birke J, Zeiner-Fink S, Bullinger AC (2022) Digital literacy & motivation: creating personas with mixed-methods to tailor online training to the craft industry. In: Gómez C, López Martinéz A, Lees J (Hrsg) ICERI2022 proceedings 15th annual international conference of education, research and innovation, IATED academy. In, S 5261–5268 https://​doi.​org/​10.​21125/​iceri.​2022.​1280CrossRef
go back to reference Tasliarmut M, Schwarzkopf M, Bullinger AC (2024) Daten, Nutzen und Risiken: Der Einsatz von Logfileanalysen in der nutzer:innenzentrierten Entwicklung von digitalen Lernplattformen im Handwerk. In: GfA e. V. (Hrsg) Arbeitswissenschaft in-the-loop: Mensch-Technologie-Integration und ihre Auswirkung auf Mensch, Arbeit und Arbeitsgestaltung. 70. Kongress der Gesellschaft für Arbeitswissenschaft e. V. GfA-Press, Dortmund Tasliarmut M, Schwarzkopf M, Bullinger AC (2024) Daten, Nutzen und Risiken: Der Einsatz von Logfileanalysen in der nutzer:innenzentrierten Entwicklung von digitalen Lernplattformen im Handwerk. In: GfA e. V. (Hrsg) Arbeitswissenschaft in-the-loop: Mensch-Technologie-Integration und ihre Auswirkung auf Mensch, Arbeit und Arbeitsgestaltung. 70. Kongress der Gesellschaft für Arbeitswissenschaft e. V. GfA-Press, Dortmund
go back to reference Thonipara A, Höhle D, Proeger T, Bizer K (2020) Digitalisierung im Handwerk – ein Forschungsüberblick. Göttinger Beiträge zur Handwerksforschung, Bd. 36. Volkswirtschaftliches Institut für Mittelstand und Handwerk an der Universität Göttingen, Göttingen https://doi.org/10.3249/2364-3897-gbh-36CrossRef Thonipara A, Höhle D, Proeger T, Bizer K (2020) Digitalisierung im Handwerk – ein Forschungsüberblick. Göttinger Beiträge zur Handwerksforschung, Bd. 36. Volkswirtschaftliches Institut für Mittelstand und Handwerk an der Universität Göttingen, Göttingen https://​doi.​org/​10.​3249/​2364-3897-gbh-36CrossRef
Metadata
Title
Formative Evaluation digitaler Weiterbildung im Handwerk: Eine Prozessbeschreibung zur Förderung der digitalen Transformation im Tischler- und Steinmetzhandwerk
Authors
Ina Friedrich
Melisa Tasliarmut
Holger Hoffmann
Marc Schwarzkopf
Angelika C. Bullinger
Publication date
22-10-2024
Publisher
Springer Fachmedien Wiesbaden
Published in
HMD Praxis der Wirtschaftsinformatik / Issue 6/2024
Print ISSN: 1436-3011
Electronic ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-024-01115-x

Premium Partner