Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2023 | OriginalPaper | Buchkapitel

Wissenschaftskommunikation evaluieren – mit Methode(n)

verfasst von : Philipp Niemann, Vanessa van den Bogaert, Ricarda Ziegler

Erschienen in: Evaluationsmethoden der Wissenschaftskommunikation

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
download
DOWNLOAD
print
DRUCKEN
insite
SUCHEN
loading …

Zusammenfassung

Mehr als zwanzig Jahre nach der Unterzeichnung des Memorandums zu „Public Understanding of Sciences and Humanities“ durch die deutschen Wissenschaftsorganisationen hat sich in Deutschland eine große Anzahl an Akteur:innen und Netzwerken der Wissenschaftskommunikation ausdifferenziert, die auf eine Vielzahl von Formaten und Kanälen zurückgreifen kann, um über Wissenschaft und Forschung zu kommunizieren. Im Kontext der Diskussion gesellschaftlicher Phänomene wie Fake News oder populistischer Strömungen sowie von großen Herausforderungen wie der Bewältigung des menschengemachten Klimawandels oder der Coronapandemie hat die Wissenschaftskommunikation auch im politischen und öffentlichen Raum zunehmend an Bedeutung gewonnen.
Mehr als 20 Jahre nach der Unterzeichnung des Memorandums zu „Public Understanding of Sciences and Humanities“ durch die deutschen Wissenschaftsorganisationen hat sich in Deutschland eine große Anzahl an Akteur:innen und Netzwerken der Wissenschaftskommunikation ausdifferenziert, die auf eine Vielzahl von Formaten und Kanälen zurückgreifen kann, um über Wissenschaft und Forschung öffentlich zu kommunizieren. Im Kontext der Diskussion gesellschaftlicher Phänomene wie Fake News oder populistischer Strömungen sowie von großen Herausforderungen wie der Bewältigung des menschengemachten Klimawandels oder der Coronapandemie hat die Wissenschaftskommunikation auch im politischen und öffentlichen Raum zunehmend an Bedeutung gewonnen.
Dabei steht heute nicht mehr die Frage im Mittelpunkt, ob es Aktivitäten und Maßnahmen der gesellschaftlichen Auseinandersetzung mit wissenschaftlichen Inhalten, Forschungsergebnissen und den Kontexten ihrer Entstehung braucht, sondern in den letzten Jahren wurde besonders die Beförderung guter Wissenschaftskommunikation und die Sicherung der Qualität öffentlicher Kommunikation über Wissenschaft und Forschung thematisiert (Allianz der Wissenschaftsorganisationen 2020; BMBF 2019, 2022; Wissenschaftsrat 2021).
Gleichzeitig gibt es eine große Anzahl an Akteur:innen der Wissenschaftskommunikation – mit unterschiedlichen Funktionen, Rollenzuschreibungen und Selbstverständnissen –, die Erfahrungen aus der Praxis reflektieren, Best Practice und professionelle Expertise teilen (WiD und BVHK 2016). Neben den Erkenntnissen der science of science communication – ein Forschungsfeld, das sich international und zunehmend auch in Deutschland konsolidiert (Bonfadelli et al. 2017; Guenther und Joubert 2017; Rauchfleisch und Schäfer 2018) – bieten auch Ergebnisse von (Selbst-)Evaluationen wissenschaftskommunikativer Maßnahmen die Möglichkeit, durch einen systematischen Prozess und den Einsatz passender Methoden Aussagen über die Zielerreichung, die Effektivität und die Qualität von Wissenschaftskommunikation zu treffen und diese damit zukünftig informierter und besser zu gestalten (Jensen und Gerber 2020; Nisbet und Scheufele 2009; Scheufele 2022).
International wird dies anhand der Konzepte einer effective, strategic (Besley 2020) oder evidence-based (Jensen und Gerber 2020) science communication und der evaluation und des assessments ihres impacts diskutiert (Fischhoff 2018; Pellegrini 2021 oder Spicer 2017).
Auch in Deutschland wurden und werden immer wieder einzelne Projekte und Formate der Wissenschaftskommunikation evaluiert. Gleichzeitig gibt es noch keine weitverbreitete, selbstverständliche Evaluationskultur in der deutschen Wissenschaftskommunikationslandschaft (Ziegler und Hedder 2020; Ziegler et al. 2021) – wobei dies auch international noch nicht der Fall ist (Jensen 2014).
Im Zuge der Bereitstellung zunehmender Ressourcen und neuer Fördermöglichkeiten für Wissenschaftskommunikation in Deutschland werden auch Fragen nach ihrer Wirkung, Zielerreichung und Effektivität relevanter, und Akteur:innen sind vielfach angehalten, ihre wissenschaftskommunikativen Aktivitäten und Maßnahmen evaluativ oder durch Forschung zu begleiten. Evaluationsbemühungen in der Wissenschaftskommunikation sollen durch diesen Band unterstützt werden, der daher – und auch wegen der verstärkten Thematisierung von Evaluationen in der internationalen Wissenschaftskommunikationslandschaft – Informationen zu den verschiedenen Evaluationsmethoden explizit auf Deutsch zur Verfügung stellt, sowie Beispiele vorstellt, die Orientierung für die Wissenschaftskommunikationspraxis in Deutschland und im deutschsprachigen Raum geben.
Der Band fokussiert dabei die Methoden, mit denen qualitativ hochwertige, wissenschaftlich valide und systematisch vergleichbare Evaluationen von wissenschaftskommunikativen Maßnahmen möglich werden – ergänzt um einige Verfahren, die in der evaluativen Praxis von besonderer Relevanz sind. Er ist an der Schnittstelle zwischen der science of science communication und der evaluativen Praxis angesiedelt und adressiert einerseits Fachwissenschaftler:innen etwa der Wissenschaftskommunikation, der Medien- oder der Kommunikationswissenschaft bzw. den einschlägigen Lehrbetrieb an Universitäten und Hochschulen. Andererseits werden auch Kommunikator:innen und Wissenschaftler:innen aus anderen Fachdisziplinen angesprochen, die im Zusammenhang mit aktiver Wissenschaftskommunikation auch mit deren Evaluation befasst sind oder es in Zukunft sein werden.
Dieser Mehrfachadressierung versucht der Band durch seine spezifische Struktur Rechnung zu tragen: Nach einem Einführungsteil zu Grundlagen und Perspektiven auf Evaluation stehen in Forschung und Praxis besonders relevante Einzelmethoden bzw. Methodengruppen im Fokus des Bandes. Diese werden – wo immer möglich – in zwei Beiträgen mit unterschiedlichem Schwerpunkt beleuchtet. Während ein tendenziell stärker fachwissenschaftlicher Beitrag zunächst die Grundlagen der jeweiligen Methode oder Methodengruppe in den Blick nimmt, widmet sich der daran anschließende Praxisbeitrag einem Anwendungsfall aus der Evaluationspraxis der Wissenschaftskommunikation, bei dem die jeweilige Methode(ngruppe) zum Einsatz kam. Damit eignet sich der Band sowohl zur Vertiefung und Erweiterung der eigenen Methodenkenntnisse auf aktuellem fachwissenschaftlichen Stand als auch als konkrete Handreichung im praktischen Evaluationsalltag, etwa als Wissenschaftskommunikator:in.
Dem Band liegt ein weites Verständnis von Wissenschaftskommunikation zugrunde, wie es von Schäfer, Kristiansen und Bonfadelli (2015) vorgeschlagen wird. Danach werden „alle Formen, von auf wissenschaftliches Wissen oder wissenschaftliche Arbeit fokussierter Kommunikation, sowohl innerhalb als auch außerhalb der institutionalisierten Wissenschaft, inklusive ihrer Produktion, Inhalte, Nutzung und Wirkungen“ (S. 13) als Wissenschaftskommunikation verstanden. Der Bezugsrahmen der Autor:innen ist der Bereich der externen Wissenschaftskommunikation, verstanden als eine Wissenschaftskommunikation, die sich aus der Wissenschaft heraus an einen Personenkreis außerhalb der eigenen fachwissenschaftlichen Peers richtet. Dies bedeutet jedoch in keiner Weise, dass sich die vorgestellten Evaluationsmethoden nicht auch zur Anwendung auf Maßnahmen aus dem wissenschaftsinternen Bereich oder dem Bereich des Wissenschaftsjournalismus eigneten.
Der Begriff Evaluation findet sich sowohl im wissenschaftlichen als auch im alltäglichen Sprachgebrauch. Aufgrund der Vielfalt der Begriffsverwendung von Evaluationen, ihrer Anwendungsbereiche, Aufgaben und zugrunde liegenden Denk- und Handlungskonzepten sowie der zunehmenden alltagssprachlichen Verwendung, mag der Eindruck entstehen, dass es genauso viele Definitionen des Begriffs wie Evaluator:innen gibt (Kromrey 2001; Wottawa und Thieraus 1998). Während annähernd alles evaluiert werden kann und damit die Liste an möglichen Evaluationsgegenständen unerschöpflich erscheint (Balzer und Beywl 2018), werden gleichzeitig unterschiedliche Begrifflichkeiten für ein und denselben Bedeutungszusammenhang genutzt.1 Die ausgeprägte Heterogenität dieses Feldes spiegelt sich auch in den unterschiedlichen disziplinären Ansätzen und Zugängen und damit in einer großen methodischen Vielfalt wider – wobei Evaluationen dabei immer ein besonders starker Kontextbezug auszeichnet. Diese Tatsache mag auch ursächlich dafür sein, dass eine Verständigung auf eine allumfassende Definition im Wortsinne nicht zielführend erscheint (von Werthern 2020).
Für diesen Band schließen wir uns der Idee einer sogenannten Arbeitsdefinition an (Balzer und Beywl 2018, S. 17) und verstehen Evaluationen als eine professionelle Forschungspraxis, in welcher durch vielfältige forschungsmethodische Zugänge systematisch Informationen über jeweils sehr spezifische Evaluationsgegenstände gesammelt und anschließend kriteriengeleitet bewertet werden. Sowohl im wissenschaftlichen Diskurs als auch in der Praxisbeschreibung können Evaluationen auf einem Kontinuum zwischen theorie(weiter-)entwickelnder und angewandter Forschung verortet werden. In diesem Band nutzen wir die spezifischen Merkmale: Ziel und Zweck, Herkunft der Fragestellung, Verwendung von Methoden sowie Anspruch an die erzielten Ergebnisse, um einerseits die Spannweite zwischen den Polen aufzuzeigen und andererseits der Arbeitsdefinition eine klare Struktur zu verleihen. Dazu werden im Folgenden Evaluations- und Forschungsvorhaben zunächst konzeptionell nahe den gegenüberliegenden Polen verortet und mit der Einordnung von Begleitforschungsvorhaben beispielhaft aufgezeigt, dass zwischen den zwei Polen – je nach Ausgestaltung der Vorhaben – viel Spielraum zur individuellen Umsetzung besteht.
Evaluationen stellen einen bewussten, (ggf. projektbegleitenden) Forschungs- und Lernprozess dar, in dem konkrete Aktivitäten innerhalb oder die Gesamtheit aller Aktivitäten eines Projekts über eine vorab festgelegte Methodik systematisch betrachtet und bewertet werden. Hierbei können die Inhalte und Rahmenbedingungen der Projektaktivitäten, aber auch ihre Leistungen, Produkte und Wirkungen im Fokus stehen. Evaluationen können die Reflexion unterstützen und dabei helfen, Erwartungen zu formulieren oder einen Abgleich mit zuvor gesteckten Zielen ermöglichen, um Erfolge und Misserfolge zu ergründen sowie den Wert der Projektaktivitäten zu erkennen. Dazu werden im Rahmen von Evaluationsvorhaben Daten, Schlussfolgerungen und Bewertungen bereitgestellt, die dem Informationsbedarf der jeweiligen Stakeholder:innen (dies schließt Auftraggeber:innen sowie Beteiligte und Betroffene gleichermaßen ein) gerecht werden müssen. Die im Rahmen einer Evaluation gewonnenen Daten und daraus abgeleiteten Schlussfolgerungen und Bewertungen können für unterschiedliche Zwecke genutzt werden, u. a. als Grundlage für Entscheidungen, zur Rechenschaftslegung oder zur Identifizierung von Optimierungsbedarfen. Evaluationen sind immer empfänger:innenorientiert, und ihre Güte hängt nicht nur von der Zuverlässigkeit und Genauigkeit (Einhaltung von Standards2) ab, sondern immer auch von der Akzeptanz der Beteiligten und durch die Betroffenen (siehe dazu auch DeGEval 2017; Döring und Bortz 2016; Stockmann 2010, Stockmann und Meyer 2017; Weiss 1998; Wottawa und Thierau 1998).
Ziel und Zweck von Evaluationen sind immer Bewertungen, die nach explizit formulierten Kriterien erfolgen. Die Fragestellungen von Evaluationen werden durch Auftraggeber:innen oder Anspruchsgruppen oft mit spezifischen inhaltlichen und zeitlichen Vorstellungen, aber auch durch konkrete Budgetierungen gerahmt. Dabei ergibt sich eine Besonderheit für sogenannte Selbstevaluationen, bei denen die praxisgestaltenden Akteur:innen identisch mit den Evaluator:innen sind (DeGEval 2004). Auch bei Selbstevaluationen kann der Auftrag zur Evaluation bspw. von Vorgesetzten, Kolleg:innen oder hierarchisch höheren Instanzen in der Organisation bzw. als Bedingung im Rahmen von Förderrichtlinien erfolgen. Damit wird eine Selbstevaluationsaufgabe den Evaluator:innen angetragen. Sie kann aber auch ohne einen Auftrag im weitesten Sinne gänzlich aus Eigeninitiative vollzogen werden. In beiden Fällen sind die Akteur:innen gleichzeitig praxisverantwortlich sowie evaluationsverantwortlich. Dabei verfolgen Selbstevaluationen meist eine doppelte Zielsetzung: Einerseits geht es um den Gewinn von Informationen und Erkenntnissen, andererseits ist die möglichst unmittelbare Veränderung der Praxis das Ziel (Müller-Kohlenberg und Beywl 2003).
Zusammenfassend ist das wichtigste Merkmal von Evaluationen, dass diese immer auf einen oder mehrere konkrete, vorab bereits bekannte Zwecke hin durchgeführt werden (Hense 2021). Vier ganz zentrale mögliche Zwecke sind dabei:
1.
die Verbesserung bzw. Qualitätssicherung des Gegenstands, bspw. die Passgenauigkeit oder Effektivität von Angeboten für spezifische Zielgruppen,
 
2.
die Rechenschaftslegung, bspw. über ein Programm oder eine Maßnahme, welche aus Drittmitteln finanziert wird,
 
3.
die Unterstützung von Entscheidungen, bspw. über Fortführung oder Einstellung eines Wissenschaftskommunikationsangebots und
 
4.
das Dazulernen, bspw. bei der Erprobung eines innovativen digitalen Dialogportals.
 
„Mit dieser Zweckgebundenheit teilt Evaluation eine wichtige Gemeinsamkeit mit den Maßnahmen, Projekten oder Praktiken, die sie evaluiert: Sie will grundsätzlich etwas in Bewegung bringen und einen Unterschied in der Praxis machen“, so Hense (2021 S. 3). Evaluationen sind auf dem aufgespannten Kontinuum zwischen theorie(weiter-)entwickelnder und angewandter Forschung somit eher dem Pol des angewandten Forschungstypus zuzuordnen, da sie nicht den originären Zweck haben, einen Beitrag zum aktuellen wissenschaftlichen Diskurs zu leisten (Döring und Bortz 2016), sondern vielmehr auf den konkreten Nutzen für die Praxis hinarbeiten. Der gegenüberliegende Pol der theorie(weiter-)entwickelnden Grundlagenforschung zeichnet sich durch das Ziel aus, möglichst generalisierbare Erkenntnisse bereitzustellen, welche unmittelbar in die Theorie bzw. Forschungsdebatten integriert werden können. Wissenschaftliche Theorien dienen derartiger Forschung bei der Beschreibung, Erklärung und Vorhersage von beobachteten Sachverhalten. Anders als bei Evaluationen müssen sich (Grundlagen-)Forschungsvorhaben nicht primär an außerwissenschaftlichen Verwertungskontexten orientieren. Zwischen Grundlagenforschung und klassischen Evaluationen ist eine dritte Kategorie zu verorten: die (evaluative) Begleitforschung. Während Evaluationen oft sehr kontextspezifisch sind, widmen sich Begleitforschungsvorhaben bspw. der Messung von Effekten in experimentellen Forschungsansätzen, um so Kausalmechanismen mit theoriegeleiteten Forschungsansätzen zu untersuchen. Begleitforscher:innen betrachten systematisch die Veränderungen und die Unterschiede (meist Outcome, seltener Impact), die ursächlich auf bestimmte Maßnahmen zurückgeführt werden können. Gleichzeitig kann an Begleitforschungsvorhaben der Anspruch gestellt werden, die Relevanz der Erkenntnisse auch für ausgewählte Praxisfelder zu antizipieren und den Erkenntnistransfer in die Praxis mitzuplanen sowie die Zusammenarbeit mit Praktiker:innen zu intensivieren.
In den Praxisbeiträgen dieses Bandes finden sich Evaluationsbeispiele, die auf unterschiedlichen Punkten des Kontinuums zwischen Grundlagenforschung und angewandter Forschung zu verorten sind. Auch unterscheiden sich die Praxisbeiträge darin, ob sie direkte Outputs von Wissenschaftskommunikationsprojekten wie Besucher:innenzahlen oder Abrufe von bereitgestellten Informationsmaterialien erhoben haben, oder ob versucht wurde, die tatsächlichen individuellen oder gar gesellschaftlichen Wirkungen von Wissenschaftskommunikation zu erfassen. Beide Evaluationsansätze sollen hier in ihrer jeweiligen Bedeutung anerkannt werden. Gerade im Kontext von (Selbst-)Evaluationen in der Praxis können wertvolle Erkenntnisse für die Überprüfung und Weiterentwicklung von Wissenschaftskommunikation generiert werden, wenn aussagekräftige Daten auf einer Outputebene erhoben werden, statt mit zu geringen Ressourcen oder Kenntnissen zu versuchen, eine Wirkung zumal auf gesellschaftlicher Ebene nachzuweisen (vgl. hierzu auch King et al. 2015). Andererseits ist zu betonen, dass insgesamt eine stärkere Wirkungsorientierung und entsprechend darauf ausgerichtete Evaluationen in der Wissenschaftskommunikation zu begrüßen sind, so wie dies auch von der internationalen Forschungscommunity gefordert wird (vgl. hierzu auch Jensen 2015; Pellegrini 2021; Weitkamp 2015).
Konkret sind folgende Inhalte in diesem Band zusammengetragen:
Ricarda Ziegler, Imke Hedder und Liliann Fischer beleuchten zu Beginn unter Einbezug verschiedener Datenquellen, wie Wissenschaftskommunikation derzeit in Deutschland evaluiert wird, welchen Schwierigkeiten dies momentan unterliegt und zeigen notwendige Veränderungen für eine aussagekräftige Evaluationspraxis auf.
Sophia Volk verortet anschließend die Evaluation von Wissenschaftskommunikation in der (klassischen) Evaluationsforschung und führt in Logiken und Modelle von Evaluationen sowie sozial- und betriebswirtschaftliche Methoden für Evaluationen ein.
Vanessa van den Bogaert stellt in ihrem Beitrag die fachlichen Standards für Evaluation der Gesellschaft für Evaluation (DeGEval) vor. Dazu beleuchtet sie die vier Qualitätsdimensionen von Evaluationen (Nützlichkeit, Durchführbarkeit, Fairness, Genauigkeit) und zeigt auf, dass die Verantwortung für qualitativ hochwertige Evaluationen gemeinsam getragen werden kann.
Christoph Böhmert und Ferdinand Abacioglu eröffnen den Hauptteil des Bandes zu einzelnen Evaluationsmethoden der Wissenschaftskommunikation mit einem Grundlagenbeitrag zur Methode der quantitativen Befragung. Valerie Knapp und Vanessa van den Bogaert schließen daran mit ihrem Praxisbeitrag zur gleichen Methode an. Anwendungsbeispiel ist eine mehrwellige, onlinegestützte Panelstudie, die begleitend zu einer internationalen Citizen-Science-Aktion im Rahmen einer Begleitforschung durchgeführt wurde.
Julia Metag und Andreas Scheu steuern den Grundlagenbeitrag zur Methode der qualitativen Befragung bei. Im nachfolgenden Praxisbeitrag von Imke Hedder, Ricarda Ziegler, Bonnie Dietermann und David Ziegler steht die Anwendung von leitfadengestützten Vorher-Nachher-Interviews im Rahmen der Evaluation des Wissenschaftsvarietés Glitzern & Denken im Mittelpunkt.
André Weiß widmet sich der Methode der Beobachtung, wobei er neben der Auseinandersetzung mit grundlegenden Kriterien und Formen der Methode auch eine Reihe von Anwendungsszenarien und Beispielen für Beobachtungen im Rahmen von evaluativer Wissenschaftskommunikationsforschung behandelt. Der Text vereint damit Grundlagen- und Praxisbeitrag.
Armin Hempel befasst sich in seinem Grundlagenbeitrag mit Methoden zur Nutzungsdatenanalyse digitaler Medien. Till Bruckermann und Hannah Greving liefern den dazugehörigen Praxisbeitrag und fokussieren darin am Beispiel eines Bürgerwissenschaftsprojekts zu Wildtieren die Analyse von Nutzungsdaten der Teilnehmenden zur Häufigkeit und Art der Beteiligung an digitalen Projektaktivitäten und die daraus ableitbaren Implikationen.
Philipp Niemann und Yannic Scheuermann setzen sich in ihrem Grundlagenbeitrag mit verschiedenen physiologischen Messmethoden auseinander. Der anschließende Praxisbeitrag von Christian Humm und Philipp Niemann stellt mit der Methode der Blickaufzeichnung eines dieser Verfahren in den Mittelpunkt – am Beispiel eines evaluativen Forschungsprojekts zu KATRIN VR, einer Virtual-Reality-Umgebung aus dem Themenbereich der Physik.
Sabrina Kessler und Nina Wicke haben den Grundlagenbeitrag zur Inhalts- und Medienanalyse verfasst. Der Praxisbeitrag von Rüdiger Goldschmidt und Oliver Scheel gibt Einblick in eine umfangreiche Studie zum Vergleich von Dialog- und Beteiligungsformaten und demonstriert die Rolle und Leistungen der Methode der Inhaltsanalyse in diesem Kontext.
Joachim Wirth und Jens Fleischer geben in ihrem Grundlagenbeitrag einen Einblick in die Entwicklung und Interpretation von Testverfahren. Passend dazu stellen Till Bruckermann, Tanja Straka und Moritz Krell im dazugehörigen Praxisbeitrag eine Vorlage für einen Test über Fähigkeiten zum wissenschaftlichen Denken bereit.
Marc Stadtler und Corinna Schuster führen in ihrem Grundlagenbeitrag in Experimentaldesigns für die Evaluation von Maßnahmen der Wissenschaftskommunikation ein, und Hannah Greving, Till Bruckermann und Joachim Kimmerle veranschaulichen diese anschließend an Praxisbeispielen im Kontext von Bürgerwissenschaftsprojekten.
Anschließend berichten Eva Wollmann und Jacob Birkenhäger aus der Praxis von Beteiligungsverfahren und zeigen Möglichkeiten und Methoden auf, mit denen im konkreten Kontext von Veranstaltungen und Workshops Feedback zu Evaluationszwecken eingeholt werden kann.
Den Abschluss des Bandes bildet die Vorstellung der Evaluation der Dialogveranstaltung Mensch Wissenschaft! von Markus Gabriel, Isabella Kessel, Thomas Quast und Eva Roth. Zentral ist hierbei die Anwendung eines Multimethodenansatzes, in welchem dem Erkenntnisinteresse innerhalb der Rahmenbedingungen der Evaluation durch unterschiedliche Verfahren nachgegangen wird.
Im Zentrum dieses Bandes stehen Beiträge, die sich aus einer methodisch orientierten Sichtweise darauf konzentrieren, Evaluationen in ihrem Potenzial sichtbar werden zu lassen und damit auch konkrete Beispiele für das Evaluieren unterschiedlicher – auch informeller oder interaktiver – Formate und Aktivitäten von Wissenschaftskommunikation (vgl. Grand und Sardo 2017) mit unterschiedlichen Evaluationsfragen zu unterschiedlichen Zeitpunkten im Prozess der Wissenschaftskommunikation (Pellegrini 2021) präsentieren. Es wird deutlich, dass das Postulat der Vergleichbarkeit nicht zum einzigen Ziel von Evaluationen werden sollte. Vielmehr bestehen konstruktive Evaluationen aus überzeugend dargestellten Kernleistungen, die die Individualität eines Programms bzw. einer Maßnahme nachvollziehbar sichtbar machen.
In vielen Beiträgen, die ein konkretes Praxisbeispiel vorstellen, stehen Bürger:innen, Besucher:innen, Schüler:innen, Lai:innen o. Ä. und ihre Wahrnehmung einer Aktivität oder die Wirkung eines Projekts auf sie im Fokus der Evaluationen. Dies soll nicht darüber hinwegtäuschen, dass auch die Wirkungen von öffentlicher Wissenschaftskommunikation auf beteiligte Forschende oder die (ggf. auch unintendierten) Rückwirkungen auf eine Forschungseinrichtung oder ins Wissenschaftssystem Gegenstand und damit Objekt der Evaluationen von Wissenschaftskommunikation sein können.
Mit diesem multiperspektivischen Band möchten die Herausgeber:innen einen Beitrag zu einer aussagekräftigen und vielfältigen Evaluationspraxis in der deutschsprachigen Wissenschaftskommunikationscommunity an der Schnittstelle von Praxis und Forschung und gemeinsam mit Akteur:innen aus beiden Bereichen leisten. Die Hoffnung ist, Evaluation zu einem (selbstverständlichen) Lernprozess für die Community der Wissenschaftskommunikation zu machen und basierend auf ihren Ergebnissen Akteur:innen der Wissenschaftskommunikation dazu zu inspirieren, über ihre Ziele und Aktivitäten zu reflektieren, um langfristig gute und wirkungsvolle Wissenschaftskommunikation für und mit der Öffentlichkeit zu gestalten.
Der Band versucht gezielt, das Thema der Evaluation von Wissenschaftskommunikation sowohl durch Autor:innen aus der Praxis als auch durch Wissenschaftler:innen unterschiedlicher Fachkulturen zu beleuchten. Damit leistet er einen Beitrag zum dringend notwendigen Ausbau der Vernetzung zwischen Wissenschaft und Praxis der Wissenschaftskommunikation (Jensen und Gerber 2020; Han und Stenhouse 2022; Scheufele 2022).
Der besondere Dank der Herausgeber:innen gilt allen Autor:innen, die mit viel Engagement und Ausdauer das Zustandekommen dieses Bandes ermöglicht haben. Eine ebenso herzlicher Dank gilt darüber hinaus dem Bundesministerium für Bildung und Forschung und der Klaus Tschira Stiftung, die es durch die Übernahme der Open-Access-Veröffentlichungskosten ermöglicht haben, dass dieser Band, der sich explizit an Akteur:innen aus Praxis und Forschung der Wissenschaftskommunikation richtet, nicht nur einem wissenschaftlichen Publikum an Forschungs- und Bildungseinrichtungen zugänglich ist, sondern von vielen eingesehen und herangezogen werden kann.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
download
DOWNLOAD
print
DRUCKEN
Fußnoten
1
An dieser Stelle sei bereits darauf hingewiesen, dass verschiedene Autor:innen (bspw. Döring und Bortz 2016 oder Stockmann und Meyer 2017) den Begriff der Evaluationsforschung durchaus als Synonym für Evaluationen nutzen. In diesem Beitrag repräsentiert dieser Terminus zunächst ausschließlich die Forschung über Evaluationen und damit über die Praxis, die Methoden, aber auch die Nutzung von Evaluationen.
 
2
Evaluationsstandards aber auch Einhaltung von wissenschaftlichen Gütekriterien.
 
Literatur
Zurück zum Zitat Balzer L, Beywl W (2018) Evaluiert – erweitertes Planungsbuch für Evaluationen im Bildungsbereich (2., überarbeitete Aufl.). hep verlag, Bern Balzer L, Beywl W (2018) Evaluiert – erweitertes Planungsbuch für Evaluationen im Bildungsbereich (2., überarbeitete Aufl.). hep verlag, Bern
Zurück zum Zitat Bonfadelli H, Fähnrich B, Lüthje C, Milde J, Rhomberg M, Schäfer MS (2017) Das Forschungsfeld Wissenschaftskommunikation. In: Bonfadelli H, Fähnrich B, Lüthje C, Milde J, Rhomberg M, Schäfer M (Hrsg) Forschungsfeld Wissenschaftskommunikation. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-12898-2_1 Bonfadelli H, Fähnrich B, Lüthje C, Milde J, Rhomberg M, Schäfer MS (2017) Das Forschungsfeld Wissenschaftskommunikation. In: Bonfadelli H, Fähnrich B, Lüthje C, Milde J, Rhomberg M, Schäfer M (Hrsg) Forschungsfeld Wissenschaftskommunikation. Springer VS, Wiesbaden. https://​doi.​org/​10.​1007/​978-3-658-12898-2_​1
Zurück zum Zitat DeGEval [Gesellschaft für Evaluation] (2004) Empfehlungen zur Anwendung von Standards für Evaluation im Handlungsfeld der Selbstevaluation. DeGEval – Gesellschaft für Evaluation, Alfter DeGEval [Gesellschaft für Evaluation] (2004) Empfehlungen zur Anwendung von Standards für Evaluation im Handlungsfeld der Selbstevaluation. DeGEval – Gesellschaft für Evaluation, Alfter
Zurück zum Zitat DeGEval [Gesellschaft für Evaluation] (2017) Standards für Evaluation Erste Revision 2016. DeGEval – Gesellschaft für Evaluation, Mainz DeGEval [Gesellschaft für Evaluation] (2017) Standards für Evaluation Erste Revision 2016. DeGEval – Gesellschaft für Evaluation, Mainz
Zurück zum Zitat Döring N, Bortz J (2016) Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Springer, BerlinCrossRef Döring N, Bortz J (2016) Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Springer, BerlinCrossRef
Zurück zum Zitat Jensen E (2014) The problems with science communication evaluation. JCOM 13(01):C04CrossRef Jensen E (2014) The problems with science communication evaluation. JCOM 13(01):C04CrossRef
Zurück zum Zitat Jensen E (2015) Highlighting the value of impact evaluation: enhancing informal science learning and public engagement theory and practice. JCOM 14(03):Y05CrossRef Jensen E (2015) Highlighting the value of impact evaluation: enhancing informal science learning and public engagement theory and practice. JCOM 14(03):Y05CrossRef
Zurück zum Zitat Hense JU (2021) Nicht jede Evaluation ist eine gute Evaluation. Warum gute Evaluationen fachliche Standards berücksichtigen sollten, FORUM Sexualaufklärung und Familienplanung: Informationsdienst der Bundeszentrale für gesundheitliche Aufklärung (BZgA), 1, S 3–5 Hense JU (2021) Nicht jede Evaluation ist eine gute Evaluation. Warum gute Evaluationen fachliche Standards berücksichtigen sollten, FORUM Sexualaufklärung und Familienplanung: Informationsdienst der Bundeszentrale für gesundheitliche Aufklärung (BZgA), 1, S 3–5
Zurück zum Zitat Müller-Kohlenberg H, Beywl W (2003) Standards der Selbstevaluation – Begründung und aktueller Diskussionsstand. Z Eval 1:65–75 Müller-Kohlenberg H, Beywl W (2003) Standards der Selbstevaluation – Begründung und aktueller Diskussionsstand. Z Eval 1:65–75
Zurück zum Zitat Schäfer M, Kristiansen S, Bonfadelli H (2015) Wissenschaftskommunikation im Wandel: Relevanz, Entwicklung und Herausforderungen des Forschungsfeldes. In: Schäfer M, Kristiansen S, Bonfadelli H (Hrsg) Wissenschaftskommunikation im Wandel. Herbert von Halem, Köln, S 10–42 Schäfer M, Kristiansen S, Bonfadelli H (2015) Wissenschaftskommunikation im Wandel: Relevanz, Entwicklung und Herausforderungen des Forschungsfeldes. In: Schäfer M, Kristiansen S, Bonfadelli H (Hrsg) Wissenschaftskommunikation im Wandel. Herbert von Halem, Köln, S 10–42
Zurück zum Zitat Stockmann, R (2010) Rolle der Evaluation in der Gesellschaft. In: Stockmann R, Meyer, W (Hrsg) Evaluation. Eine Einführung. Budrich, Opladen, S 15–54 Stockmann, R (2010) Rolle der Evaluation in der Gesellschaft. In: Stockmann R, Meyer, W (Hrsg) Evaluation. Eine Einführung. Budrich, Opladen, S 15–54
Zurück zum Zitat Stockmann R, Meyer W (2017) Einleitung. In: Stockmann R, Meyer W (Hrsg) Die Zukunft der Evaluation. Trends, Herausforderungen, Perspektiven, Bd 13. Waxmann, Münster, S 9–20 Stockmann R, Meyer W (2017) Einleitung. In: Stockmann R, Meyer W (Hrsg) Die Zukunft der Evaluation. Trends, Herausforderungen, Perspektiven, Bd 13. Waxmann, Münster, S 9–20
Zurück zum Zitat Weitkamp E (2015) Between ambition and evidence. JCOM 14(02) Weitkamp E (2015) Between ambition and evidence. JCOM 14(02)
Zurück zum Zitat Weiss CH (1998) Evaluation. Methods for Studying Programs and Policies, 2. Ausgabe. Prentice Hall, New Jersey Weiss CH (1998) Evaluation. Methods for Studying Programs and Policies, 2. Ausgabe. Prentice Hall, New Jersey
Zurück zum Zitat Wottawa H, Thierau H (1998) Lehrbuch Evaluation. Huber, Bern Wottawa H, Thierau H (1998) Lehrbuch Evaluation. Huber, Bern
Zurück zum Zitat Ziegler R, Hedder IR (2020) Evaluationspraktiken in der Wissenschaftskommunikation – Eine Betrachtung veröffentlichter Evaluationsberichte im deutschsprachigem Raum. Wissenschaft im Dialog, Berlin Ziegler R, Hedder IR (2020) Evaluationspraktiken in der Wissenschaftskommunikation – Eine Betrachtung veröffentlichter Evaluationsberichte im deutschsprachigem Raum. Wissenschaft im Dialog, Berlin
Metadaten
Titel
Wissenschaftskommunikation evaluieren – mit Methode(n)
verfasst von
Philipp Niemann
Vanessa van den Bogaert
Ricarda Ziegler
Copyright-Jahr
2023
DOI
https://doi.org/10.1007/978-3-658-39582-7_1