Zusammenfassung
Die Einwerbung von Drittmitteln ist in Deutschland zum dominanten Indikator zur Messung von Forschungsqualität geworden. Diese Entwicklung hat allerdings eine Reihe von Nebeneffekten mit sich gebracht, die diese Methode der Messung von Forschungsqualität erheblich in Frage stellen. Wenn diese Effekte verrnieden werden sollen, ist Publikationen als Nachweis von Forschungsqualität eine herausragende Bedeutung beizumessen. Aber such deren Messung in bibliometrischen Verfahren wirft erhebliche Probleme auf. Urn die Forschung nicht vollständig durch Begutachtungsverfahren zu normalisieren, müssen bibliometrische Messverfahren Anreize so setzen, dass genügend Spielraum für Kreativität, Originalität und Innovation bleibt.
Abstract
Recruiting third-party funds has become the primary indicator when it comes to measuring research quality in Germany. Nevertheless, this development has involved a whole series of side-effects that challenge this method of assessing research quality substantially. If such effects are to be avoided publications should acquire major significance in providing evidence of research quality. Yet, assessing these by means of bibliometric methods also presents considerable problems. To avoid complete standardization of research through assessment procedures, bibliometric measuring processes have to provide stimuli in such a way that there is enough scope left for the unfolding of creativity, originality and innovation.
Literaturverzeichnis
Albert, H. 1963: Modell-Platonismus. Der neoklassische Stil des ökonomischen Denkens in kritischer Beleuchtung. In F. Karrenberg, H. Albert (Hg.), Sozialwissenschaft und Gesellschaftsgestaltung. Festschrift für Gerhard Weisser. Berlin: Duncker & Humblot, 45–76.
Armstrong, J.S. 1997: Peer Review for Journals: Evidence on Quality Control, Fairness, and Innovation. Science and Engineering Ethics, 3. Jg., Heft 1, 63–84.
Ben-David, J. 1971: The Scientist’s Role in Society: A Comparative Study. Englewood Cliffs, N.J.: Prentice Hall.
Berezin, A. 1998: The Perils of Centralized Research Funding Systems. Knowledge, Technology & Policy, 11. Jg., Heft 3, 5–26.
Berghoff, S., Federkeil, G., Giebisch, P., Hachmeister, C.-D., Siekermann, M., Müller-Böling, D. 2005: Das CHE-ForschungsRanking 2004. Auszug aus dem Arbeitspapier Nr. 62. Gütersloh: Centrum für Hochschulentwicklungs.
Bogler, R. 1994: The Impact of Past Experience on People’s Preference: The Case of University Researchers’ Dependency on Funding Sources. Higher Education, 28. Jg., Heft 2, 169–187.
Bookstein, A., Yitzhaki, M. 1999: Own Language Preference: A new Measure of “Relative Language Self-citation. Scientometrics, 46. Jg., Heft 2, 337–348.
Bourdieu, P. 1992: Homo Academicus. Frankfurt a.M.: Suhrkmaap (frz. Original 1984).
Bourke, P., Butler, L. 1999: The Efficacy of Different Modes of Funding Research: Perspectives from Australian Data on the Biological Sciences. Research Policy 28. Jg., Heft 5, 489–499s.
Butler, L. 2003: Explaining Australia’s Increased Share of ISI Publications — the Effects of a Funding Formula Based on Publication Counts. Research Policy 2003, 32. Jg., Heft 1, 143–155.
Campanario, J.M. 1998a. Peer Review for Journals as it Stands Today — Part I. Science Communication 19. Jg., Heft 3, 181–211.
Campanario, J.M. 1998b. Peer Review for Journals as it Stands Today — Part II. Science Communication 19. Jg., Heft 4, 277–306.
Cole, S., Cole, J.R., Simon, G.A. 1981: Chance and Consensus in Peer Review. Science 214. Bd., Heft 4523, 881–886.
Coupé, T. 2003: Revealed Performances: Worldwide Rankings of Economists and Economic Departments, 1990–2000. Journal of the European Economic Association. 1. Jg., Heft 6, 1309–1345.
Deutsche Forschungsgemeinschaft (DFG) 2003: Förder-Ranking 2003. Institutionen — Regionen — Netzwerke. DFG-Bewilligungen und weitere Basisdaten öffentlich geförderter Forschung. Bonn.
Deutsche Forschungsgemeinschaft (DFG) 2006: Chancengleichheit. www.dfg.de/wissenschaftliche_karriere/chancengleichheit/statistik.html.
Feyerabend, P. K. 1976: Wider den Methodenzwang. Skizze einer anarachistischen Erkenntnistheorie. Frankfurt a.M.: Suhrkamp.
Fröhlich, G. 2002: Anonyme Kritik. Peer Review auf dem Prafstand der empirischtheoretischen Wissenschaftsforschung. In E. Pipp (Hg.), Drehscheibe E-Mitteleuropa. Information: Produzenten, Vermittler, Nutzer. Die gemeinsame Zukunft. Wien: Phoibos Verlag, 129–146.
Gerhards, J. 2002: Reputation in der deutschen Soziologie — zwei getrennte Welten. Soziologie, 31. Jg., Heft 2, 539–552.
Gläser, J. 2006: Die Fallstricke der Bibliometrie. Soziologie, 35. Jg., Heft 1, 42–51.
Gläser, J., Laudel, G., Hinze, S., Butler, L. 2002: Impact of Evaluation-based Funding on the Production of Scientific Knowledge. Worry About, and How to Find Out. Expertise for the German Ministry for Education and Research. www.sciencepolicystudies.de/doldexpertiseglae-lau-hin-but.pdf.
Harley, S., Lee, F.S. 1997. Research Selectivity, Managerialism, and the Academic Process: The Future of Nonmainstream Economics in the U.K. Universities. Human Relations 50. Jg., Heft 11, 1427–1460.
Hayek, F.A. von 1969: Freiburger Studien. Tabingen: Mohr Siebeck.
Hirschauer, S. 2004: Peer Review auf dem Prüifstand. Zum Soziologiedefizit der Wissenschaftsevaluation. Zeitschrift für Soziologie, 33. Jg., Heft 1, 62–83.
Hodgson, G., Rothman, H. 1999: The Editors and Authors of Economic Journals: A Case of Institutional Oligopoly? Economic Journal, 109. Bd., Heft 453, F165–F186.
Hornbostel, S. 1997: Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.
Hornbostel, S. 2001: Third Party Funding of German Universitities. An Indicator of Research Activity. Scientometrics, 50. Jg., Heft 3, S. 523–537.
Hornbostel, S. 2006: Leistungsmessung in der Forschung. In Hochschulrektorenkonferenz (HRK) (Hg.), Von der Qualit~tssicherung der Lehre zur Qualitätsentwicklung als Prinzip der Hochschulsteuerung. Beiträge zur Hochschulpolitik 1/2006, Band 1, Bonn, 219-228.
Horrobin, D.F. 1990: The Philosophical Basis of Peer Review and the Suppression of Innovation. Journal of the American Medical Association (JAMA), 263. Bd., Heft 10, 1438–1441.
Horrobin, D.F. 1996: Peer Review of Grant Applications: A Harbinger for Mediocrity in Clinical Research? Lancet, 348. Bd., Heft 9037, 1293–1295.
Kalaitzidakis, P., Mamuneas, Th.P., Stengos, Th. 2003: Rankings of Academic Journals and Institutions in Economics. Journal of the European Economic Association 1, Jg., Heft 6, 1346–1366.
King, D.A. 2004. The Scientific Impact of Nations. Nature 430, 311–316.
Kocher, M., Sutter, M. 2001: The Institutional Concentration of Authors in Top Journals of Economics During the Last Two Decades. The Economic Journal, 111. Bd., Heft 472, F405–F421.
Kuhn, Th. 1967: Die Struktur wissenschaftlicher Revolutionen. Frankfurt a.M.: Suhrkamp.
Langfeldt, L. 2001: The Decision-Making Constraints and Processes of Grant Peer Review, and their Effects on the Review Outcome. Social Studies of Science, 31. Jg., Heft 6, 820–841.
Laudel, G. 1999: Interdisziplinfire Forschungskooperation: Erfolgsbedingungen der Institution ‚Sonderforschnngsbereich’. Berlin: edition sigma.
Laudel, G. 2003: The Art of Getting Funded. How Scientists Adapt to their Funding Conditions. Proceedings TASA 2003 Conference, University of New England, 4.–6. Dezember 2003 (PDF).
Laudel, G. 2004: The ‚Quality Myth’: Promoting and Hindering Conditions for Acquiring Research Funds. www.csi.ensmp.fr./csi/45/
Lenhardt, G. 2005: Hochschulen in Deutschland und in den USA. Deutsche Hochschulpolitik in der Isolation. Wiesbaden: VS Verlag.
Liebeskind, U., Ludwig-Mayerhofer, W. 2005. Auf der Suche nach der Wunsch-Universitfit — im Stich gelassen. Anspruch und Wirklichkeit von Hochschulrankings. Soziologie, 34. Jg., Heft 4, 442–462.
Luukkonen, T. 1995: The Impacts of Research Field Evaluations on Research Practice. Research Policy, 24. Jg., Heft 3, 349–365.
Luwel, M. 1999: Is the Science Citation Index US biased? Scientometrics, 46. Jg., Heft 3, 549–562.
Merton, R.K. 1949/1968b: Social Structure and Anomie. In R.K. Merton, Social Theory and Social Strucutre. New York: Free Press, 185–204.
Merton, R.K. 1996: The Matthew Effect in Science, II: Cumulative Advantage and the Symbolism of Intellectual Property. In: R.K. Merton, On Social Structure and Science. Chicago: The University of Chicago Press, 318–336.
Moed, H.F. 2005: Citation Analysis in Research Evaluation. Dordrecht: Springer.
Münch, R. 2007: Die akademische Elite. Zur sozialen Konstruktion wissenschaftlicher Exzellenz. Frankfurt a.M.: Edition Suhrkamp.
National Science Foundation. 2004: Science and Engineering Indicators. Arbington. Division of Science Resources Statistics (SRS) (www.nsf.gov/statistics/seindO4/c5/c5h.htm)
Neidhardt, F. 1988: Selbststeuerung in der Forschungsförderung: Das Gutachterwesen der DFG. Opladen: Westdentscher Verlag.
Parsons T., Platt, G.M. 1973: The American University. Cambridge, MA: Harvard University Press.
Raan, A.J.F. van 1996: Advanced Bibliometric Methods as Quantitative Core of Peer Review Based Evaluation and Foresight Exercises. Scientometrics, 36. Bd., Heft 3, 397–420.
Raan, A.J.F. van 2005: Fatal Attraction: Conceptual and Methodological Problems in the Ranking of Universities by Bibliometric Methods. Scientometrics, 62. Bd., Heft 1, 133–143.
Rammert, W. 2002: Die halbierte Reputation — eine grob fahrlassige und tmfaire Rechnung. Soziologie, 31. Jg., Heft 3, 53–55.
Schimank, U. 1995: Hochschulforschung im Schatten der Lehre. Frankfurt a.M., New York: Campus.
Seglen, P.O. 1997: Citations and Journal hnpact Factors: Questionable Indicators of Research Quality. Allergy, 52. Jg., Heft 11, 1050–1056.
Sonnert, G. 1995: What Makes a Good Scientist? Determinants of Peer Evaluation Among Biologists. Social Studies of Science, 25. Jg., Heft 1, 35–55.
Statistisches Bundesamt 2005: Bildung and Kultur. Monetäre hochschulstatistische Kennzahlen. Artikelnummer 2110432037004. Wiesbaden.
Talib, A.A. 2001: The Continuing Behavioural Modification of Academics since the 1992 Research Assessment Exercise. Higher Education Review, 33. Jg., Heft 3, 30–46.
Taylor, J. 2001: The Impact of Performance Indicators on the Work of University Academics: Evidence from Australian Universities. Higher Education Quarterly, 55. Jg., Heft 1, 42–61.
Travis, G.D.L., Collins, H.M. 1991: New Light on Old Boys: Cognitive and Institutional Particularism in the Peer Review System. Science, Technology and Human Values, 16. Jg., Heft 3, 322–341.
Weber, M. 1922/1973: Die ‘Objektivität’ sozialwissenschaftlicher und sozialpolitischer Erkenntnis. In M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen: Molar Siebeck, 146–214.
Weingart, P. 2003: Evaluation of Research Performance: the Range of Numbers. In: Bibliometric Analysis in Science and Research. Applications, Benefits and Limitations. Second Conference of the Central Library. Forschungszentrum Jialich, 7-19.
Weingart, P. 2004: Impact of Bibliometrics upon the Science System: Inadvertent Consequences? In H.F. Moed, W. Glänzel, U. Schmoch (Hg.), Handbook on Quantitative Science and Technology Research. Dordrecht: Kluwer Academic Publishers.
Zuckerman, H., R.K. Merton 1971: Patterns of Evaluation in Science. Institutionalization, Structure and Functions of the Reference System. Minerva, 9. Jg., Heft 1, 66–100.
Additional information
Ich danke Christian Dressel für die Durchführung der Regressionsanalysen.
Rights and permissions
About this article
Cite this article
Münch, R. Drittmittel und Publikationen. Soziologie 35, 440–461 (2006). https://doi.org/10.1007/s11617-006-0080-1
Issue Date:
DOI: https://doi.org/10.1007/s11617-006-0080-1