09.03.2026 | Ben Kaden
Nicht erst seit CoARA steht die Frage, wie eine faire und zeitgemäße Evaluation und Bewertung von Forschungsoutput gewährleistet werden kann, im Mittelpunkt des Wissenschaftsmanagements und der Infrastrukturentwicklung. Infrastrukturen sind auch deshalb in diesem Zusammenhang interessant, weil sie sogenannten Proxys, also quantitative Indikatoren für wissenschaftliche Qualität wie Publikationszahlen, Zitationsmetriken (z.B. h-Index, Journal Impact Factor), Drittmittelvolumina oder Indexierungen, datafizieren und damit auch messbar und auswertbar machen. Zugleich ist deutlich, dass die Interpretation dieser Proxys eine kritische Interpretation und Einordnung erfordert. Unterbleibt dieser Schritt, führt dies zu Fehldeutungen und häufig auch zu Fehlanreizen.
Da Publikations- und Wissenschaftskulturen unterschiedlich operieren, ist es naheliegend, auch die Forschungsbewertung fachkulturell differenziert zu betrachten. In einer Neuerscheinung aus dem Umfeld der Vernetzungs- und Kompetenzstelle Open Access Brandenburg (VuK) betrachten Ellen Euler und Philipp Falkenberg dies am Beispiel der Rechtswissenschaft. Auch aus unserem Monitoring bei der VuK wissen wir, dass sich die Eigenlogik dieser Disziplin nur sehr eingeschränkt in den üblichen quantitativen Bewertungsverfahren abbilden lässt.
Der Artikel benennt dafür eine Ursache:
Takeaway 1: Die Rechtswissenschaft ist bislang nur begrenzt in bibliometrische Regime eingebunden.
Das liegt weniger an bewusster Ablehnung als an der sehr geringen Erfassung zentraler Formate der deutschen Rechtswissenschaft (Monografien, Kommentare, nationale Zeitschriften) in den für bibliometrische Bewertungsverfahren dominanten Datenbanken. Die Reputationsbildung läuft primär über etablierte Verlags- und Zeitschriftenmarken bzw. Reihen, die auch als sich selbst absichernde Reputationsmonopole verstanden werden können. Neue Formate, zum Beispiel Open-Access-Modelle außerhalb dieser Strukturen, sind benachteiligt.
Mit etwas Aufwand wäre es denkbar, eigene bibliometrisch-quantitative Aus- und Bewertungsverfahren im Rahmen der Eigenlogik der Rechtswissenschaft zu entwickeln. Dies kollidierte jedoch mit der Art, wie fachliche und wissenschaftliche Qualität in dieser Disziplin abgesichert werden.
Takeaway 2: Qualität beruht in der Rechtswissenschaft auf hermeneutischer, normativer und langfristiger Argumentationsarbeit.
Die Wirkung rechtswissenschaftlicher Arbeit zeigt sich in Rechtsprechung und Gesetzgebung sowie diskursiver Rezeption. Solche Leistungen entziehen sich quantitativer Messbarkeit. Der Charakter der oft praktischen Wirkung der wissenschaftlichen Forschungsarbeit führt dazu, dass sich die Wirkung gerade nicht allein wissenschaftsintern abbildet.
Wie könnte also eine Forschungsbewertung für die Wissenschaft aussehen? Denn es ist unstrittig, dass Bewertungsverfahren für die Selbstorganisation reputationsgestützter Communitys notwendig ist. Der Beitrag schlägt eine neue Perspektive vor, die neue Datenpunkte mit Publikationsinfrastrukturen und einer spezifischen Bewertungssourveränität verknüpft:
Takeway 3: Quantitative Daten über Sichtbarkeit, Zugriffsstatistiken oder Open-Access-Status sollen nur als infrastrukturelle Informationsgrößen dienen, nicht als Qualitätsmarker.
Die Angaben erfüllen eine Reihe von Funktionen, insbesondere auch zur Gestaltung und Optimierung von Publikationsinfrastrukturen und -flüssen. Sie ermöglichen aber nur Meta-Aussagen und keine Rückschlüsse auf die inhaltliche Qualität der einzelnen Publikationen.
Takeaway 4: Eine wissenschaftsadäquate Publikationsinfrastruktur ist communitygetragen, offen, rechtlich souverän und unabhängig von proprietären Plattformlogiken (Datenaggregation, Tracking, exklusive Verwertung).
Reputation und Qualitätsbewertung sind Verständigungs- und Aushandlungsprozesse innerhalb der Community. Diese stimmt sich über die Mechanismen, Kriterien und Gewichtungen ab. Damit sie das angemessen tun kann, braucht es eine für sie transparente Infrastruktur. Externe Motivationen, zum Beispiel Verwertungsinteressen Dritter, würden diesen Anspruch unterlaufen.
Takeaway 5: Die Zuschreibung von Reputation soll von Verlagsmarken entkoppelt und an transparente, von der Fachcommunity verantwortete Qualitätsprozesse (z.B. offene Review‑Strukturen, Qualitätssiegel, Overlay-Modelle) gekoppelt werden.
Dies bedeutet de facto eine Neuaufstellung der Reputationsstrukturen, die differenzierter und komplexer, aber zugleich transparenter, fairer und partizipativer ist. Die Kopplung des Reputationsgewinns mit diskursiven Elementen, beispielsweise über offene Begutachtungen bzw. Open Peer Review, wie es sich bereits in Rezensionen zeigt, steht zudem in einer größeren Passung zu den argumentativ-hermeneutischen Methoden der Rechtswissenschaft. Dies bedeutet nicht, dass Metriken bzw. die datengestützte Analytik keine Rolle spielen. Aber:
Takeaway 6: Die „Evaluations-Governance“ bedeutet eine disziplinspezifische, bottom‑up Definition der Regeln für die Anwendung und Auswertung von Metriken.
Statt einer pauschalen Forschungsbewertung muss das Ziel also die methodologische Entwicklung von communityadäquaten Bewertungsverfahren sein.
Das Thema wird seit einiger Zeit in unterschiedlichen Projekten systematischer bearbeitet. So gibt es bei OpenRewi die Bestrebung, Matilda‑ und Matthäus‑Effekte abzumildern und die kollektive Wissensproduktion zu stärken.
Das auf OpenRewi, KidRewi und VEStOR aufbauende Modellprojekt KOLIBRI skizziert eine Diamond-Open-Access-Publikationsinfrastruktur für Lehrbücher unter föderierter Governance. Es unterstreicht die enge Wechselwirkung zwischen Ansätzen offener Wissenschaft und der Entwicklung adäquater Formen der Forschungsbewertung.
Ein konkreter methodischer Ansatz liegt im Open Review bzw. Open Peer Review. Hierbei finden unterschiedliche qualitativ-beschreibende Verfahren (Zielgruppen‑Review, kollaboratives Author Review, fachliches Open Peer Review) ihre Anwendung. Der Ablauf wird offen dokumentiert. Ein Scoring erfolgt nur zusammenfassend und muss aus der qualitativen Beurteilung nachvollziehbar begründet sein.
Für die Wirkungsbewertung schlägt der Beitrag sogenannte Impactstorys bzw. Impact-Case-Studys vor. Diese dokumentieren, möglicherweise auch als Living Document, den gesellschaftlichen, rechtspolitischen oder didaktischen Einfluss rechtswissenschaftlicher Arbeiten und sollten in Berufungs- und Förderentscheidungen einfließen.
Takeaway 7: Die Rechtswissenschaft sollte ihre aktuelle Distanz zu metrischen Bewertungsverfahren nutzen.
Dass die Rechtswissenschaft bislang nur sehr eingeschränkt in die bestehenden Systeme quantitativer Bewertungsproxys eingebunden ist, lässt sich als Chance verstehen. Eine Weiterentwicklung der rechtswissenschaftlichen Forschungsbewertung ist insbesondere durch die digitale Transformation der Publikationspraxis notwendig, kann aber in diesem Fall von Beginn an mit dem Ziel eigenständiger und disziplinär adäquater Publikations- und Bewertungsstrukturen erfolgen.
Dazu gehört der zentrale Anspruch, eine infrastrukturgestützte, qualitative Evaluationsordnung zu entwickeln, in der Metriken klar begrenzt bleiben und in der die Fachcommunity selbst die Bedingungen von Sichtbarkeit, Qualitätssicherung und Reputation gestaltet.
Quelle: Ellen Euler; Philipp Falkenburg (2026): Forschungsbewertung in der Rechtswissenschaft: Jenseits von Proxys. In: intRechtDok. 09. März 2026. https://doi.org/10.17176/20260309-114602-0