14.06.2022 | Ben Kaden

Wissenschaftsbewertung und Open Access. Eine Einschätzung.

Zu: „AG Publikationswesen“ des DFG-Präsidiums: Wissenschaftliches Publizieren als Grundlage und Gestaltungsfeld der Wissenschaftsbewertung. Herausforderungen und Handlungsfelder. Positionspapier. (PDF) Bonn: Deutsche Forschungsgemeinschaft, 2022.

Es gibt ein neues und sehr umfangreiches Positionspapier der Deutschen Forschungsgemeinschaft (DFG), das auch für unsere Zielgruppe zumindest auf der diskursiven Ebene relevant sein dürfte. Da wir wissen, dass nicht alle aus unserer Zielgruppe die Zeit für eine Lektüre finden werden, sollen an dieser Stelle als OA-Takeaways ein erster Eindruck und einige begleitende Überlegungen festgehalten werden.

Relevant ist das Papier vor allem, weil es einen Aspekt analysiert, den wir in der Open Access-Praxis regelmäßig wahrnehmen: Trotz mittlerweile vielfältiger Angebote für das Open Access-Publizieren erfolgt die konkrete Publikation häufig nach wie vor in Strukturen, die bestimmten Anforderungen der Wissenschaft sowie der ökonomischen Vernunft im Umgang mit öffentlichen Mitteln eher entgegenstehen. Auch die Open-Access-Strategie des Landes Brandenburg berücksichtigt diesen Aspekt und plädiert „mehr auf qualitative, denn quantitative Metriken“ zu setzen. (S.14) Wieso halten sich die Publikationsformen, die mit Open Access transformiert werden soll, so dominant? Wieso publizieren viele Wissenschaftler*innen immer noch unter auch für sie selbst auf Publikationsebene eher nachteiligen Bedingungen? (Stichworte: Closed Access, Übertragung ausschließlicher Nutzungsrechte)

Die Wirkung des Impact Faktors

Eine Ursache liegt in der Rolle der quantifizierten Wissenschaftsmessung, wie sie am prominentesten im so genannten Journal Impact Factor (JIF) zum Ausdruck kommt. (Weitere Metriken wie der Hirsch-Index werden im Positionspapier auf Seite 24 erläutert.) Sie gilt an vielen Stellen als Maß für die Reputationsbestimmung. Dabei wird der Umfang dieser “Wirksamkeit” einer wissenschaftlichen Publikation anhand der Zahl von Zitierungen gemessen. Diese an sich sehr interessante bibliometrische und einst in weiten Bereichen der Wissenschaft, vorsichtig formuliert, skeptisch betrachtete Fragestellung entwickelte sich seit ihrer Einführung durch den Wissenschaftsdienstleister Institute for Scientific Information (ISI) in den 1960er Jahren erst langsam und seit den 1970er Jahren in großem Umfang und in sehr vielen Disziplinen zum Leitmaßstab der Beurteilung wissenschaftlichen Outputs.

Heute ist das Web of Science ein lukratives Geschäftsmodell, das lange Zeit das Publizieren von Subskriptionszeitschriften aus Sicht der Wissenschaftsverlage optimal ergänzte. Auch wenn die Faustregel “Je höher der gemessene Impact, desto teurer das Abo” nicht lückenlos griff, markierte sie doch eine sichtbare Tendenz. Mittlerweile erodieren die Subskriptionsmodelle und werden in vielen Fälle durch über Publikationsgebühren finanziertes Gold Open Access ersetzt. An der Relevanzzuschreibung der quantifizierten Wissenschaftsmessung änderte das wenig. Der Zeitschriftentitel als Marke funktioniert nach wie vor als leitend, wenn es um die Wahl des Publikationsorts geht. Damit eröffnet er eine Kapitalisierungsmöglichkeit ganz unabhängig davon, ob die Inhalte Closed oder Open Access sind. Entsprechend relevant ist der Komplex, den das Positionspapier als „Hoheit der Wissenschaft über ihre eigenen Daten sicherstellen“ benennt (S.51).

Wissenschaftsmessung, Markenkultur und Qualitätsbeurteilung

Entscheidend ist dabei weniger die Bibliometrisierung selbst, auch wenn der Begründer des ISI und Erfinder des Web of Sciene, Eugene Garfield, lange intensive Lobby-Arbeit zu Etablierung seines Produkts betrieb. Die eigentliche Wirksamkeit ergibt sich aber vielmehr aus der Auslegung und Anwendung solcher Metriken zur Beurteilung (bzw. Messung) der wissenschaftlichen Leistungsfähigkeit von Hochschulen, Instituten und einzelnen Forschenden. Forschung muss, um in diesem Zusammenhang als qualitätsvoll anerkannt zu werden, nicht nur an sich publiziert sein, sondern auch in der richtigen, hochgerankten Zeitschrift erscheinen. Als Indikator gelten dabei Messzahlen, die sich zumindest aus der Sicht der in den Bereichen Bibliometrie und Szientometrie spezialisierten Bibliothekswissenschaft für eine derartige Nutzung nur eingeschränkt eignen, da sie zahlreiche weitere wissenschaftsrelevante Faktoren nicht berücksichtigen. Impact-Faktoren sind vor dem Hintergrund der Komplexität und Diversität von wissenschaftlicher Forschungspraxis bestenfalls grobe Orientierungspunkte, die sich besser für Aussagen über die Struktur des wissenschaftlichen Publikationswesens eignen als für die Bewertung der Forschung. Durch die vermeintliche Gleichsetzung von hohem Impact und hoher Qualität entsteht ein Attraktionseffekt. Entsprechend prominente Zeitschriften ziehen eine hohe Zahl von Manuskripten an, was wiederum zu hohen Ablehnungen führt. Besonders attraktive Titel filtern dabei, so die Annahme, besonders rigoros und qualitätsorientiert. Daraus entsteht die Überzeugung, dass in einem Aufsatz, der in einem hoch gerankten Journal erscheint, auch besonders hochwertige Forschung kommuniziert wird. Dieses Verständnis hat jedoch nicht nur die offensichtlichen blinden Flecken, sondern begünstigt nachweislich bereits prominente Publikationen. Man nennt dieses Phänomen auch Matthäus-Prinzip bzw. Matthew-Effect: „Wer hat, dem wird gegeben“ bzw. „Rich get richer“. Oder wie es Eugene Garfield, selbst davon überzeugt, formulierte: „A small group of journals account for more than 90 percent of significant research.“ (Eugene Garfield (1998): I Had a Dream … about Uncitedness. The Scientist 12[14]:10, July 06, 1998)

Impact und Karrieren

Der nächste Schritt ist eine Übertragung des bibliometrischen Popularitätsprinzips und seine Verkopplung von Mittelzuweisung und Karriereschritten. Genau genommen erfolgt dies in der Praxis nicht zwingend über die Metriken selbst. Oft beruft man sich der Einfachheit halber auf die Reputation, die Zeitschriften dank dieser Metriken für sich aufgebaut haben. Neue Open Access-Publikationen hatten daher gerade in der Gründungsphase zwei Hürden vor sich: Einerseits mussten sie für die tatsächliche wissenschaftliche Anerkennung zunächst überhaupt in den entsprechenden Auswertungsstrukturen, also zum Beispiel dem Web of Science, geführt werden. Denn was dort nicht erfasst ist, wird auch nicht gemessen. Andererseits hatten sie u. a. in Folge des benannten Matthäus-Prinzips einen Nachteil gegenüber Traditionsmedien, die 30 und mehr Jahre in diesen Indices ihre Titel- und  Markenreputation aufbauen konnten. Wer in der Wissenschaft Karriere machen wollte, hatte oft keine Wahl als sich in eingeführten Publikationsformen zu bewegen. Dies wirkt an vielen Stellen bis heute nach. Open Access galt lange als Experiment oder Notlösung und für die Grundierung klassischer Wissenschaftskarrieren eher schädlich. Unter anderem die Open-Access-Strategie des Landes Brandenburgs versucht diesen Effekt aufzufangen, wenn sie formuliert:

„Open-Access-Publikationen sollten bei der Evaluation von Wissenschaftlerinnen und Wissenschaftlern sowie bei Einstellungs- und Berufungsverfahren als ein zu berücksichtigendes Kriterium festgelegt werden.“ (dort, S. 14)

Euler, Ellen. (2019). Open-Access-Strategie des Landes Brandenburg (1.0). Zenodo. https://doi.org/10.5281/zenodo.2581783

Parallel wirken aufgrund der metrikbasierten Wissenschaftsbeurteilung zahlreiche Fehlanreize, die nahezu alle karrierestrategische Aspekte betonen: eine hohe Zahl von Publikationen in kurzer Zeit einerseits oder das lange Herauszögern einer Veröffentlichung durch die Fokussierung auf das Nadelöhr der Topzeitschriften andererseits, das so genannte „Slicing“, also aufsplitten von Publikationseinheiten und redundante Veröffentlichungen, so genannte „Ehrenautorenschaften“ und auf Seniorität statt tatsächliche Mitarbeit setzende Namensplatzierungen bei Mehrautor*innen. Diese und weitere Faktoren werden im Positionspapier auf den Seiten 38ff. erläutert.

Herausforderung Anreizsystem

Diese strategische „bibliometrische Output-Optimierung“ ist in etwa der Hintergrund, vor dem die Autor*innen des Positionspapiers nachvollziehbar betonen, dass “die bibliometrisch gestützte Wissenschaftsbewertung” Anreize setzt, die vor allem im Interesse der Metriken und Verlage liegen, für die Wissenschaft selbst aber problematisch sein können. Metriken wie der JIF schienen praktisch und objektiv und je mehr sie genutzt wurden, desto selbstverständlich und unhinterfragt wurden sie weiter genutzt. Dass sich daraus Folgen ergeben, die nicht unbedingt im Sinne der Wissenschaft sind, zeigt sich beispielsweise bei der Freiheit der Wahl des Publikationsortes. Sie wird durch die faktisch ungleiche Anerkennung innerhalb des Funktionssystems Wissenschaft unterlaufen. Publikationsentscheidungen fallen in dieser Logik nicht primär inhaltlich sondern strategisch. Man kann überall publizieren. Aber für eine Karriere sind bestimmte Zeitschriftentitel ein Booster, andere ein Benchmark und wieder andere ein Klotz am Bein.

Freier Zugang und Open Access

Zugleich waren die besonders Impact-starken Journals nicht nur als Publikationsort relevant. Durch ihr Versprechen, die relevanteste und hochwertigste Forschung abzubilden, wurde sie auch für Kenntnisnahme bzw. Zitierbarkeit unverzichtbar. Wissenschaftliche Bibliotheken mussten diese Titel im Bestand haben, um ihren Nutzenden die Möglichkeit der Rezeption und damit der potentiellen zitierenden Teilhabe an der Spitzenforschung zu gewährleisten. Da die entsprechenden Inhalte nur über die jeweils eine Quelle rezipierbar waren, kontrollierten die Verlage nicht nur den entsprechenden Kommunikationsfluss. Sie konnten zugleich für ihr Produkt, also die jeweilige Zeitschrift nahezu beliebige Preise festlegen, was bekanntlich zur so genannten Zeitschriftenkrise führte. Viele Titel wurden schließlich so teuer, dass sie nur noch für finanzstarke Einrichtungen finanzierbar waren. Der freie Zugang, also Open Access, versprach, dieses Zugangsproblem zu lösen.

Für Open Access sprach also in diesem Zusammenhang der wissenschaftsintrinsische Bedarf des Zugangs. Im Positionspapier kehrt dieser Aspekt erwartungsgemäß ebenfalls als zentrales Element auf. Das ist an sich nachvollziehbar und wird oft als neue Entwicklung gesehen. Praktisch war das Problem jedoch einfach nur lange implizit ausgelagert. Für Wissenschaftler*innen, zumindest in westlichen Forschungskontexten, war der Zugang in gewisser Weise bereits vorher solange frei, wie ihre Bibliotheken ihnen die Publikationen bereitstellten. Für sie bestand an dieser Stelle kaum Transformationsdruck. Die bibliothekarische Erfahrung zeigte regelmäßig, wie wenig die teils horrenden Subskriptionskosten vielen Forschenden gar nicht bewusst waren. Das Problem wurde während der Zeitschriftenkrise so lange in die Erwerbungsmittel der Bibliotheken “geblackboxt”, bis diese schließlich keine Wahl mehr hatten, Titel abbestellten und damit auch diesen vermeintlich freien Zugang kappten.

Zitierbarkeit und andere Anforderungen des wissenschaftlichen Publizierens

Die neben dem Zugang im Positionspapier genannten Funktionen des wissenschaftlichen Publizierens – Bekanntmachung, Qualitätsprüfung, Dokumentation wissenschaftlicher Erkenntnis – folgen in Open Access-Diskussionen oft erst an zweiter Stelle, sind aber nicht minder relevant. Zwei von ihnen lassen sich unmittelbar an die Frage des „High Impact“ als Kriterium zurückbinden. Denn für die hochgerankten Journals wird bekanntlich unterstellt, dass sie sich aufgrund ihrer Popularität besonders gut für die Bekanntmachung eignen und dass ihr Auswahlverfahren und damit die auf Peer Review basierende Qualitätsprüfung notwendig besonders rigoros sein muss.

Neben diesen Gesichtspunkten und begleitend zum Zugang wäre noch ein weiterer Aspekt zu betonen: die tatsächliche Rezeption und die wissenschaftsdiskursive Nachnutzung per Zitat. Denn hier spannt sich der Bogen zu den Impact-Faktor gesetzten Anreizen. Zu den Binsen der Bibliothekswissenschaft zählt auch, dass Publizierende in den meisten Fällen lieber zitiert als gelesen werden. Die beschriebene Struktur der Relevanzzuschreibung per Zitationszählung hat durchaus eine tiefliegendes Fundament. Reputation ist ein Effekt explizierter sozialer Anerkennung. Die Zitation ist in der Wissenschaft ein hocheffektives Mittel, diese Anerkennung zu signalisieren. Zugleich ist sie obligatorisch: Wer nicht, oder nicht richtig zitiert, verstößt gegen die Regeln wissenschaftlicher Kommunikation. Nicht zitiert zu werden ist in vielen Bereichen ein ernüchterndes Signal. Das Phänomen der Uncitedness ist aus guten Gründen ein Forschungsfeld der Szientometrie. (vgl. z.B. Jeppe Nicolaisen, Tove Faber Frandsen (2019): Zero impact: a large-scale study of uncitedness. In: Scientometrics 119, 1227–1254. DOI: 10.1007/s11192-019-03064-5)

Die Zitierbarkeit ist, ob man will oder nicht, die zentrale Anforderung des wissenschaftlichen Publizierens und der wissenschaftlichen Kommunikation. Das Zitat expliziert nicht nur die Kenntnisnahme, sondern drückt auch eine Re-Kontextualisierung einer Forschungsaussage aus. Es ist das simpelste, messbarste und sichtbarste Relevanzanzeichen. Das wird sich vermutlich auch nicht ändern, wenn irgendwann andere Elemente als die Faktoren des Web of Science bei Berufungen ins Gewicht fallen. Die so genannten Altmetrics, zum Beispiel, messen sehr ähnlich, nur weniger präzise, Spuren der Kenntnisnahme eines wissenschaftlichen Inhalts. Entsprechend wirkt dies auf einen funktionalen Aspekt wissenschaftlicher Informationsstrukturen zurück: Die Publikationseinheit, also zum Beispiel ein Aufsatz, muss zum Zwecke der Zitatierbarkeit dauerhaft eindeutig identifizierbar und langfristig auffindbar bleiben. Identifier mit dem Quasi-Standard DOI erfüllen genau diesen Zweck. 

Eine nächste Entwicklungsstufe und eine lange große Herausforderung für die Zitationsindices war die eindeutige Identifizierung der Autor*innen. Dies wird mittlerweile über so genannte ORCIDs ebenfalls technisch formalisiert abgesichert. Die Zuschreibung ist dabei nicht nur aus Gründen der Urheberschaft und dem damit verbundenen möglichen Reputationsgewinn geboten. Sondern auch wissenschaftsethisch im Sinne einer Verantwortlichkeit für die publizierten Inhalte. Auch diese Anforderung bleibt in einer Reputationskultur jenseits des JIF bestehen.

Die Komplexität jenseits des JIF

Die Frage nach alternativen Ansätzen der Reputationszuschreibungen ist das eigentliche Anliegen des Positionspapiers.. Es sieht auf der Bewertungsebene von Wissenschaft nachvollziehbar grundsätzlichen Nachbesserungsbedarf. Die Herausforderung bleibt aber, einen funktionierenden alternativen Ansatz nicht nur zu entwerfen, sondern auch mit einer hohen Akzeptanz in den Wissenschaftscommunities zu verankern. Statt Metriken sollten, so das Papier, “ein breites Spektrum wissenschaftlicher Produktivität” (S.3) und vor allem eine Orientierung auf die konkrete inhaltliche Güte zum Einsatz kommen. Das klingt gut, blendet aber etwas aus. Die Impact- bzw. Markenorientierung erfüllt ja nicht nur die Rolle eines überdehnten Prinzips zum Reputationsaufbau. Sondern sie dient auch auch der Komplexitätskontrolle. Wo ein überschaubare Zahl von Publikationen potentiell relevante Beiträge enthält, helfen ein eingeführter Titel und das Wissen, dass dieser als wichtig gilt, zu entscheiden, worauf man die Aufmerksamkeit lenkt. Man entdeckt vielleicht nicht die überraschende neue These. Aber man ist zu allem gebrieft, wozu gemeinhin in der Fachkultur auskunftsfähig sein sollte, wenn die Frage nach dem Forschungsstand kommt. Man geht, wie man so schön sagt, auf Nummer sicher. 

Das zeigt sich nicht nur bei der Rezeption, sondern überall dort, wo Entscheidungen zu treffen sind. Metriken sind bekanntlich nicht nur in der Wissenschaft deshalb so erfolgreich, weil sie ein vermeintlich eindeutiges und objektives Beurteilungsverfahren anbieten. Social Media-Plattformen legen ihre Quantifizierungsschemata unter ihre Algorithmen und das Matthäus-Prinzip zeigt sich bei auf jedem Influencer*innen-Account. Es zeigt sich aber auch in den Direktionszimmern und Ausstattungen vieler Forschungseinrichtungen. Entsprechend schwenkt der Reputationsdiskurs an dieser Stelle auch in einen Machtdiskurs und zur Frage nach der Steuerungsmacht. 

Die Liste der Eigenschaften einer wissenschaftsadäquaten Publikationsform (S. 57f.) bietet dafür nur geringfügig und mittelbar Lösungsansätze. Aber sie ist dennoch eine empfehlenswerte Handreichung, da sie eine Art Grundübersicht der Kriterien zur formalen Qualitätssicherung wissenschaftlicher Publikationen bietet.

Und auch der Vorschlag zur Bewältigung des Mengen- und Relevanzproblems bleibt sehr im Allgemeinen verhaftet:

„[Die Zielgruppen] müssen […] in die Lage versetzt werden, diese schon zu Beginn in adäquater Weise zu suchen, zu finden und nach inhaltlichen Kriterien zu selektieren. Dafür benötigt die Seite der Rezipientinnen und Rezipienten einen möglichst unabhängigen, nach klaren Regeln und Algorithmen individualisierbaren und zugleich möglichst vollständigen Überblick über alle für sie relevanten Quellen. Sie benötigt für die Vielfalt der existierenden Publikationsformate einen komfortablen und – je nach fachlichen Gepflogenheiten – möglichst gleichartigen Zugang mit transparent nachvollziehbarer Vorselektion.“ (Seite 60)

Das Zitat beschreibt einerseits eine Anforderung an jedes Knowledge Discovery System und andererseits auch ein zentrales Forschungsfeld, dass die Bibliothekswissenschaft und vor ihr noch mehr die Dokumentationswissenschaft seit nunmehr 100 Jahren umtreibt. Es entspricht in etwa einer aktualisierten Fassung des Anspruchs der Five Laws of Library Science, die S.R. Ranganathan 1931 vorlegte, Die Herausforderung liegt nicht in der Einsicht in die Notwendigkeit sondern in der tatsächlichen Realisierbarkeit. Das Filtern nach Relevanz, wenn auch nicht unbedingt transparent, ist ja durchaus auch das Geschäftsmodell von Web of Science oder Scopus. Wer die Dienste regelmäßig nutzt, kennt auch die Grenzen bereits auf dieser funktionalen Ebene. Dass sich, wie das Papier andeutet, ausgerechnet aus dem DFG-Programm „Infrastrukturen für wissenschaftliches Publizieren“ Lösungen ergeben, die dem formulierten Anspruch annähernd gerecht werden, wäre wünschenswert, scheint aber eher nicht erwartbar.

Die “Adressatenorientierung” erweist sich Open Access noch aus einem anderen Grund als Herausforderung. Denn in der Begründungslogik von Open Access ist die Zielgruppe bewusst abstrakt als “Allgemeinheit” gesetzt. Diese angemessen zu erreichen kann aber nur gelingen, wenn man eine Zwischeninstanz der Wissenschaftsvermittlung einführt. Wissenschaftler*innen schreiben aus guten Gründen fokussiert auf ihre Peers und damit in einer speziellen Sondersprache. Die Allgemeinheit darüber hinaus ist zwar willkommen, aus der Logik des Kommunikationssystems Wissenschaft aber bestenfalls zweitrangig relevanter Beifang. Will man das ändern, muss nicht nur das Publikationssystem transformieren.

Die Ziele einer Verschiebung und Neugestaltung der Reputations- und anderer Systeme des wissenschaftlichen Publizierens sind trotz aller Skepsis und Herausforderungen bei der Operationalisierung richtig gesetzt. Die Fortschritte werden aber vermutlich mehr über inkrementelle Transformationsschrittchen als über einen großen Wurf erreicht werden können. Dazu zählt auch, dass die Relation von Rezeptionspopularität und Zitationszahlen weiterhin bei der Wissenschaftsbewertung eine Rolle spielen wird. Jeder alternative Ansatz muss sich gegen die scheinbar Klarheit des Etablierten behaupten (vgl. dazu auch S. 45 im Positionspapier). Dass jedoch nicht unbedingt die besten, sondern die, im Rahmen der Wissenschaftslogik, spektakulärsten oder opportunsten Texte zitiert werden, ist ein Traditionsthema der Bibliometriekritik. Aber ebenso tradiert ist die Gegenfrage: Was wäre ein besserer Ansatz?

Tatsächlich werden Alternativen der Reputationszuschreibung und Wissenschaftsmessung seit Jahrzehnten gesucht. Da es aber nicht anders geht, pendeln sie nach wie vor zwischen den Polen (a) intellektuelle Begutachtung (Reviewing), die notwendig an den Faktoren Subjektivität und Publikationsmenge ihre Grenzen findet und (b) der konsequent quantitativen Bewertung. Für den Augenblick ist möglicherweise der vordringliche nächste Schritt, die Grenzen und blinden Flecken der metrischen Wissenschaftsbewertung aufzuzeigen. Mit Bibliothekswissenschaft, Informationswissenschaft und Wissenschaftsforschung gibt es dafür spezialisierte Forschungsdisziplinen, Inwiefern sie auch zu Recht die Steuerungs- und Stabilisierungsfunktion von vermeintlich objektiven Rankings als Werkzeug zur Absicherung bestimmter Aspekte der sozialen Struktur in akademischen Kulturen problematisieren, muss an anderer Stelle beleuchtet werden.

Was tun?

Es gibt also Stellschrauben. Das Papier beschreibt selbst eine ganze Reihe solcher Überlegungen. Ähnlich listet auch der Paris Call on Research Assessment vom Februar 2022 eine Reihe von wünschenswerten Verschiebungen für die Wissenschaftsbewertung hinsichtlich:

  • eine qualitätsbezogene Bewertung,
  • der Berücksichtigung wissenschaftsethischer Standards,
  • der Anerkennung vielfältiger Forschungs- und Publikationsformen und ihre gesellschaftliche Wirkung,
  • der Anwendung von Bewertungskritierien, die die Vielfalt von Forschungsformen berücksichtigt,
  • der besondere Wertschätzung von guter Forschungspraxis insbesondere offener Wissenschaft,
  • der Berücksichtigung kollaborativer, interdisziplinärer sowie gegebenenfalls auch bürgerwissenschaftlicher Aktvitäten,
  • der Förderung vielfältiger Forschungsprofile und Karierrewege

Aber auch hier bleibt die Frage der Übersetzung der Wünsche in Verfahren und Strukturen, die der Komplexität und den Zielen angemessen sind. Deutlich wird, dass sich etwas ändern muss. Deutlich ist aber auch, dass die Alternativen den Bedarf so auffangen, dass sie stärker wissenschaftsadäquat sind, als die etablierten metrischen Indikatoren. Und ähnlich wie bei Open Access bedeutet dies vermutlich, zunächst grundlegende Überzeugungsarbeit zu leisten.

Naheliegend wäre daher vorrangig tatsächlich eine breite Aufklärung zur Aussagekraft bibliometrischer und szientometrischer Verfahren. Die Szientometrie-Kritik existiert. Sie zeigt sich jedoch oft entweder als pauschale Ablehnung im Feuilleton oder als akademische Binnendebatte der eher kleinen Community, die Scientometrics als Kernzeitschrift liest.

Statt primär eine Toolentwicklung anzuregen, wären womöglich eine entsprechende Grundlagenforschung u.a. zu Alternativkonzepten einerseits und ein Programm zur Aufklärung von Wissenschaftspraxis und -administration förderrelevante Felder. Ein breiteres Basiswissen zu Biblio- und Szientometrie in den entsprechenden Bereichen würde auch zu einem Legitimationsdruck hinsichtlich der Anwendung bestimmter Kennzahlen führen. Wer dem JIF in einem Berufungsverfahren einbringt, sollte auch sagen können, wo die Grenzen dieses Faktors liegen.

Hin und wieder, so hört man, weicht man bereits bewusst davon ab und sucht direkt nach besonders innovationsgerichteten akademischen Lebensläufen. Ein grundlegend alternatives Standardverfahren scheint sich freilich bisher ebenso wenig herauszuschälen wie einer generelle Transformationsbereitschaft in der Leistungsmessung der Wissenschaft. Ähnlich wie bei Open Access braucht es – und zwar berechtigt – tatsächlich konsensfähige Best- oder wenigstens Good-Practice-Beispiele für das Funktionieren und den Erfolg neuer Verfahren. Das Positionspapier ist ein wichtiger Impuls. Der vorgeschlagene Schritt weg von Impact und Reputation hin zu Verständlichkeit und Zielgruppenpassung sowohl Inhalte als auch ihrer formalen Fassung ist ohne Zweifel attraktiv. Das Papier bleibt aber naturgemäß im Rahmen der Beschreibung eines Problems, das obendrein bereits recht gut beforscht ist. Die Auslagerung der Lösung in einen Appell an die

„Stakeholder [Wissenschaft in Gestalt ihrer Selbstverwaltungsorganisationen, Hochschulen und Forschungsorganisation, Fachgesellschaften und Dachverbände der Wissenschaft, öffentliche Geldgebern der Wissenschaft] für eine verantwortungsvolle Wissenschaftsbewertung zu sorgen und damit die wissenschaftsadäquate Entwicklung des Publikationswesens auch zukünftig zu gewährleisten.“ (S. 63)

ist für das Anschieben einer wirklichen Transformation jedoch vermutlich nicht ausreichend. Jedenfalls drängt sich diese Einschätzung auf, wenn man sich die Geschichte der zahlreichen Appelle für Open Access als Orientierung heranzieht und betrachtet, wie vergleichsweise mühsam die Transformation in der Umsetzung ablief und abläuft.

Eine weitere Erfahrung aus der praktischen Open Access-Vermittlung wäre zusätzlich die Herausforderung der Kompetenz und der konkreten Ressourcen. Wenn es nicht bei einer generellen Kritik bleiben soll, sondern auch eine Einbindung beispielsweise in Forschungsinformationssysteme geplant ist, muss dies auch mit entsprechenden Mitteln und vor allem qualifiziertem Personal unterlegt sein. Dieser Aspekt wird hier nachdrücklich herausgehoben, da wir in der Arbeit der Vernetzungs- und Kompetenzstelle oft eine Art abstrakte Erwartungshaltung an die Mitarbeitenden in den Infrastrukturen registrieren, die nicht unbedingt mit den Möglichkeiten sowohl in der Ausstattung als auch in der kontinuierlichen Weiterbildung harmoniert. Gerade angesichts der Dynamik der Transformation ist es zugleich nahezu unmöglich, die dafür optimalen Kompetenzen im Rahmen einer bibliothekarischen Grundausbildung zu vermitteln. Die Folge ist oft eine gefühlte oder tatsächliche Überforderung im Beruf und, wo es möglich ist, ein Rückgriff auf individuelles Erfahrungswissen. Das aber passt mitunter nicht zu den tatsächlichen Anforderungen. 

Wenn die Autor*innen des Positionspapiers die Wissenschaft und die wissenschaftliche Selbstverwaltung, also Hochschulen, Forschungsverbände und Fachgesellschaften in der Pflicht sehen, Unterstützung und Entlastung für die Publizierenden bei Transformation des Publikations- und, so muss man es ergänzen, Reputationssystems in der Wissenschaft zu leisten, ist auch zu berücksichtigen, wer dies konkret in Handlungsstrukturen übersetzt. Für Open Access zeigt sich: Open Access-Policys allein sind nicht genug. Publikationsfonds sind auch nicht genug. Man braucht Personal, Kompetenz und Expertise, um dies – Stichpunkt Wirksamkeit – auch operationalisierbar zu machen. Und man braucht Instanzen und Ressourcen, um das Personal dabei zu unterstützen.

Wenn das Papier also zu Recht anmerkt, dass die Wissenschaftler*innen Unterstützung bei der Entwicklung bzw. Nutzung von zu ihren Anforderungen passenden Publikationsformaten und -konzepten brauchen, dann gilt dies in gleicher Weise für die Mitarbeitenden, die diese Facette wissenschaftlicher Arbeit in den Hochschulen, Forschungseinrichtungen und Bibliotheken übernehmen. Dies zeigt sich umso akuter, wenn Publizierende zu Recht erwarten, dass zum Beispiel die Bibliotheken als eine Art Zwischendienstleister das Publizieren aktiv unterstützen. 

Vermittlungs- und Kompetenzstellen

Daher sind Angebote wie open-access.network oder auch die Vernetzungs- und Kompetenzstelle Open Access Brandenburg so zeitgemäß und wichtig. Sie bilden die Brücke zwischen dem Agenda-Setting der Transformation des wissenschaftlichen Publikationswesens und der für die erfolgreiche Umsetzung dieser Transformation notwendigen Expertise und Strukturen in den Einrichtungen. 

Das Positionspapier der DFG betont berechtigt eine Reihe wissenschaftsstruktureller Defizite, den generellen Handlungsbedarf und mögliche Lösungskonzepte. Es formuliert damit zugleich, wie viele ähnliche Publikationen, neue Anforderungen, die sehr stark Bibliotheken und Verwaltungen der Hochschulen und Forschungseinrichtungen betreffen, leider ohne diese Folgen weiterführend zu erörtern.

Natürlich sehen wir uns als Vernetzungs- und Kompetenzstelle in der Rolle, beide Ebenen, Programmatik und Praxis, im Blick zu behalten.  Wir werden diese Frage, also das Spannungsverhältnis zwischen neuen konzeptionellen Ideen und Vorgaben für alternative und offene Reputationssysteme und ihrer Durchsetzbarkeit in den vorhandenen bzw. realisierbaren Strukturen in den Einrichtungen bei einem unseren nächsten Open Access Smalltalks diskutieren. Interesst*innen aus allen Bundesländern sind herzlich eingeladen.