· 

Wir brauchen eine Berliner Erklärung 2.0

Seit 14 Jahren fordern Forscher für alle den freien Zugang zu wissenschaftlichen Publikationen  – mit bis heute mäßigem Erfolg, gerade in Deutschland. Dabei könnte mehr Transparenz im Rahmen von Open Science auch dem absurden Impact Factor den Garaus machen. Ein Gastkommentar von Alexander Grossmann.

Open-Access-Logo der Public Library of Science
Open-Access-Logo der Public Library of Science

2003 FORDERTEN WISSENSCHAFTLER und Wissenschaftsorganisationen den ungehinderten und offenen Zugang zu wissenschaftlichen Erkenntnissen, und zwar für alle. Wo also stehen wir heute mit Open Access? Die Antwort: Leider immer noch kilometerweit hinter dem, was sich die Initiatoren einst vorgestellt haben. 

 

Hinter Open Access steht die Idee, dass Ergebnisse aus öffentlich geförderter Grundlagenforschung jedermann, jederzeit, unmittelbar nach der Veröffentlichung und kostenlos verfügbar gemacht werden sollte. Dass die neuesten Erkenntnisse der Wissenschaft nicht mehr hinter Bezahlschranken immer kostspieligerer Zeitschriften-Abonnements verborgen liegen und nur noch über einige Bibliotheken in finanzstarken Ländern zugänglich sind. „Kostenloses Wissen für Alle“, titelte die FAZ dementsprechend am 9. September 2004. Die Berliner Erklärung zu Open Access wurde am 22. Oktober 2003 von 19 Initiativmitgliedern deutscher und internationaler Forschungsorganisationen beschlossen und danach von einer Vielzahl von Institutionen weltweit unterzeichnet, in Deutschland darunter die führenden Wissenschaftseinrichtungen, wie die Helmholtz-Gemeinschaft, die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft oder die Deutsche Forschungsgemeinschaft.

 

Diese gut gemeinte Erklärung ist nicht ins Leere gelaufen, allerdings läuft sie in eine andere Richtung als ursprünglich geplant. Spezielle Artikel-Tauschbörsen im Internet wie Academia, ResearchGate oder SciHub stellen mittlerweile Millionen von wissenschaftlichen Fachartikeln, teilweise ohne Rechtsgrundlage, frei zur Verfügung, was heftige Angriffe der Verlagsindustrie mit sich bringt. Schließlich geht es um einen 10 Milliarden-Markt weltweit jährlich, allein im Bereich der naturwissenschaftlich-medizinischen Fachveröffentlichungen. Vor wenigen Wochen wurde deshalb die mächtige internationale STM-Organisation der wissenschaftlichen Fachverlage über eine große Schweizer Anwaltskanzlei beim Berliner Unternehmen ResearchGate vorstellig; der Verlagsriese Elsevier und die American Chemical Society (ACS) haben mittlerweile in Deutschland eine Klage eingereicht. 

 

Sind Institutionen, Bibliotheken und Fachverlage mit der Umsetzung von Open Access gescheitert? Wiederholt sich das, was wir in einem anderen wichtigen Medienmarkt in den 2000er Jahren erlebt haben, nun auf dem Sektor der wissenschaftlichen Publikationen? Haben die Verantwortlichen aus der Erfahrung, wie seinerzeit ein Drittel des Umsatzes der weltweiten Musikindustrie irreparabel vernichtet wurde, nichts gelernt? 

 

Momentan geht man davon aus, dass lediglich zwischen 15 und 18 Prozent, also ein Bruchteil aller neu erscheinenden Fachartikel in der Schlussfassung weltweit sofort, also ohne Verzögerung (Embargo), legal und in vollem Umfang frei jedermann zugänglich gemacht werden. Für einen Außenstehenden mag das unverständlich wenig klingen. Hat man jedoch die Open-Access-Bewegung und ihre Entwicklung von Anfang an aus verschiedenen Perspektiven verfolgt, weiß man: Wir haben es hier mit einer komplizierten Gemengelage von verschiedenen Interessen zu tun. Einerseits die Wissenschaftler, die mit ihrer Arbeit von Kollegen wahrgenommen werden wollen. Und welche gleichzeitig mehr Prestige gewinnen wollen, indem sich beispielsweise in sehr bekannten oder weit verbreiteten Fachzeitschriften veröffentlicht werden. 

 

Um dieses Bild zu verwenden: um in Berlin von A nach B zu kommen, kann man laufen, Fahrrad fahren, den Bus oder das Auto nehmen. Fahre ich mit meinem Mercedes vor, erhalte ich von vielen Mitmenschen mehr Aufmerksamkeit. Fahre ich Fahrrad, schütteln dieselben Mitmenschen vielleicht den Kopf und denken, der arme Kerl, kann er sich kein Auto leisten. So ähnlich ist es in der Wissenschaft und erklärt, warum ein Forscher lieber in Nature oder Science veröffentlicht, als in einem, sagen wir, indischen Journal für Physik. Schließlich spielt jeder von uns Forschern doch lieber in der Champions League als in der Kreisklasse, wenn das möglich wäre. 

 

Ich möchte dieses Bild allerdings etwas einschränken, denn es geht den Forschern nicht nur um gefühltes Prestige. Seit Jahren hängt ihre berufliche Zukunft zunehmend davon ab, wieviel und wo sie veröffentlichen. Danach werden Jahr für Jahr beispielsweise die Mittelzuweisungen berechnet, davon hängt der Zuschlag für ein neues Förderprojekt mit ab. Die Publikationsleistung entscheidet, ob man auf eine begehrte neue Stelle berufen wird oder nicht. Es geht also um existenzielle Fragen, um den eigenen Job und die Stellen der Mitarbeiter, weniger um persönliche Eitelkeit.

 

Wie absurd das Ganze ist, fiel mir vor knapp 20 Jahren auf, als ich erstmals in einer Berufungskommission saß. Absurd, weil man schon damals als wesentliches Kriterium für die Berufungsentscheidung eine Strichliste abfasste, die unterteilt war in die Zahl der Veröffentlichungen in „A- und B-Journals“ sowie „andere“. Was sagt das über den Bewerber oder die Bewerberin aus? Was sagt das über die Qualität der Forschung aus? Was sagt das darüber aus, wie andere Kollegen diese Arbeiten einschätzen? Wenig. Oder eher nichts. Absolut nichts! 

 

Soweit ich es beurteilen kann und aus Gesprächen mit etlichen Kollegen und Forschern erfahre, hat sich an diesem zweifelhaften Prinzip vor allem bei Stellenbesetzungen hierzulande wenig geändert. Nur dass man heute keine Strichliste mehr macht, sondern eine Excel-Tabelle anlegt. Das klingt sarkastisch, formuliert aber den Kern des Problems. Inzwischen hat man lediglich einige Verfeinerungen eingebaut: Man berücksichtigt nur noch die Arbeiten der letzten fünf Jahre oder man lässt den Bewerber die wichtigsten fünf Arbeiten auswählen. Oder man rechnet sogenannte „Impact-Points“ aus, wie ich es neulich in einer Ausschreibung der Charité gelesen habe. Besser wird durch diese Verfeinerungen nicht. Man festigt nur ein pervertiertes System.

 

Dazu muss man wissen, dass der sogenannte „Journal Impact Factor“ ein rechnerisches Konstrukt aus den Fünfziger Jahren ist, ursprünglich dafür bestimmt zu ermitteln, wie viele Zitate alle in einem bestimmten Jahr veröffentlichten Artikel in einer Fachzeitschrift in einem Zeitraum von zwei darauffolgenden Jahren erhalten haben. Je höher die Zahl, desto mehr Zitate – im Durchschnitt – hat ein Beitrag in dieser Zeitschrift erhalten. Und je größer der Impact Factor, desto mehr Prestige, und desto eher spielt man in der Champions League. Klingt kompliziert, die Formel an sich ist aber ganz einfach. Nur dass die meisten Wissenschaftler sie nicht richtig verstehen. 

 

Viele gehen davon aus, dass ein großer Impact Factor automatisch viele Zitate für jeden Beitrag in dieser Zeitschrift bedeutet. Das ist falsch, da es sich ja um einen Durchschnittswert handelt, der möglicherweise über hunderte oder manchmal tausende von einzelnen Fachartikeln gemittelt wurde, die in einem Jahr in dieser Zeitschrift erschienen sind. Man kann anhand von Auswertungen einzelner Top-Zeitschriften belegen, dass nur ganz wenige Artikel wirklich häufig zitiert wurden, während die Mehrheit eher unter dem Durchschnitt lag. Fast zehn Prozent wurden sogar nur ein einziges Mal oder gar nicht zitiert, obwohl sie in einer der renommiertesten Fachzeitschriften weltweit erschienen waren, deren Impact Factor doch so hoch ist. Ich könnte also fünf Beiträge in einem dieser Champions-League-Journals haben, und kaum ein Kollege hat diesen Beitrag so relevant gefunden, dass er ihn zitiert hat. Dennoch bin ich auf der Strichliste der Berufungskommission ganz oben. 

 

Warum setzt sich der Glaube an den Impact Factor dann überhaupt so ungebrochen fort? Ich vermute: Weil die wenigsten Wissenschaftler die Zeit haben, sich wirklich damit zu beschäftigen, und würden sie ihre Zweifel äußern, hätten sie die Verlage und diejenigen Bibliotheken gegen sich, die den Impact Factor seit Jahren als wichtiges, vermeintlich objektives Instrument protegieren. Insofern mache ich meinen Forscherkollegen auch keinen Vorwurf, dass sie sich nicht öffentlich exponieren. Doch zumindest in den Gremien der eigenen Hochschule oder Forschungseinrichtung sollten all jene, die erkannt haben, dass es so nicht weitergehen kann, dafür eintreten, dass wir alternative Möglichkeiten zur Bewertung und Evaluierung von Forschung und Forschern nutzen. 

 

Möglichkeiten, die es ebenfalls seit Jahren gibt. Heute kann ich für fast jeden Beitrag, der in einer Fachzeitschrift erschienen ist, relativ genau sagen, wie oft dieser Artikel von anderen Wissenschaftlern zitiert wurde: einmal oder 500mal in einem Jahr. Auf Google Scholar beispielsweise finde ich diese Information sofort. Oder ich sehe mir die Häufigkeit an, mit der ein bestimmter Fachartikel in sozialen Netzen erwähnt oder in Blogs diskutiert wurde. Das nennt man alternative Metriken oder englisch Altmetrics. Ein Beispiel: Auf ScienceOpen, dem Netzwerk, das ich 2013 zusammen mit meinem Partner Tibor Tscheke aus Boston als Berliner Start-Up gegründet habe, haben wir für derzeit 34 Millionen Artikel sowohl die Zahl der Zitate, als auch diese Altmetrics-Angabe für jeden Artikel tagesaktuell verfügbar. Offen, frei und kostenlos. Ein Forscher irgendwo auf der Welt kann hier also die Verknüpfung neuester wissenschaftlicher Ergebnisse mit anderen Fachartikeln überprüfen und damit den Impact, also die wissenschaftliche Relevanz von Forschung individuell und im Kontext bestimmen.

 

Womit wir bei Open Science angelangt sind, wie es auf EU-Ebene seit jüngster Zeit massiv vorangetrieben wird. Open Science besteht aus einer ganzen Reihe von Bausteinen, von denen ich nur einige nennen konnte: Open Access, Altmetrics, transparente Kriterien zur Bewertung von Forschung. Aber auch offene Forschungsdaten oder Open Data sind unmittelbar verknüpft mit der zunehmenden Forderung nach mehr Transparenz in der Wissenschaft. Forschungsergebnisse können nur dann sofort leicht nachgeprüft werden, wenn die zugrundeliegenden Messdaten verfügbar gemacht werden. Offen verfügbar gemacht werden, genauso wie der Fachartikel selbst. Doch was Open Data angeht, ist der Rückstand sogar noch größer als bei Open Access. 

 

Was kann die Politik, was können die Institute selbst machen, um Forscher bei Open Science zu unterstützen? Ein erster Schritt ist sicherlich eine Vorgabe oder Richtlinie, also eine Strategie, die Open Science ganz klar als Ziel vorschreibt. Man muss nicht allzu tief in die Materie eintauchen, um festzustellen, dass in anderen Ländern in Europa, zum Beispiel in Holland oder der Schweiz, von der Politik viel ehrgeizigere Vorgaben gemacht wurden und in konkrete Open-Access-Strategien umgesetzt wurde. Im Gegensatz zu Berlin sollen in Holland oder in der Schweiz zum Beispiel bis Ende dieses Jahrzehntes alle neuen Veröffentlichungen sofort, also unmittelbar offen und frei allen Lesern zugänglich gemacht werden. 

 

In jedem Fall ist es gut, dass wir auch hierzulande immer mehr von diesen Strategien haben, wenn auch oft noch zu zaghaft oder zu unverbindlich. Wenn die Bundesrepublik, die erklärtermaßen auf digitale Technologien setzt, nicht noch weiter zurückfallen will, müssen wir jetzt dringend die Umsetzung einer Open-Access-Strategie 2.0 anzugehen. Die Zeit des darüber Redens läuft ab. 

 

Alexander Grossmann ist Professor für Verlagsmanagement und Studiendekan für Buch- und Medienproduktion an der HTWK in Leipzig. Kontakt über Linkedin oder ORCID. Sein Text wurde unter der Creative-Commons-Lizenz CC-BY 4.0 veröffentlicht. Die freie Nutzung, Weitergabe und Verwendung des Textes, auch in Auszügen, ist jederzeit möglich, wenn der Urheber genannt wird. Das Open Access Logo stammt aus der PLoS und wurde in der vorliegenden Version angepasst von den Wikipedia-Nutzern Nina, Beao und JakobVoss, CC0 1.0.

Kommentar schreiben

Kommentare: 2
  • #1

    GoaCDtTd (Montag, 26 September 2022 04:15)

    1

  • #2

    GoaCDtTd (Montag, 26 September 2022 07:46)

    1