Aus der Katgorie: Impact Factor

Vom Impact Factor zum Eigenfactor: Ein großer Schritt?

Impact EigenfactorDer Impact Factor wurde nicht zu dem Zweck kreiert, für den er heute meist verwendet wird. Entsprechend eignet er sich nicht optimal dazu, die Bedeutung der Arbeit eines Wissenschaftlers zu quantifizieren. Die Kennzahl entsprang ursprünglich der Idee, Universitätsbibliothekare bei der Einkaufsentscheidung zu unterstützen. In diesem Szenario werden zusätzlich zahlreiche weitere Kennzahlen wie Preis, Auflage, Nachfrage und Verfügbarkeit in Partnerbibliotheken zurate gezogen, wenn die Profis in den Büros der Bibliotheken versuchen, mit einem limitierten Budget die bedeutendsten Publikationen des jeweiligen Feldes zu erwerben. Für sie ist also wichtig zu wissen, wie viel Neues und wie viel Relevantes in jeder Ausgabe steckt. Dies kann über die durchschnittliche Anzahl an Zitaten näherungsweise nachvollzogen werden. Entscheidend ist, dass die Grundeinheit beim Einkauf die Ausgabe (im Normalfall eine Serie von Ausgaben) ist und nicht einzelne Artikel. Durchschnittswerte pro Artikel oder pro Ausgabe sind in diesem Zusammenhang daher eine sinnvolle Einheit. Dies trifft selbstverständlich nicht zu, wenn die Arbeit eines Forschenden evaluiert werden soll, in welchem Fall die Qualität eines einzelnen Papers relevant ist. Der Impact Factor wird nicht selten von wenigen Artikeln getrieben (oft Review Artikel ohne Neuerkenntnisse), die überdurchschnittlich viele Zitate auslösen, ohne, dass sich die hohe Qualität durch alle Artikel des Journals zieht.

Ein Neuling betritt die Bühne

Von ähnlichen Problemen wird auch der Eigenfactor (Zitate pro Journal) und der abgeleitete Article Influence Score (durchschnittliche Zitate pro Artikel) heimgesucht, weshalb wir unsere wichtigste Schlussfolgerung bereits an dieser Stelle anbringen können: Der Eigenfactor kann definitiv nicht die Kontroverse um den Impact Factor wegzaubern, indem er ein schlechtes Maß mit einem guten ersetzt. Als ob diese Behauptung noch zusätzlich unterstrichen werden müsste, kommt hinzu, dass beide Kennzahlen sich auf Zitate in Journals beschränken, welche in Thomson Reuters Web of Science indexiert sind. In einem anderen Punkt kann das neue Maß, das dem Urgestein Impact Factor seit 2007 Konkurrenz macht, aber echte Abhilfe leisten: Die Berechnungen basieren hier nämlich nicht auf einem simplen Zählen von Zitaten. Stattdessen hat ein Zitat in einem Nature Artikel mehr Einfluss als eine Erwähnung durch einen unbekannten Autoren in einem obskuren Journal (Nature wird hier übrigens berechtigterweise als Synonym für eine prestigeträchtige Publikation angeführt: Es ist sowohl in der Eigenfactor Skala als auch in puncto Impact Factor ganz vorne mit dabei). Die Eigenfactor Algorithmen sollen der Google Page Rank Logik ähnlich sein, wobei letztere als Firmengeheimnis gehütet wird und erstere hier im Detail erklärt werden.

Hausaufgaben entfallen weiterhin nicht

Letztlich kann der Schluss gezogen werden, dass der Article Influence Score die komplexere und wahrscheinlich sinnvollere Kennzahl hinsichtlich der Messung des Einflusses eines Journals ist. Allerdings fegt einen auch dieser neue Factor nicht wirklich vom Hocker, da ein „viel beachtetes Journal“ eben nicht mit einem „guten Autor“ gleichzusetzen ist. Wir wiederholen unser Mantra zum Mitsingen: Wenn Sie ein Bibliothekar sind, machen Sie ihre Hausaufgaben und beachten alle Aspekte der Kaufentscheidung; wenn Sie die Leistung eines Wissenschaftlers beurteilen müssen, machen Sie ihre Hausaufgaben und lesen dessen Arbeiten gründlich; wenn Sie ein Autor auf der Suche nach der optimalen Platzierung für Ihr Paper sind, machen Sie Ihre Hausaufgaben und überlegen sich genau, wer Ihren Artikel lesen würde und welche Journals sich an diese Zielgruppe richten! Kennzahlen – auch gute Kennzahlen – sind und bleiben eine Ergänzung zur nötigen Recherche, jedoch kein Ersatz.

Wie kann die Publikationslandschaft der Wissenschaft dienlicher sein?

money publishingAus ökonomischer Sicht sind wissenschaftliche Publikationen aus verschiedenen Gründen ein höchst exotisches Konstrukt. Einige würden sagen: ein kaputtes. Ungerechtfertigte Gebühren, fehlender Zugang, mangelnde Effizienz, Hang zum Reißerischen, fehlerhafte Artikel, sinnloser Druck: Die Kritik ist nicht mehr überhörbar. Verschiedene Lösungsansätze haben bereits einiges in Bewegung gebracht. Ob sich diese gegenseitig beflügeln können, um ein komplett neues System zu schaffen?

Profit für alle?

Im klassischen Vertriebsmodell für Journals wird der größere Teil der Aufwände (Forschung, Peer Review) von der öffentlichen Hand oder anderen Trägern übernommen. Die Anschaffungskosten für Journals bestreitet weitgehend ebenfalls die öffentliche Hand, in Form von Universitätsbibliotheken. Diese sind verpflichtet, die wichtigsten Arbeiten zugänglich zu machen und sehen sich daher mit einer monopolähnlichen Situation konfrontiert. Einige Verlagshäuser spielen diese Marktmacht voll aus. Elsevier, einer der gewichtigeren Namen, vermeldete im Jahr 2010 Profite von 3.2 Milliarden USD, Gebührenerhöhungen und die Bündelung von Titeln. Proteste und Boykotte folgten. Daneben existieren von jeher Journals, die von nicht profitorientierten Trägern herausgegeben werden, welche das öffentliche Gut vor den finanziellen Profit stellen. Von Instituten und Verbänden zu Gelehrtengesellschaften und motivierten Individuen gibt es verschiedene Organisationen, die sich hier engagieren.

Wer bezahlt?

Egal ob Verlage von den den nächsten Quartalszahlen oder von bahnbrechenden Erkenntnissen träumen: das öffentliche Gut „wissenschaftlicher Fortschritt“ hinter einer Paywall zu verstecken, wirkt erst einmal bizarr. Wissenschaft benötigt das Fundament des bereits etablierten Wissens ebenso, wie den Diskurs konkurrierender Thesen. Je mehr Leute von Inhalten ausgeschlossen werden, desto weniger funktioniert dies. Natürlich verursacht jede Art der Publikation gewisse Kosten. Im Open Access Ansatz werden diese unter anderem durch Gebühren gedeckt, die beim Autor statt beim Leser erhoben werden. Damit wir die Verbreitung aus der gleichen Quelle finanziert, wie die Forschung selbst.

Mehr Leistung für weniger Geld: Das Internet ist da.

Kosten können aber nicht nur umverteilt, sondern auch gemindert werden. „Online only“ lautet hier das Zauberwort, schließlich ist das Internet dafür geschaffen, Inhalte günstiger und effizienter zu verteilen. Dabei kann nicht nur die selbe Leistung mit weniger Geldmitteln erbracht werden, sondern es steigt auch die Anzahl veröffentlichter Artikel: Einerseits sind mehr Journals im Umlauf, andererseits müssen einzelne Titel ihre Seitenzahl nicht länger strikt begrenzen. In einer Welt von langfristig zunehmenden Forschungsbudgets machen zunehmende Veröffentlichungen Sinn.

Von Einheitsmeinungen und der Unmöglichkeit, alles zu quantifizieren

Der Impact Factor ist ein problematisches Maß, jedenfalls in seiner momentanen Verwendungsform. Es ist schlicht zu viel verlangt, die Leistung und Zukunftsaussichten eines Akademikers in einer Nummer auszudrücken. Schlimmer noch, der obsessive Glaube an diese eine Kennzahl führt zu ungünstigen Anreizen. Einen möglichen Lösungsansatz bringt Nobelpreisträger Randy Scheckman ins Spiel, indem er vorschlägt, High Impact Journals schlicht zu ignorieren.

Veröffentlichung oder Leben!

Keine Forscherkarriere erblüht ohne genügend Publikationen. Ein weiterer Nobelpreisträger, Peter Higgs, behauptet, dass er im heutigen akademischen Klima keine Anstellung in der Forschung gefunden hätte. Und falls doch, so hätte er zwischen all den Artikeln, die er hätte schreiben müssen, nicht die Ruhe gefunden, die für seine bahnbrechenden Erkenntnisse nötig war. Diese Kultur zu verändern, wird ohne eine Umstellung in den Köpfen von Entscheidungsträgern nicht möglich sein. Ein Schritt in die richtige Richtung wäre es aber sicherlich, den Veröffentlichungsprozess weniger aufwändig zu gestalten. Eine komplette Runde durch den Peer Review Zyklus dauert Monate, oft sind zusätzlichen Experimente und Änderungen am Manuskript nötig. Nicht immer ist diese Zeit sinnvoll investiert.

Peer Review: Wie lang noch, bis das System bricht?

Die Anzahl von Widerrufen und Korrekturen veröffentlichter Artikel steigt, sei es, weil Forschung schluderig ausgeführt und Inhalte fehlerhaft sind, oder weil Artikel betrügerische Elemente enthalten. Beides müsste optimalerweise beim Peer Review entdeckt werden. Eine steigende Anzahl Publikationen bedeutet aber auch zunehmenden Reviewaufwand. Diese Tätigkeit frisst sich je länger je mehr ins Zeitbudget von Akademikern; die Urteile werden nach längeren Zeitperioden abgegeben und sind zunehmend von mangelnder Tiefe. Ein innovativer Ansatz ist das post-publication Review, welches Lektüre und Qualitätskontrolle kombiniert, allerdings wenig strukturiert abläuft: Ein Artikel wird ohne formales Review veröffentlicht, woraufhin Forscher, die in der selben Nische tätig sind, die Möglichkeit haben, den Artikel zu kommentieren. Gegebenenfalls kann die Arbeit daraufhin vom Autor überarbeitet und neu veröffentlicht werden. Dieser offene, transparente Prozess entspricht sehr stark der diskursgetriebenen Natur der Forschung. Er kommt zudem ohne Einsatz eines Zensors aus, welcher gewisse Themen fördert, andere ignoriert.

Diese neuen Formen befinden sich teilweise noch in den Kinderschuhen. Was aber, wenn sie sich bewähren? Können wir damit rechnen, dass erfolgreiche Wissenschaftler ihre Arbeiten bald nicht mehr nach dem heutigen Publikationsmodell veröffentlichen? Werden nicht profitorientierte, open access Onlineplattformen mit post-publication Review schon bald das Diktat der Hochglanztitel ablösen?

Wie wichtig ist der Impact Factor wirklich?

2014_impact_factorDass der Impact Factor (die durchschnittliche Anzahl Zitate pro in einem bestimmten Journal publizierten Artikel) kein perfektes Maß für Qualität ist, ist klar. Die Mängel sind zu viele und zu gravierend. Selbst das Unternehmen, welches den Index berechnet und vertreibt, listet freimütig die Unzulänglichkeiten auf. Es weist darauf hin, dass sich diese Kennzahl bedingt als alleiniges Kriterium für die Beurteilung einer Fachzeitschrift eignet. Und schon gar nicht dafür, die Qualität eines Wissenschaftlers oder seiner Leistungen einzuschätzen. Andererseits ist die Verlockung groß, mühsame Arbeit durch den Blick auf einen Indexwert zu verkürzen. Die eigene Beurteilung eines Artikels oder eines Projekts kann Stunden in Anspruch nehmen, selbst für Leute, die sich im jeweiligen Fachgebiet bewegen. Da ist es sehr viel einfacher, eine Publikationsliste mit dem jeweiligen Impact Factor abzugleichen. Hinzukommt die Aura von Objektivität. Ist doch fair, das Forschungsbudget jenem zuzusprechen, der im „besseren“ Journal publizieren konnte! Schließlich arbeitet der mit Erfolg auf einem Gebiet, das von großem Interesse ist. Wieso nicht jenen Bewerber ins Team aufnehmen, der nach einem objektiven Kriterium bessere Leistungen gezeigt hat, statt mit einer persönlichen Entscheidung das Risiko eines Fehlurteils auf sich zu nehmen?

Wer hat Angst vor der eigenen Meinung?

Wie viel Beachtung findet der Impact Factor in der akademischen Welt also tatsächlich? Schlägt das Pendel langsam aber sicher wieder in Richtung eigener Beurteilungen aus? Das Research Excellence Framework (REF), das die Forschungsleistung britischer Hochschulen bewertet und durch dessen Kanäle Forschungsgelder fließen, sah sich gezwungen, eine Stellungnahme zum Thema zu veröffentlichen. Darin betonte es, dem Impact Factor keine übermäßige Beachtung zu schenken. Dies geschah auf Grund von großem Unbehagen in der akademischen Gemeinschaft, die offensichtlich eher mit dem Gegenteil rechnet. Immerhin entnimmt man den Äußerungen des REFs, dass der Impact Factor an Universitäten nach wie vor stark beachtet wird. Praktisch jeder Forschende wird ab der ersten Publikation zugeben, auf den Impact Factor „seiner“ Journals zu schielen. Doch dagegen regt sich mehr und mehr Widerstand, sei es in Form der DORA Deklaration oder der Aussage von Nobelpreisträger Randy Schekman, nicht länger in Journals mit sehr hohem Impact Factors publizieren zu wollen. Ist also ein Wandel im Gang? Eine Studie hat untersucht, welche Faktoren beeinflussen, ob eine bestimmte Karrierestufe im Bereich der biomedizinischen Forschung erreicht wird oder nicht. Sie stellt zwar fest, dass Publikationen in Fachzeitschriften mit hohem Impact Factor die Karriere vorantreiben. Aber auch, dass dieser Effekt mit fortschreitendem Dienstalter weniger stark ausgeprägt ist, und dass andere, bessere Kriterien ebenfalls wichtig sind. Die tatsächliche Anzahl Zitate etwa, die die eigenen Artikel bekommen (im Gegensatz zu einem Durchschnittswert des Journals) beeinflussen die Karrierechancen positiv, ebenso das Prestige der Universität oder des Labors, wo die Forschung stattfand.

Bleibt zu hoffen, dass dieser Trend anhält und das Diktat des Impact Factors ein Ende findet. Eine Zahl alleine wird nie zum Ausdruck bringen können, ob ein Forschender das Potential hat, sein Gebiet voranzubringen und ob seine Nische zukunftsweisend und wichtig ist. Dass vermehrt andere Kennzahlen herangezogen werden, ist ein Schritt in die richtige Richtung. Mittelfristig wäre es aber noch idealer, wenn Komitees, die über die zukünftige Richtung der Forschung entscheiden, wieder die Zeit hätten, sich ein eigenes Urteil zu bilden, und wenn eine bessere Methode gefunden werden könnte, mit möglicherweise divergierenden Meinungen umzugehen.

Wie die prestigeträchtigsten Journals der Wissenschaft schaden

over-promoting-researchDas Spektrum von Publikationsmodellen, die akademische Fachzeitschriften nutzen, ist breit. Am untersten Ende finden sich die raubtierhaften Journals und die sogenannte „vanity press“. Diese höchst unseriösen Journals verlangen vom Autor eine Publikationsgebühr und drucken fast ohne Qualitätskontrolle praktisch jeden eingereichten Artikel. Im Open Access Bereich gibt es aber andererseits auch geachtete und seriöse Titel. Einige davon finanzieren sich ebenfalls über Autorengebühren, manche haben andere Einnahmequellen erschlossen. Teilweise erscheinen diese Journals in gedruckter Form, meist nur online. Klassischerweise finanzieren sich Wissenschaftsverlage aber über Abonnentengebühren, die in der Realität überwiegend von Universitätsbibliotheken bezahlt werden. Obwohl die Arbeit der Bibliothekare und die beschränkten Budgets eine gewisse Qualität garantieren, so finden sich doch auch in dieser Kategorie immer wieder dubiose Titel, deren Peer Review Prozess den Namen nicht verdient. Eine Gefahr für die Wissenschaft wittert man unabhängig vom Finanzierungsmodell sofort am unteren Ende der Hackordnung.

Mit Hochglanz voraus!

Tatsächlich haben aber auch die prestigeträchtigen Top-Journals mit ihren Hochglanzcovern zu einer Verzerrung geführt, die dem Forschungsbetrieb nicht dienlich ist. Titel und Verlage wie Nature, Science und Cell stehen momentan besonders im Kreuzfeuer der Kritik. Die Pflege des Impact Factors (also die Anzahl Zitate, mit denen Autoren rechnen dürfen) erfordert eine breite Leserschaft. Das disziplinenübergreifende Publikum interessiert sich aber bisweilen eher für Gesprächsstoff für die nächste Cocktailparty als für Grundlagenforschung in einem relativ fremden Fach. Neben der ungesunden Fokussierung darauf, die Bedeutung eines Journals numerisch darzustellen, ist auch ein übermäßig breites Themengebiet problematisch – die Kombination von beidem führt auf einen besonders glitschigen Pfad.

Ein weiterer Faktor ist das Platzproblem. In einer wissensbasierten Gesellschaft steigt der Forschungsoutput von Jahr zu Jahr. Die bedeutendsten drei Journals können aber per Definition bloß drei Stück sein. Und deren Seitenzahl steigt nicht. Was also passiert mit dem zunehmenden Reservoir an Forschungsresultaten, die den Schnitt nicht geschafft haben? Natürlich kann die Leserschaft die Zeit nicht unbegrenzt erhöhen, die sie darauf verwendet, um auf dem Laufenden zu bleiben. Doch mehr Publikationen mit verifizierter Qualität würden die Gelegenheit bieten, den Fokus enger zu setzen und so in der eigenen Nische schneller voranzukommen. Online Publikationen machen es möglich, ohne großen Druckaufwand mehr Artikel zu veröffentlichen. Sie gefährden damit aber ihre eigene Exklusivität. Gut für die Wissenschaft, schlecht für den Verlag.

Dazu kommt, dass sich das System selbst verfestigt. Am leichtesten lässt sich vorhersagen, ob es ein Artikel in eine Top-Zeitschrift schafft, indem man den Autor fragt, ob er schon einmal in der American Economic Review, im Journal of Political Economy oder im Journal of American History veröffentlicht hat (ja, das „Phänomen Hochglanz“ gibt es auch außerhalb der Naturwissenschaften, auch wenn sich die Diskussion dort gerade am heftigsten zuspitzt). Wer mehr oder minder zufällig zu Beginn seiner Forscherkarriere die Gelegenheit hat, mit einem einschlägigen Autor zusammenzuarbeiten, der steigert seine Chancen auf eigene Publikationen enorm. Mit allen Konsequenzen in Bezug auf Beförderungen und Forschungsbudgets.

Reißerisch und dennoch gefährlich konservativ

Trotz ihrem Hang zu reißerischen, kontroversen Themen kann es schwierig sein, wirklich bahnbrechende Artikel in Luxusjournals platziert zu bekommen. Eine Studie konnte belegen, dass Mäuse grundlegend anders auf bestimmte Medikamente reagieren als Menschen. Selbst auf solche, für die Tests an Mäusen vorgeschrieben sind. Verständlicherweise wollte sich das Autorenteam damit an eine möglichst breite Leserschaft wenden. Sowohl Science als auch Nature kamen zum Schluss, dass die Erkenntnisse der Studie nachvollziehbar und korrekt seien. Und lehnten den Artikel dennoch ab, der doch solch offensichtliche Relevanz für weite Teile der Pharmaforschung hat. Da beide Verlage eine Stellungnahme ablehnen, kann über ihre Gründe nur spekuliert werden. Ob schlicht ein konservativer Grundgedanke verhindert, dass am Fundament gerüttelt werden darf – an den elementarsten, etablierten Annahmen, auf denen zahlreiche zuvor publizierte Artikel aufbauen?

Das Ende des „Impact Factors“?

impact_sDie übermäßige Beachtung des „Impact Factors“ steht schon länger in der Kritik. Kürzlich äußerte der Medizinnobelpreisträger Randy Schekman einen radikalen Vorschlag, um der numerischen Bewertung von Journals ein Ende zu machen – nämlich die Top-gewerteten schlicht zu ignorieren. Der Impact Factor gibt an, wie oft Artikel, die in einem bestimmten Titel erscheinen, im Schnitt zitiert werden. Die Probleme mit diesem Ansatz sind vielfältig, letztlich geht es aber darum, dass es nicht immer weise ist, ein Buch nach seinem Einband zu beurteilen. Klar, hinter der Reputation eines Journals steckt etwas mehr als hinter einem schicken Staubdeckel. Die Grundidee ist ja auch nicht falsch: Die namhaftesten Fachzeitschriften ziehen die besten Artikel der bedeutendsten Autoren an und können dann aus der Masse die Rosinen herauspicken. Tatsächlich lehnen Spitzenmagazine den größeren Teil der eingesendeten Artikel noch vor dem Peer Review ab. Dadurch stellen sie sicher, nur das wirklich beste und sensationellste Material zu veröffentlichen und machen sich so für die Leserschaft besonders attraktiv. Die Beachtung und die Anzahl an Zitaten, die ihre Artikel erhalten, nimmt im Gleichschritt mit der Leserschaft zu. Dies macht das Journal wiederum für Autoren interessanter und die Anzahl der Einsendungen erhöht sich – der perfekte Kreislauf.

Schwerwiegende Kritikpunkte

Dieses Prinzip erhält aber spätestens mit der Definition eines „guten Artikels“ die ersten Kratzer. Da eine möglichst große Leserschaft angesprochen werden muss, haben jene Themen klare Vorteile, die über einen eng definierten Fachbereich hinaus relevant sind oder sich mit einem modischen Bereich beschäftigen. Ein solider Artikel mit einem „sexy Thema“ sticht in diesem Umfeld fast immer einen konkurrierenden Text aus, der von spektakulären Neuentdeckungen berichtet, dessen Feld aber nur für einen beschränkten Leserkreis interessant ist. Zweifelhaft ist auch die Logik der Zitate als Indikator für Qualität. Es stimmt zwar, dass gute, originelle Artikel oft zitiert werden. Dies gilt aber auch für umstrittene Artikel, die auf wackeligem Boden reißerische Thesen aufstellen, denn dazu werden viele andere Forscher Stellung beziehen wollen. Hinzu kommen noch eher praktische Probleme, etwa die Schwächen des Durchschnitts: Ein Journal kann seinen Impact Factor erhöhen, wenn es pro Ausgabe nur ein oder zwei Artikel anlocken kann, die überdurchschnittlich häufig zitiert werden – über die Qualität aller verbleibenden Artikel sagt dies aber nichts aus. Der Impact Factor, der von Reuters berechnet wird und ursprünglich nicht als Qualitätsmerkmal für Forscher vorgesehen war, ist zudem ein sehr grobes Werkzeug. Es unterscheidet noch nicht einmal zwischen einem Artikel mit neuen Forschungsresultaten und einem bloßen Übersichtsartikel. Letzterer richtet sich natürlich an ein breiteres Publikum und kann allein deshalb mit mehr Zitaten rechnen, trägt aber keine eigenen Erkenntnisse bei. Mittlerweile gibt es raffiniertere Indices, die Abhilfe für die gröbsten praktischen Problemen schaffen. SCImago oder der Eigenfactor etwa kommen dem Ziel, die Bedeutung einzelner Fachzeitschriften in Zahlen auszudrücken, eindeutig näher. Den Grundsatzproblemen allerdings haben auch sie nichts entgegenzusetzen.

Radikal oder schrittweise?

Prof. Schekman sieht in den verdrehten Anreizen Parallelen zwischen der Bonuskultur der Bankenwelt und den „Luxusjournals“, wie er sie nennt (gemeint sind unter anderem die Titel Nature und Science). Dass Spitzentitel verstärkt von Widerrufen betroffen sind, führt er genau darauf zurück. Als starker Befürworter von Open Access Publikationen hat er für sich die Konsequenz gezogen, künftig nicht mehr in Luxusjournals zu publizieren (vor der Publikation der Artikel, die schließlich zur Verleihung des Nobelpreises führten, hatte er diese Überzeugung ironischerweise noch nicht gehabt– vielleicht eine gute Illustration des Problems). Einen etwas homöopathischen Ansatz verfolgt DORA (Declaration on Research Assessment). Die Deklaration wurde bisher von gut 10.000 Forschenden, Redaktoren, Verlegern, Vertretern von Fördergeldinstitutionen und Professoren unterzeichnet, was sicherlich zeigt, dass das Thema unter den Nägeln brennt. Die Unterzeichner unterstützen das Anliegen, die Qualität des Forschungsbeitrages selbst zu bewerten und nicht die Reputation des Journals als Annäherung daran zu betrachten. Insbesondere wollen sie nicht länger, dass Forschungsgelder und Beförderungen vom Impact Factor abhängen. Dies bedeutet aber im Umkehrschluss, dass Bewertungen künftig ausschließlich durch Fachvertreter vorgenommen werden können, so wie dies ursprünglich vorgesehen war. Und auch, dass diese die Artikel wieder einzeln lesen, beurteilen und einordnen müssen. Wie dem Zeitmangel begegnet werden soll, der zweifelsohne den Hauptgrund für das Ausweichen auf simple Zahlen und Indices bildet, steht nicht in der Deklaration.