Aus der Katgorie: Forschung und Schreiben

Bringt die Empirie das Ende der theoretischen Forschung?

conceptual-vs-empirical-researchWer konzeptionelle, theoretische Forschung betreibt, der sitzt mit rauchendem Kopf über seiner entstehenden Publikation, beim empirisch arbeitenden Kollegen hingegen raucht der überhitzte Rechner: So lassen sich die zwei grundlegenden Vorgehensweisen der Forschung charakterisieren, die dennoch aufs engste miteinander verbunden sind. Gemeinsam ist ihnen das Bestreben, falsifizierbare Aussagen zu liefern. Nachvollziehbare Erklärungen also, die dem kritischen Blick der Berufskaste widerstehen und sich gegenüber konkurrierenden Theorien als überlegen erweisen.

Eine Forschungsmethode kommt selten allein
Aus erdachten Modellen und theoretischen Grundlagen werden nach Möglichkeit testbare Voraussagen abgeleitet. Das Higgs-Boson-Teilchen war über Jahrzehnte eine Hypothese. Es entsprang einem Konzept, das von Peter Higgs vorgeschlagen und von verschiedenen Forschern, stets als Gedankenexperiment, Schritt für Schritt weiterentwickelt und vorangetrieben wurde. Dieses Konzept zu bestätigen erforderte hingegen einen 27 Kilometer langen Teilchenbeschleuniger, welcher jährlich Daten im Umfang von 25 Petabytes anhäuft. Genauso können geisteswissenschaftliche Konzepte testbare Thesen liefern, etwas über das Verhalten von Individuen.
Umgekehrt kann jeder, der eine Einführung in Statistik genossen hat, das „Korrelation-ist-keine-Kausalität“ Mantra mitbeten. Vielleicht kennen Sie den Datensatz, der belegt, dass Oliven-essende Europäer recht kleine Leute sind? Wer nichts versteht von unterschiedlichen kulinarischen Gepflogenheiten und von der regionalen Verteilung von Körpergrößen, der mag versucht sein, dem angehenden Basketballer von Oliven abzuraten. Empirie erfordert stets eine solide Theorie als Grundlage (durch welchen physischen Prozess hemmt denn die Olive das Wachstum?). Das Nachliefern der Theorie ist gestattet, schließlich führte der fallende Apfel zum Konzept der Erdanziehungskraft, nicht umgekehrt. Sie wegzulassen galt bis vor Kurzem hingegen als verpönt, ja als unwissenschaftlich.

Big Data: Triumph der Empirie?
Seit Daten eher beiläufig angehäuft werden, haben sich technische Möglichkeiten entwickelt, diese effizienter und vielfältiger zu nutzen. Big Data hält in viele Fachbereiche Einzug, einschließlich solcher, bei welchen die Arbeit mit Daten wenig Tradition hat. Beispielsweise können Algorithmen die Entwicklung des Sprachgebrauchs analysieren und so dazu beitragen, historische Texte zu datieren. Die schiere Menge an Daten erlaubt Analysen in nie dagewesener Schärfe und Breite. Macht dieser Siegeszug die Theorie überflüssig? Reicht es für den politischen Plakattexter vor der Wahl, jene demographische Gruppe anzusprechen, die am ehesten zur Wahl gehen wird? Oder muss er auch ihre Motivation verstehen? Reicht für einen Patienten die Information, dass eine gewisse Ernährungsweise den Krankheitsverlauf positiv beeinflussen könnte, oder muss der Wirkungsprozess zwangsläufig bekannt sein? Immerhin: Google hat mehrere erfolgreiche Businessmodelle auf der Idee der Korrelation ohne erklärende Theorie aufgebaut: Weshalb sich jemand mit einem bestimmten Surfprofil eher für ein gewisses Produkt interessieren wird ist irrelevant, nur die Wahrscheinlichkeit, auf eine platzierte Werbung anzusprechen, zählt. Ähnliches gilt von Suchmaschine bis Übersetzungsalgorithmus.

Daten vermehrt auszukosten liefert auch in der wissenschaftlichen Forschung interessante Impulse. Die Berichterstattung an Wahlsonntagen stellt hingegen regelmäßig unter Beweis, dass die Beweggründe der Daheimgebliebenen von hoher Brisanz sind, an konkurrierenden Thesen und Theorien mangelt es nicht. Ebenso werden sich Mediziner oder Pharmakonzerne zweifellos für den Wirkungsprozess bestimmter Nahrungsmittel und Verhaltensweisen interessieren, für mögliche Weiterentwicklungen oder Effekte bei ähnlichen Krankheiten. Die Dateneuphorie sollte nicht als Siegeszug einer Art von Forschung gesehen werden, weder in der Grundlagenforschung noch in der Anwendungsentwicklung. Theorie und Empirie gehen unverändert Hand in Hand. Riesige Datensätze über fallende Äpfel allein hätten kaum ausgereicht, um Isaac Newtons Neugier zu stillen.

Über Fachzeitschriften mit hohem und niedrigem Impact Factor…

Wissenschaftliche Zeitschriften messen den Grad ihrer Bedeutsamkeit und ihres Einflusses oft an ihrem “Impact Factor” (IF). Der Impact Factor ist nichts anderes als ein Maß, dass die durchschnittliche Zahl an Zitierungen in verschiedenen Arten von Medien, u. a. Online- und akademischen Magazinen und ähnlichen Publikationen widerspiegelt. Im Wesentlichen ist eine Zeitschrift mit hohem IF eine Zeitschrift, die von vielen Publikationen und Experten zitiert wird. Ein hoher Impact Factor bedeutet also in der Regel, dass eine Zeitschrift als “bedeutender” gekennzeichnet wird, und ist somit ein Zeichen dafür, dass eine Zeitschrift es verdient, mehr beachtet und berücksichtigt zu werden, als Zeitschriften mit niedrigerem IF-Wert. Lesen Sie weiter, um von meinen Erfahrungen mit einigen unterschiedlichen Fachzeitschriften mit hohem IF zu hören.

Der High Impact Factor und der Artikelauswahlprozess
Wissenschaftliche Zeitschriftehohem Impact Factorn mit hohem IF, deren Bedeutung und Einfluss größer sind als die anderer Zeitschriften, können es sich im Allgemeinen leisten, bei der Wahl der Artikel, die sie herausbringen, selektiv vorzugehen. Aus dem einfachen Grund nämlich, dass Zeitschriften mit hohem IF mehr Einreichungen erhalten, da Autoren und Forscher darauf hoffen, ihre Werke häufig zitiert zu sehen. Wenn es Ihnen gelingt, eine wissenschaftliche Forschungsarbeit in einer wissenschaftlichen Fachpublikation mit hohem Impact Factor zu platzieren, dann wird Ihr begutachteter und angenommener Artikel möglicherweise häufiger zitiert und in der Folge von einem größeren Leserkreis gelesen. Einen Artikel in der richtigen “Hoch-IF” Zeitschrift unterbringen zu können bedeutet somit, dass Ihrer Arbeit mehr Beachtung zuteil wird, was wiederum mehr finanzielle Forschungsmittel von verschiedenen Regierungseinrichtungen, privaten Stiftungen sowie der Industrie bedeuten kann.

Leider ist der Nachteil bei der Einreichung eines Artikel bei einer bedeutenden Zeitschrift mit hohem Impact Factor eben genau jener Faktor, welcher die Zeitschrift für die meisten Forscher ursprünglich so attraktiv gemacht hat: die Selektivität. Die Bewertung durch Fachexperten, das sogenannte “Peer Review”, kann bei Magazinen mit hohem IF deutlich schwieriger sein (und länger dauern) als bei wissenschaftlichen Zeitschriften mit niedrigerem IF. Manchmal jedoch macht es sich bezahlt, eine Ablehnung zu riskieren und längere Wartezeiten bei der Einreichung bei einer Zeitschrift mit hohem IF in Kauf zu nehmen. Wenn auch nur, weil Zeitschriften mit hohem IF auch einen besseren Wert beim “Lebenszyklus” der Zitierungen bei angenommenen und daraufhin erschienen Artikeln aufweisen.

Mit anderen Worten: Ein Artikel, den Sie in einer wissenschaftlichen Zeitschrift unterbringen, die einen hohen Impact Factor hat und hochangesehen ist, wird über einen sehr langen Zeitraum zitiert werden und dazu beitragen, dass das Potential steigt, dass Ihre Worte gelesen werden und Ihre Forschungsarbeit die Zuteilung von Forschungsgeldern beeinflusst. Sie sollten sich allerdings stets darüber im Klaren sein, dass die Selektivität, die bei Zeitschriften mit hohem Impact Factor herrscht, Ihnen große Sorgen einbringen kann. Sie könnten in die Mangel genommen werden mit Befragungen durch die Lektoren und Redakteure der Zeitschriften. Sie könnten sich plötzlich verletzender Kritik ausgesetzt sehen oder Abfuhren erhalten, die als “hilfreiche Vorschläge” auftreten. Das war zumindest meine Erfahrung bis jetzt.

Niedriger Impact Factor, bessere Behandlung
Obwohl ein hoher Impact Factor bei akademischen Zeitschriften mit großer “Bedeutsamkeit” gleichgesetzt wird, würden Sie kaum jemanden in der Welt der Wissenschaften finden – zumindest niemanden mit gutem Ruf – der behaupten würde, dass eine Zeitschrift mit niedrigerer IF-Bewertung weniger wertvoll wäre als eine mit einem höheren IF. Denken Sie nur an das Motto einer sehr hoch angesehenen amerikanischen Autoverleihfirma: “Wir sind die Nummer 2. Wir strengen uns mehr an.” Da die Firma nicht die führende Ihrer Branche war, bemühte sie sich umso mehr, Kunden anzulocken, weil sie die Nummer 1 der Autoverleiher von ihrem Platz verdrängen wollte.

Wenn man es beim Einreichen eines Artikels mit Zeitschriften mit niedrigerem IF zu tun hat, ist es in gewissen Fällen so, als würde man den Diensteifer eines konkurrierenden Autoverleihs erfahren, der den ersten Platz einzunehmen versucht. Zeitschriften mit niedrigem IF strengen sich mitunter mehr an, qualitativ hochwertige Artikel und Arbeiten zu bekommen, damit ihr IF steigt, und arbeiten mehr kollegial mit den Autoren und Forschern zusammen.

Gibt es einen guten Grund für den niedrigeren IF?
Natürlich gibt es manchmal auch vollkommen offensichtliche Erklärungen, weshalb eine bestimmte wissenschaftliche Fachzeitschrift einen niedrigeren IF-Wert aufweist als eine konkurrierende, von Fachexperten im peer review bewerte Zeitschrift. Mitunter ist eine wenig angesehene Zeitschrift mit niedrigem IF auch einfach an einer ganz bestimmten Leserschaft interessiert und hat kein Interesse daran, die bequeme kleine Nische zu verlassen. Oder vielleicht publiziert die Zeitschrift ja einfach nur nicht ganz so bahnbrechend exzellentes Material. Beides kommt vor.

Ich persönlich habe Arbeiten und Artikel sowohl bei Zeitschriften mit hohem Impact Factor als auch bei unbedeutenden Zeitschriften mit niedrigem IF eingereicht und ich wurde bei beiden von den Redakteuren und Herausgebern sehr unterschiedlich behandelt. Ich wurde von den Vorteilen der Zeitschriften mit hohem IF überzeugt und ich habe die Nachteile bei niedrig-IF Zeitschriften erlebt, aber ich habe auch erstklassige Betreuung bei einer Zeitschrift mit niedrigem IF erhalten und bin bei Zeitschriften mit hohem IF überhaupt nicht beachtet, respektlos behandelt und ignoriert worden. Egal wie gut Sie sich informieren und vorbereiten, manchmal gibt es scheinbar keinen Sinn und Verstand im System der wissenchaftlichen Einreichung und Veröffentlichung.

Plagiate?

PlagiatNicht-muttersprachliche Autoren, die in englischer Sprache publizieren wollen („ESL Autoren“ = „English as a scecond language authors“), beauftragen oft ein englisches Korrektorat, um ihr Manuskript zu verbessern. Hier stellt sich dann manchmal heraus, dass ganze Sätze von Veröffentlichungen anderer Autoren kopiert worden sind. Die Gründe sind verschieden. Unter anderem bedingt durch ein unterschiedliches Verständnis in westlichen und nicht-westlichen Ländern. Je nach Land wird das Kopieren von Wörtern durch ESL Autoren als kein schwerwiegender Tatbestand angesehen.

Jedoch ist es sehr einfach, den Plagarismus zu entdecken. Sind einige Stellen im Text in sehr gutem Englisch verfasst, während andere Passagen hingegen etliche grammatikalische Fehler aufweisen, wird der Herausgeber stutzig.

Des Weiteren kann der Herausgeber nach dem Zufallsverfahren Sätze des Textes googeln, um zu sehen, ob diese kopiert wurden. Oder es werden direkt die angegebenen Quellen des ESL Autors überprüft, um zu sehen, ob der Text reproduziert wurde. Nicht zu vergessen – es gibt auch spezielle Software Tools um Plagarismus nachzuweisen.

Wird ein Plagarismus entdeckt, ist es sehr wichtig, dies dem Autor ohne einen vorwurfsvollen Ton näherzubringen. Denn so mancher Autor weiß manchmal gar nicht, dass dies kriminell ist. Aber auch das Ausmaß des Kopierens beeinflusst die Aktion des Herausgebers. Sind ganze Paragraphen kopiert, sollte der Herausgeber die Arbeit mit Respekt ablehnen, gleichzeitig aber dem Autor die ähnlichen Passagen zusammen mit den Quellen vorlegen und ihn bitten, die Passagen nochmal zu schreiben. Anderseits, falls nur ein paar Sätze kopiert wurden, kann der Herausgeber diese durch Umschreiben „korrigieren“ und den Autor bitten, die Quelle zu zitieren.

Wenn das Manuskript sprachliche Korrekturen erfordert, kann der Herausgeber diese im typischen Lektoratsservice miteinschließen.

Es gibt aber auch einen anderen Grund für das abstrakte Schreiben als Fall des Kopierens. Und zwar dann, wenn ein Autor einen Text/Abschnitt oder ein Bündel an Sätzes in einer seiner eigenen Publikation wiederverwenden möchte, ohne dass es nach einer direkten Reproduktion aussieht. Hier kann der Herausgeber abstraktes Schreiben anbieten, nachdem er sichergestellt hat, dass die publizierten Arbeiten tatsächlich vom Autor geschrieben werden.

Eine gute Strategie ist es, den Autor den Text in seiner eigenen Sprache schreiben zu lassen und ihn dann erst zu übersetzen. Der Herausgeber bearbeitet lediglich den übersetzten Text. Das funktioniert gut für den Großteil der Autoren und trainiert zugleich die Sensibilität des Autors gegenüber dem Thema des Plagarismus. Eine professionelle englische Textkorrektur durch ein englisches Korrektorat hilft, die oben aufgeführten Probleme zu vermeiden und der ESL Autor wird durch das Ergebnis auch gleichzeitig in die Richtung des abstrakten Schreiben geschult. Somit ist es auch in der Verantwortung des Herausgebers, dem Autor die Bedeutung der Verwendung von Wörtern und Sätzen anderer zu verdeutlichen.

SCIgen – Fluch oder Segen für den Wissenschaftsbetrieb?

Forschungsartikel 2.0 – SCIgen. Vor kurzem hat man entdeckt, dass zahlreiche wissenschaftliche und akademische Artikel vollständig von einer Computersoftware, einem Forschungsartikelgenerator, erzeugt wurden. Erstaunlicherweise fanden viele der Artikel, die von dieser Computersoftware generiert wurden, Aufnahme in einigen der angesehendsten medizinischen, wissenschaftlichen und akademischen Zeitschriften die es gibt. Einige Artikel waren, obwohl sie eindrucksvoll aussahen und mit komplexen Formulierungen und langen Wörtern versehen waren, einfach nur Kauderwelsch und ziemlich lächerlich, was man als Fachman bereits bei nur flüchtigem Durchlesen hätte erkennen können. Es ist immer noch nicht restlos geklärt, wieso verschiedene akademische Zeitschriften diese Artikel publiziert haben, da doch im Allgemeinen vorausgesetzt wird, dass gerade diese Zeitschriften die eingereichten Beiträge einem langen Prüf- und Bewertungsverfahren unterziehen.

SCIgenMan kann nur vermuten, dass die Lektoren und begutachtenden Fachexperten der verschiedenen Zeitschriften und anderen Fachpublikationen entweder zu beschäftigt waren, um die eingereichten Artikel einer Prüfung zu unterziehen, oder dass sie einfach von der oberflächlichen Erscheinung dieser Artikel beeindruckt waren. So teuflisch kann ein Forschungsartikelgenerator leider sein.

Wie der Forschungsartikelgenerator entstanden ist
Ein beliebtes Forschungsgenerierungsprogramm, das vom Massachusetts Institute of Technology entwickelt wurde und SCIgen heißt, generiert mit Leichtigkeit beliebige Forschungsberichte aus den Computerwissenschaften. Die Artikel enthalten alle erforderlichen Diagramme, Verweise und Zahlen, die eine Arbeit dieser Art allein schon durch die eindrucksvolle Aufmachung hervorstechen lassen würden. Die Fähigkeit von SCIgen kontextfrei zu texten wurde entwickelt, um die schnelle Entlarvung durch Plagiatserkennungssoftware zu verhindern, und die erzeugten Texte sind so nichtssagend , unauffällig und widerspruchsfrei, dass die generierten Artikel scheinbar niemandem aufgefallen sind, als sie ihren Weg durch den Review-Prozess der Zeitschriften und Publikationen gemacht haben, bei denen sie eingereicht wurden.

Forscher des MIT, die SCIgen entwickelt haben, geben bereitwillig zu, dass sein Nutzen im Unterhaltungswert und nicht in einer Vermehrung des Wissensvorrats liegt, aus dem SCIgen selbst seine Quellen bezieht. Tatsächlich lasen sich viele der Artikel von SCIgen, darunter auch jene, die in in so manch ein wissenschaftliches Magazin aufgenommen wurden, für jene Menschen, die von der Thematik, um deren Diskussion es den Zeitschriften ging, etwas verstanden, ziemlich inkoherent. MIT-Forscher geben zu, ziemlich erheitert gewesen zu sein, als sie sahen, wie die Abgehobenheit und Selbstgefälligkeit gewisser Zeitschriften einen ziemlichen Dämpfer erfuhr, als sie feststellen mussten, dass einige der publizierten Artikel in Wahrheit das Produkt eines automatischen Artikelgenerators waren.

Die Generatorprogramme zeigen die Schwächen des Systems auf
Akademiker, insbesonde wenn sie eine Professur jeglicher Art an einer Universität halten, sehen sich gezwungen, eine bestimmte Anzahl von Forschungsberichten zu publizieren, typischerweise jährlich oder während einer vorgegebenen Anzahl von Jahren. Die Zahl der pro Jahr bei den verschiedenen Zeitschriften eingereichten Forschungsberichte – die Chancen stehen auch gut, dass es für jede akademische und wissenschaftliche Disziplin die eine oder andere Zeitschrift gibt – geht in die Hunderttausende, und viele der Artikel tragen tatsächlich zum Wissensgewinn bei. Allerdings fällt es bei dieser großen Anzahl der von zahlreichen Wissenschaftlern eingereichten Artikel dem Forschungsartikelgenerator nicht schwer, die inhärenten Schwächen des Bewertungsverfahrens aufzuzeigen.

Fest steht, dass kein Bewertungsteam bei einer Zeitschrift, kein Fachkollege oder Redakteur überhaupt in der Lage ist, alle eingereichten Artikel der erforderlichen Prüfung zu unterziehen. In Wahrheit ist es so, dass die Zeitschriften jedes Jahr von einer Flutwelle von Einreichungen überrollt werden, und manchmal stammen diese von Wissenschaftlern, die sich unter dem als Motto “publish or perish” bekannten und mit dem Streben nach einer festen Anstellung verbundenen Veröffentlichungsdruck befinden. Aufgrund der horrenden Menge der eingereichten Artikel kann man verstehen, wie ein Forschungsartikelgenerator Zeitschriftenredakteure und Herausgeber, die nicht darauf vorbereitet waren, so leicht täuschen konnte und verleiten konnte, eine zufallsgenerierte “wisschenschaftliche” oder “akademische” Arbeit zu akzeptieren.

Extrapolieren Sie nun von den zunehmenden Fähigkeiten der Computer auf ein sich in Weiterentwicklung befindendes automatisches Artikelgenerierungssoftwarepaket und machen Sie das alles zugängig für Studenten aller Schulstufen und Studien- und Forschergrade. Man schaudert bei dem Gedanken an die Art und Qualität der akademischen und wissenschaftlichen Berichte, die bald die Allgemeinheit beglücken werden, so lustig so etwas auch manchmal sein kann.

Aus Wikipedia zitieren: Wird diese Quelle in Bildung & Wissenschaft anerkannt?

Wikipedia, die riesige Online-Enzyklopädie, die von ihren Benutzern online geschrieben wird, hat sich als Segen bei der Suche nach rasch verfügbaren und leicht zugänglichen Informationen und einer Menge   Wissenenswertem herausgestellt. So eine Online-Enzyklopädie ist allerdings nicht ohne Probleme. Dazu gehört, dass das Zitieren von Wikipedia als primäre – oder auch sekundäre und tertiäre – Quelle in einer wissenschaftlichen Arbeit geradewegs zu einer negativen Benotung führt.

Es gibt viele Gründe, weshalb Wikipedia als Segen für die Wissenserweiterung vieler Menschen angesehen werden muss. Genauso viele Gründe gibt es allerdings dafür, dass Sie Wikipedia nicht als Quelle irgendeiner Art in Ihren akademischen Arbeiten angeben sollten.

Wikipedia ZitierenWikipedia ist keine wertneutrale Informationsquelle
In Wikipedia findet man wahrscheinlich zu jedem erdenklichen Thema zumindest einen Satz, dennoch wird sie in vielen akademischen Disziplinen nicht als verlässliche Quelle gesehen. Ein Grund ist, dass die Autoren der Beiträge in Wikipedia vielleicht nicht die notwendigen Qualifikationen besitzen oder mit genügend akademischer Sorgfalt vorgehen, um aus der Website durch Anregung von Disskussionen und Publikation von überpüfbaren Forschungsergebnissen eine glaubwürdige Quelle für Bildung und Forschung zu machen.

So gesehen bedeutet Wikipedia zu zitieren fast so etwas, wie in einem Gerichtsverfahren Hörensagen vorzubringen. In einer Aussage vor Gericht zu behaupten, “Ein Typ, der es von einem anderen gehört hat, hat mir gesagt, dass der Angeklagte das Verbrechen gestanden hat”, ist ein Beispiel für Hörensagen und ist vor Gericht unzulässig. Manchmal ähnelt Wikipedia einer Hörensagen-Liste.

Außerdem finden sich in manchen Einträgen der Online-Enzyklopädie nicht einmal Literatur- oder Quellenverweise, die den Textinhalt belegen – das bedeutet nichts anderes, als dass der Eintrag überwiegend auf Hörensagen beruht. Der Wiki-Leser soll – völlig entgegen den Richtlinien seriöser akademischer Forschung und wissenschaftlicher Praxis  – blind darauf vertrauen, dass das, was der Autor des Beitrags angibt, die ungeschminkte und verifizierbare, oder zumindest “falsifizierbare”, Wahrheit ist.

Wikipedia versucht, das Thema des gelegentlichen Fehlens akademischer Sorgfalt dadurch zu umgehen, dass sie einen Balken oberhalb des Artikels anbringt, wo darauf hingewiesen wird, dass Verweise fehlen, oder dass der Artikel hinsichtlich Quellennachweisen, Konsistenz und Unparteilichkeit noch revidiert werden müsse. Damit behaupten sie jedoch quasi, dass den Administratoren und Redakteuren der Website bewusst ist, dass der Inhalt des Eintrags mitunter fragwürdiger Natur ist und die  “caveat emptor”-Regeln gelten. Wie die meisten Akademiker bestätigen würden, ist das jedoch wohl kaum der Weg, um die Echtheit von Daten nachzuweisen. In Anbetracht dieser Problematik ist es gerecht, die Arbeit eines Kandidaten entsprechend abzuwerten, wenn als Quelle ausschließlich Wikipedia zitiert wird.

Wie man Wikipedia für akademisches und wissenschaftlichen Arbeiten richtig einsetzt
Alles ist jedoch noch nicht verloren, wenn es um das Zitieren von Wikipedia geht, denn die Online-Enzyklopädie bietet dem Benutzer tatsächlich einen brauchbaren Weg, um daraus einen Nutzen für die akademische Arbeit ziehen zu können. Das ist ganz einfache die Tatsache, dass für Sie, wenn Sie das Thema für eine Arbeit erhalten haben, ein Wikipedia-Eintrag mitunter einzelne oder mehrere nützliche Literaturverweise dazu liefert, die sie dann, sofern sie passen, als Primär- oder Sekundärquellen rezensieren und zitieren können.

In dieser Hinsicht kann Wikipedia als eine Art Richtungsgeber fungieren, der den Leser beim Besuch des Eintrags zu jenen Quellen leitet, die tatsächlich brauchbar sein können. Wikipedia zitieren kann also vollkommen vermieden werden, indem man die Website mehr wie eine Art Straßenkarte verwendet, die den Leser den Weg zu eher verwertbaren Quellen zeigt oder zumindest ein Grundverständnis des Themas vermittelt.

Es gibt keinen Zweifel, dass Wikipedia dazu beigetragen hat, den Bildungshorizont vieler Menschen in diesem neuen Millennium zu erweitern. Aber Wikipedia zu zitieren, als Primär-, Sekundär oder Tertiärquelle – geht das? Finger weg, heißt es in diesem Fall, und das würde jeder Lehrer, Dozent oder Professor sofort bestätigen.